GWの思い出

はじめまして、今年度から小倉研究室に所属しましたFmountと申します。

三日坊主が得意な主ですが、始めたからには様々なことを書いていくので
よろしくおねがいします (*´∀`*)

さて今回が初投稿であるわけですが、テーマは大型連休の思い出です。
みなさんは今年どのようなGWを過ごしましたか?

私は高校の同期が集まりワイワイガヤガヤ過ごしました。その人数なんと7人!
一人でも狭い部屋なのでどんな状況だったかはご想像にお任せします(笑)
大型連休前半は草津と青木湖へ、後半は新潟に帰りゆっくりしていました。

今年は去年よりもコロナが落ち着いてきたのもあり混んでいるかなという予感でしたが、大型連休前半は雨予報ということもありそこそこの人出でした。

DAY1(4/30)

本来の計画なら志賀草津高原ルートを通って草津へ行くはずがなんと前日に雪が降り、(5月にもなろうという日に雪が降るもんですね. .)最悪計画そのものが頓挫する可能性さえありました。しかし中山道の難所であった鳥居峠は通れたので嬬恋経由で草津に入りました。
そしてその道中私のお気に入りの道であるつまごいパノラマラインはこの日も絶景でした。

草津や嬬恋に寄る際はぜひこの道を通ってほしいです

DAY2(5/1)

この日は国道406,148,147,403号を経由して鬼無里村・青木湖・松本・聖高原に行ってきました。本来は青木湖で引き返し帰ってくる予定でしたが青木湖に行った段階で松本に行くか!となって急遽行きました(超絶無計画)。

白沢洞門、天気が良ければここから北アルプスの絶景が見られますが. . .

DAY3(5/3)

新潟へ帰るには一般的には国道18号や117号で行きますが今回は時間があったので山中の道を通って帰りました。

新潟ではもう水田に水が張られ、早いところでは田植えをしていました。
一昨年までは新潟にいたので田植えの季節なんだなぁと長野にいるからこそ感じました。

弁慶滝と妙高山

今年のGWは非常に充実した日々となりました👍

はんだ付け

こんにちは。二年のらんです。

先日電気電子実習ではんだ付けを行いました。

はんだ付けで気を付けることとしては、安全に使うことはもちろんですが、はんだはすぐに固まってしまうので、はんだ→はんだごての順に基板から離すようにしましょう。

それにしても基板に抵抗やトランジスタをはんだ付けするだけで機械が動くなんてすごいですよね。

今後の実習もみんなで楽しく頑張っていきたいと思います。

最後に、はんだ付けの練習のときに作ったものを載せておきます!

2022年のGolden Three Days 

山梨県へのお出かけ

お久しぶりです! 小倉研のMacです!

今年(2022年)の5月3・4・5日はゴールデン・ウィーク……いや、信大もの技にとってはゴールデン・スリーデイ(; ;)ホロホロ
いろいろお出かけしたので2部に分けて投稿しようと思いまーす!!

Let’s get started👍

第1部

5月3日山梨県の富士急ハイランドへ行ってきました!

これは“FUJIYAMA!!” 最高時速なんと130km/h( ゚Д゚) 約3分30秒の旅!?
待ち時間200分の後、乗車!!

こりゃ怖かった… けど、めっちゃ楽しかったから閉園間近に2回目!!笑笑
4人で行って1人(TT)( ̄∇ ̄)。

こちら”ええじゃないか”最高時速126km/h 回転数なんと1…14回!?!?
足がぶらぶらの状態で、身体はぐるんぐるん(*_*)
終わった後は髪の毛ボッサ笑 

ここまで第1部でした!
最高に楽しい1日でした!!皆さんも是非行ってみてください(^<^)
TO BE CONTINUE

部屋を片付けたい、、、

こんにちは。peaceです。

今日(5/9)でGWも終わり、授業がスタートしました。
皆さんはGWどのように過ごしたでしょうか?

私は、自転車で長野市内を走り回ってました~笑

目的は、部屋作りでほしいものをホームセンターで探すこと+ゲームセンター巡りです!

ホームセンターで探していたのは、「スノピタ」というアイテムです!これを使うと、すのこを使って壁面収納を作る事ができます。『部屋が狭くて棚が置けない』や、『部屋の収納が少ない』など、収納に困っている方。ぜひ、「壁」を有効活用して見て下さい!
→壁面収納ができ次第、ブログを更新しようと思います!

これまでに取った呪術廻戦のぬいぐるみ達

ゲームセンター巡りでは、UFOキャッチャーを見てきました(7店舗くらい)。目的としては、景品を取ることよりも、どのゲームセンターがとれやすそうかな~という視点で見てきました。個人的にはラ○ンド1にあるゲームセンターが、ゲームの設定や取りやすさ的にも、いいなぁと感じました。
個人的な意見ではありますが、参考にしてみてはいかがでしょうか?笑

以上、GWの報告でした~。

浜松へぶらり旅

こんにちは。magnetです。

最近、何かと忙しくて時間に追われています。

充実している反面、これで良いのか自問自答しています笑

 

ところで、本日 (5/8) はゴールデンウィークの終盤ですね。

私は実家に帰りましたが、どこかに行きたい欲があり、

浜松まで行ってきました。

 

目的地を1つ決めて、その前後に

時間が許す限りどこかへ行く

と言った具合です。

 

最初に SWEETS BANK というところに行って来ました。

めちゃくちゃきれいでした。そしてカップル多かった……

SWEETS BANK

カフェが併設されているので、お昼を食べようとしたら…

驚異の1時間半待ちでした。

ゴールデンウィークだからしょうがない…

日帰りの身からすると、時間が惜しかったので、渋々諦めました……

日帰りは、割り切りが大事なのです…泣

今度は是非食べに行きたい!

 

次は、浜松城 に行こうと思い、

バス停まで行くと、近い時間が無い!ことに気づきました。

「じゃあ歩いて行きます(40分)」

1人旅ならではの思考ですね笑

住宅街とかをただただ歩くことも好きですから、

全然、苦では無かったですよ。ええ。

そして辿り就いた浜松城。

長い道のりでしたが、景色が良かったです。

天気が良いと富士山がうっすら見えるとのことでしたが、

残念ながら、私の目には、映らなかったです……

景色全般、撮るの忘れましたが。

 

最後は、徳川家康にご挨拶して帰りましたとさ。

そういえば、誕生日一緒なんだとか。

なんか縁を感じますね。

 

ここまで、浜松へのぶらり旅を報告しましたが、

なんか煮え切らない思いでいっぱいです。

今度は、誰かと一緒に車で、行きたいです。

 

以上、magnetのぶらり旅報告でした!

では、また!

PythonでWebスクレイピング

どうも。magnetです。

最近の情報系の授業において、「スクレイピング」というものを学びました。

スクレイピングについて詳しく知りたい方は、

「ゆう」が書いたこちらの記事をどうぞ~

その授業で各自製作の課題が課されたので、

とあるサイトをスクレイピングしてみました!!

以下に私が書いたコードを載せておきますね~。

import requests
from bs4 import BeautifulSoup
# importでrequestとbs4のBeautifulsoupを読み込みます。
# Webページを取得して解析する

load_url = "とあるサイトのURL"
# とあるサイトのURLをload_urlと定義。
html = requests.get(load_url)
# htmlをrequestのgetというメソッドを使い、 するものだと定義する。
soup = BeautifulSoup(html.content, "html.parser")    # HTMLを解析する
#ちょっとよく分からない。
# ~ここまでで、HTML全体を表示するプログラムは完成~

menu_all = soup.find_all(class_ = "menu-list")
# menu_allと定義します。

for menu in menu_all :
#for 関数 in リスト でmenuの中にmenu_allを何回も入れていきます。
    menu_name_full=menu.find_all('h4',attrs={'class':'menu-name'})
    #menu_nameを全て探すことを、menu_name_fullと定義します。
    for menu_name in menu_name_full :
    #menu_nameの中にmenu_name_fullを何回も入れていきます。
        print(menu_name.text)
        print()
        #printで指定したものの表示と、見やすいように空白を表示しています。

それぞれのコードの詳しい説明は#で書いてある文を参照してみて下さい!

これを実行すると、、、

メニュー一覧が出てきます。。

やってることそんなに難しそうじゃ無いじゃんか。

って思うかもしれませんが、

実際やってみると結構重めです……

なかなか理解出来ずに困ってましたが、

周りの助けも有りなんとか完成できました!

手伝って下さりありがとうございました。

今回のものは、メニュー一覧だけの表示となっていますが、

カロリーや値段も対応して表示出来ると、

データサイエンスみが増しますね。

また、完成したら投稿したいと思います。

ではでは。

あ、あと興味があればぜひ最新の投稿もご覧下さい!

YouTube Data API v3 使ってみた!①

お久しぶりです。peaceです。
今回は、「YouTube Data API v3」を利用し、
信州大学公式YouTube【shinshuweb】https://www.youtube.com/user/shinshuweb
のデータを取得しようと思います!

今回やりたいことの全体の流れ(超ざっくりと)

1.Google Cloud Platform への登録
2.APIキーの取得
3.信州大学公式YouTube【shinshuweb】のチャンネルIDの取得
4.信州大学公式YouTube【shinshuweb】のいろんなデータ取得

今回の投稿の内容

1.Google Cloud Platform への登録

1.Google Cloud Platform への登録

 今回使用する「YouTube Data API v3」は、「Google Cloud Platform」への登録が必要とです。登録には、Googleアカウントとクレジットカード、電話番号、インターネット環境が必要となります。
 「YouTube Data API v3」と「Google Cloud Platform」については↓をご覧ください。

YouTube Data API v3 とは?

Youtube動画を取得できるAPI(API=プログラムとシステムを繋げる仕組み。今回の場合はプログラムとYouTubeの動画。)です。
特定のキーワードやチャンネルの動画を取得することや、動画の統計情報を取得することができます!

Google Cloud Platform とは?

Googleがクラウド上で提供するサービスの総称です。
データ分析や機械学習、コンピューティングなど、様々なサービスが利用できます!

 

PythonでWebスクレイピング(後編)

おしながき

  • 今回やりたいこと
  • 作る順番
    1. ライブラリのインストール
    2. コーディング
    3. Pandasを使って、CSV形式での保存
  • まとめ

今回やりたいこと

今回やりたいこととしては、

学校情報サイトから、「学校名」「生徒数」「住所」をスクレピングしていきたいとおもいます。そして、最後にはPadansを使って、CSV形式で保存するところまでやっていきたいと思います。

順序は

  • ライブラリのインストール
  • コーディング
  • Pandasを使って、CSV形式での保存

大まかに分けてこの3つになります。少し長くなってしまうかもしれませんが、ゆっくりやっていきましょう!

作る順番

1.ライブラリのインストール

今回使用するライブラリは「requests」「Beautifulsoup 」「pandas」「time」の4つです。webスクレイピングというと「selenium」もBeautifulsoup と同様に人気で使われていますが、今回は使用しないです。

インストールを行っていない方は

pip install requets
pip install pandas
pip install Beautifulsoup

をコマンドプロンプトでやっていただければインストールをできます。

2.コーディング

下のものが本編になります

#今回使うライブラリ
import time 
import requests
from bs4 import BeautifulSoup
import pandas

#スクレイピングをするサイト
#URLは今回は伏せておきます
url='@@@@@@@@@@@@@@@@@@@@@@@@@@@'

#requestsを使って、URL先の情報を取得
res=requests.get(url)
soup=BeautifulSoup(res.text,'html.parser')
school_list=soup.find_all('li',attrs={'class':'school_list_city'})


for details in school_list :
    school_details={}
    sdd=details.find('div',attrs={'class':'school_detail_data'})
    school_name=sdd.find('p',attrs={'class':'school_name'}).find('span').text
    shcool_item=sdd.find('p',attrs={'class':'item'})
    total_students=shcool_item.find('span',attrs={'class':'border_underline'}).text
    ads=sdd.find('p',attrs={'class':'item position'})
    ad=ads.find('span',attrs={'class':'small'}).text

    school_details['学校名']=school_name
    school_details['生徒数']=total_students
    school_details['住所']=ad
    data.append(school_details)
    time.sleep(2)

コードがきれいに書けていないかもしれませんが、まだまだ勉強中の身なので、ご容赦していただければと思います

少し解説をさせていただくと

ところどころに「~.find(‘@@’),attrs={‘class’:’%%%’}」と言った記述がたくさんあると思います。これを抑えることができたら簡単なスクレイピングは可能かと思います。

これを日本語変換してみると「~の中の一番最初の@@タグのclassの%%%を指定します!」といった感じです。HTMLというデータはとても大きいものなので、一気に操作を行うのではなく、少しづつ絞っていくとやりやすいのではないかと思います。

3.Pandasを使って、CSV形式での保存

スクレイピングをしたデータをpandasを使って、DataFrameに格納し、それをCSV形式で保存することは一見難しそうに見えますが、案外簡単です。

#pandasを使って、DataFrameに格納
df=pd.DataFrame(data)
#CSV形式で保存
df.to_csv('学校の情報.csv',index=False,encoding='utf_8_sig')

この2行だけで終わりです。少し解説をさせていただくと、「index=False」というのは、DataFrameに格納した際にインデックス番号が同時に付与されるのですが、「CSV形式で保存するときにそのインデックス番号はいらないよー」ということです。

まとめ

かなり駆け足でBeautifulsoup を使ったWebスクレピングを紹介していきました。高校情報Ⅱの教員研修資料にも今回のBeautifulsoup を使ったWebスクレイピングは紹介され、今後必要なスキルの一つになるのではないかと思います。

また、プログラミングは様々な勉強ツールがあります。今回は私が勉強するときに使用したYouTubeの動画のURLを載せておきたいと思います。勉強するときの助けになればいいなと思います。

PythonでWebスクレイピング(前編)

おしながき

  1. Webスクレイピングとは?
  2. Webスクレイピングを行うときに注意すべきこと
  3. まとめ

1.Webスクレイピングとは?

Webスクレイピングの定義を調べてみると、、、

Webスクレイピング(Webデータ抽出、スクリーンスクレイピング、Webデータ収集とも呼ばれる)は、Webサイトから大量の情報を自動的に抽出するコンピュータソフトウェア技術のことです。データの多くはHTML形式の非構造化データで、これをスプレッドシートやデータベースの構造化データに変換することで、さまざまなアプリケーションに利用することができます。Webスクレイピングの主な使用例としては、価格監視、価格情報、ニュース監視、リードジェネレーション、市場調査などが挙げられます
引用:https://www.octoparse.jp/blog/web-scraping/#div1

といったように、インターネット上の情報をプログラムを使って、大量に抽出することを指します。抽出されたデータは「.xlsl」や「.csv」の形式で出力され、市場調査やデータ分析等に使われます。今回行うことは、Pyhtonでwebスクレイピングを行いますが、最近では、ノーコードでもWebスクレイピングを行うことができます。一例ではありますが「Octoparse」といといったサービスもあります。興味がある方はぜひともチェックしていただきたいと思います。

2.Webスクレイピングを行うときに注意すべきこと

 Webスクレイピングはとても便利な反面、注意すべき点ももちろんあります。それは

  • サーバへの負荷をかけすぎない
  • そのサイトがスクレイピングをしても問題ないか

これらのことを最低限注意しなければなりません。

 1つ目のサーバへの負荷については「間隔を開けてアクセスする」ことが一番手っ取り早いと思います。Pythonであれば

import time
for i in range(5):
    print(i)
    time.sleep(1.0)

のように、1秒ごとの間隔をあける工夫をすることで、負荷を減らすことができます。難しいことではないと思うので、思いやりの心を持ってやっていただけたらと思います。

 2つ目の「そのサイトがスクレイピングをしても、問題がないか」についてはしっかりと確認する必要があります。今回は有名なスクレイピングを行ってはいけない代表的なサイトを紹介したいと思います。

  • Amazon
  • Rakuten(楽天)
  • Twitter、Instagram、FacebookなどのSNS

これらのサイトの他にもスクレイピングを行ってはいけないサイトはたくさんあります。なので、行う前に対象のサイトの「利用規約」をしっかりと確認することが大切です。これら無視した場合「偽計業務妨害罪」に問われる可能性があります。更に細かいことは下のリンクに書いてあったので、気になる方はスクレイピングを行う前に確認してもらうといいと思います。

3.まとめ

Webスクレイピングは大変便利な半面、怖い観点もあります。なので、サイトに迷惑をかけない範囲で行うことが重要なのかと思います。後編では実際にどうやってスクレイピングを行うのかを解説をしたいと思います。

セルフイントロダクション

こんにちは。新しく小倉研に入ったMacです。

出身は新潟県柏崎市です。好きなことは、音楽を聴くことと運動をすることです。

部活は車椅子バスケットボール、サークルはTOSSとボーカロイドサークルに所属しています。

ものづくり技術教育コースを選んだ理由は、今後教育の現場でプログラミング教育などが必要になっていくのと、教育以外の進路も選ぶことが出来るからです。将来は、技術の先生になりつつ世界進出!!笑笑笑

ところで、、、新潟県の絶景スポットは何か知っていますか??

僕のオススメランキング

1位 清津峡(日本三大渓谷の1つ)

2位 高田城の夜桜(日本三大夜桜の1つ)

3位 青海川駅(インスタスポット 日本一海に近い駅)

次は、車椅子バスケットボール部についてです。

youtu.be/iCBxQUghzRE ここから飛べます!

皆さん入部お待ちしています!体験会もやっているのでinstagramのフォローも宜しくお願いします!