こんにちは。
立教大学人工知能科学研究科M1の第13週が終わりました。
今週は、ついに研究室の定例ミーティングで初めての発表を行いました。
授業でも、最適化の具体的なアルゴリズムに入り、理解が深まっています。
自己学習も順調で、計算グラフと誤差逆伝播の仕組みに感動した週でもありました。
今週の授業・ミーティング参加状況
6/24(月)
-
情報科学概論(録画視聴)
6/25(火)
-
機械学習(録画視聴)
6/27(木)
-
研究室 定例ミーティング(初発表!)
6/29(土)
-
数理科学概論(録画視聴)
-
機械学習演習(録画視聴)
■ 情報科学概論(月)
今週のテーマは法律とプライバシー。
録画視聴のため、毎回提出する「リアクションペーパー」ですが、
これまでなんとか2点満点だったものの、ついに1点減点されてしまいました。
正直、時間をかけずにクイズの答えと軽い要約だけで出していたのが原因…。
とはいえ、必要十分な労力配分をしつつ、最低限の質は保っていきたいところです。
■ 機械学習(火)
今週は、
-
分類モデルのコード実装の説明
-
SVM(サポートベクターマシン)の数理的背景
に入りました。
SVMの理論は次週以降、さらに**数学的な深掘り(数式展開)**が進む予定。
ここをしっかり理解できれば、今後のモデル設計にも生きてくるはずです。
■ 研究室定例ミーティング(木)
今週のハイライト。
ついに全体の前で初めての研究発表を行いました。
発表前は緊張しましたが、
-
数名の先輩から質問とアドバイスをいただき、
-
教授からは「M1でこの進捗は非常に良い」との評価も。
非常に励みになりました。
また、質問やフィードバックを通じて、次に行う内容もクリアになりました。
■ 数理科学概論(土)
最適化の具体的な手法に突入。
今週のテーマは、
-
勾配降下法
-
ニュートン法
特にニュートン法は初めてでしたが、例題を通じて直感的に理解できました。
ニュートン法の「2次導関数を使って一気に最適解に近づける」という考え方は、
機械学習の高速化にもつながるため、今後も活用場面がありそうです。
■ 機械学習演習(土)
今週の演習は、テキストデータの分類タスク。
-
TF-IDFによるベクトル化
-
ロジスティック回帰やSVCでの分類
最近の大規模言語モデルとは違い、基本的な自然言語処理の流れを改めて確認。
この基礎を理解した上で、将来的には大規模な言語モデルにも取り組めそうです。
研究活動
研究は、
-
今のモデル
-
少し古典的なモデル
の精度比較フェーズに入りました。
偶然にも授業で学んだTF-IDFやSVMなど、比較対象がそのまま活かせるので、
学びと実践が直結している実感があります。
自己学習
引き続き、
『ゼロから作るディープラーニング③(フレームワーク編)』
-
現在チャプター20まで到達
-
自動で計算グラフを構築し、誤差逆伝播でパラメータの勾配を計算する仕組みに到達
内部の計算がどうなっているかを知ることで、
PyTorchやTensorFlowの挙動にも一段深い理解が得られてきました。
今週のまとめ
今週は、研究の初発表という大きなマイルストーンを越えた週になりました。
また、最適化やテキスト分類など、学んだ内容が研究に直結する感覚が強まっています。それでは、また次週!
コメント