こんにちは。
立教大学人工知能科学研究科M1としての第11週を終えました。
今週は、分類モデルの数理的な理解が深まった1週間でした。
また、研究ではモデル比較が一段落し、エラー分析フェーズへ。
さらに自己学習では、フレームワーク学習への第一歩を踏み出しました。
今週の授業・ミーティング参加状況
6/10(月)
-
情報科学概論(録画視聴)
6/11(火)
-
機械学習(録画視聴)
6/13(木)
-
研究室 定例ミーティング(Zoom参加)
6/15(土)
-
数理科学概論(録画視聴)
-
機械学習演習(録画視聴)
■ 情報科学概論(月)
今週はSQLとテーブル設計についての講義でした。
ちょうど実務でSnowflakeを使っていたこともあり、
非常にイメージしやすく、内容もスムーズに理解できました。
■ 機械学習(火)
分類問題の理論をさらに深掘り。
確率からロジットの導出 → 識別関数との接続という流れを丁寧に解説され、
「なぜロジスティック回帰であの形になるのか」が数式ベースで腑に落ちました。
理論と実装がようやくつながってきた感覚です。
■ 研究室定例ミーティング(木)
数名の学生が研究進捗を報告していました。
発表の仕方や構成も含め、毎回参考になる部分が多いです。
自分の報告準備の際にも取り入れたいと思っています。
■ 数理科学概論(土)
今週は情報量・エントロピー・クロスエントロピーについて。
分類問題における損失関数としてのクロスエントロピーの導出まで扱われ、
数学的背景をきちんと理解できました。
また、課題を通して平均二乗誤差(MSE)との違いにも気づくことができ、
損失関数選択の意味を再認識する良い機会となりました。
■ 機械学習演習(土)
テーマは決定木モデル。
-
単純な決定木
-
ランダムフォレスト
-
ブースティング(勾配ブースティング含む)
それぞれの特徴・長所・短所が明確になり、今後の選定にも役立ちそうです。
研究活動
先週までに実施したモデル比較が完了し、
今週からはエラー分析フェーズに入りました。
-
明らかな誤分類・予測ミスの傾向
-
特定のカテゴリでのみ精度が落ちる理由
などを探りながら、次の改善点を探っているところです。
ここからさらに精度と汎化性能を高めていきたいです。
自己学習
今週から新たに着手したのが:
■ 『ゼロから作るディープラーニング③(フレームワーク編)』
|
きっかけは教授からのひと言、
「KerasだけでなくPyTorchにも慣れておいてね」という助言でした。
PyTorchはこれまでほとんど使ってこなかったため、
いっそフレームワークの構造自体を理解しようと、
自作フレームワークの実装から学び直すスタンスを取りました。
基礎を学び直すことは遠回りに見えて、
将来的には実務での応用力の差になると信じています。
今週のまとめ
今週は、分類理論の理解 → 損失関数の選択 → モデルの比較と分析と、
機械学習の「なぜそうなるのか」という本質に向き合う週となりました。
また、自己学習ではPyTorchに踏み出したことで、
より柔軟なモデル設計力を身につける土台づくりが始まったと感じています。
来週も研究の改善案を試しながら、レポート課題にも着手していく予定です。
それでは、また次週!
コメント