機械学習はPythonを使って実行することは可能ですが、その中身を理解するためには数学的知識が必要不可欠です。
数学を扱う講座は多いですが、本講座ではPythonを使って解説するところがオリジナルな点です。Pythonのプログラミングを通じて、本講座では機械学習を理解する上での数学の基礎知識、線形代数の計算などを中心にわかりやすく解説します。
- 序論:ロードマップ
- 機械学習の基礎
- なぜ数学が機械学習に必要か
- 数学⇒機械学習へのロードマップ
- 機械学習とオブジェクト指向】
- 線形代数:ベクトル
- ベクトルの基礎
- ベクトルの内積
- ベクトルのノルム
- 線形代数:行列
- 行列の基礎
- 行列の積
- 逆行列
- 行列と連立方程式
- 行列と写像
- 線形結合と二次形式
- 指数関数と対数関数
- 指数と対数
- 指数関数の微分
- 対数関数の微分
- シグモイド関数
- ソフトマックス関数
- ガウス関数
- 微分
- 微分の基礎
- 微分係数
- 勾配を図で表す
- 導関数と微分
- 偏微分の基礎
- 偏微分とは
- 多変数関数の偏微分
- 合成関数の偏微分
- 偏微分応用
- 目的関数の偏微分
- 最急勾配降下法
- ラグランジュの未定乗数法
- 教師あり学習:回帰
- 直線モデル
- 直線モデルパラメータの解析
- 面モデル
- 面モデルパラメータの解析
- D次元線形回帰モデル
- 線形基底関数モデル
- オーバーフィッティング
- モデルの選択
- 教師あり学習:分類
- クラス分類
- ロジスティック回帰モデル
- 最尤推定法
- 面モデルパラメータの解析
- 交差エントロピー誤差
- 勾配法による解
- サポートベクターマシン
- サポートベクターマシン基礎
- マージン最大化・ソフトマージン
- 高次元空間への写像
- Pythonによるサポートベクターマシンの実行
- ニューラルネットワーク
- ニューロンモデル
- 多層ニューラルネットワーク
- 数値微分法
- 誤差逆伝播法
- Pythonによるニューラルネットワークの実行
- 教師なし学習
- 標準化
- 回転行列による回転
- 主成分分析
- 固有値問題
- K-meansクラスタリング
- Pythonによる教師なし学習の実行