Chapter 00
なぜ基礎数学を学ぶか
ディープラーニング・機械学習を理解するために、なぜ数学が必要か、どんな数学が使われるかを簡潔に述べます。
home.mathDiagramTitle
home.mathDiagramDescription
Ch01~Ch12で学ぶこと
ディープラーニング・機械学習を理解するには、関数・指数・対数・極限・微分・積分・確率・分布といった基礎数学が必要です。Ch01~Ch12で学ぶ内容がまさにそれです。関数は入力→出力の土台で、微分・勾配はモデルが学習時にパラメータをどこをどれだけ変えるか決めるのに使います。確率・分布は予測と不確実性に必要です。
- Ch.01関数
関数は入力一つに出力一つが対応する規則です。ニューロンや層も関数として理解できます。
- Ch.02指数と指数関数
指数は同じ数を何回かけたかを表し、指数関数はその規則を変数にした関数です。ディープラーニングの活性化・損失の設計で使われます。
- Ch.03対数関数
対数は「底を何回かけたらその数になるか」を表します。指数の逆演算であり、ディープラーニングの損失・確率の式で指数とともに使われます。
- Ch.04極限とイプシロン-デルタ論法 (ε-δ)
極限は「ある値に限りなく近づくとき」を表します。イプシロン-デルタはそれを数学的に厳密に定義する方法で、微分・ディープラーニングの基礎になります。
- Ch.05連続性
ある点で連続とは、そこでの極限が存在し、その値が関数値と一致するときです。微分可能性や、ディープラーニングの活性化・損失関数の理解の基礎になります。
- Ch.06微分と導関数
微分はある点での瞬間の変化率(傾き)を表します。導関数はそれを関数にしたもので、ディープラーニングの勾配降下法・誤差逆伝播の基礎になります。
- Ch.07連鎖律
関数を重ねて書いたものを微分するときは外の微分 × 内の微分をかければよいです。逆伝播の核心です。
- Ch.08偏微分と勾配
変数が複数あるとき、一つの変数だけ動かして微分するのが偏微分、その偏微分を並べたベクトルが勾配です。勾配降下法の基礎です。
- Ch.09積分
積分は微分の逆演算です。曲線の下の面積・累積量を求め、確率・期待値で使います。
- Ch.10確率変数と確率分布
確率変数は試行の結果を数で表したもので、確率分布はそれぞれの値の出やすさをまとめたものです。深層学習では予測・不確実性に使います。
- Ch.11平均と分散
- Ch.12一様分布と正規分布