Chapter 00
基礎数学とAI:AIの言語を学ぶ
チャプター別 数学図
チャプターを選ぶと、下の図がそのチャプターの内容に切り替わります。基礎数学の流れを一覧で確認できます。
Ch01~Ch12で学ぶこと
ディープラーニング・機械学習を理解するには、関数・指数・対数・極限・微分・積分・確率・分布といった基礎数学が必要です。Ch01~Ch12で学ぶ内容がまさにそれです。関数は入力→出力の土台で、微分・勾配はモデルが学習時にパラメータをどこをどれだけ変えるか決めるのに使います。確率・分布は予測と不確実性に必要です。
- Ch.01関数:入出力をつなぐAIの基本単位
関数は入力一つに出力一つが対応する規則です。AIが入力を出力に変える仕組みもこの関数の考え方に直結しています。
- Ch.02指数と指数関数:成長と活性化の数学
指数は同じ数を何回かけたかを表し、指数関数はその規則を変数にした関数です。ディープラーニングの活性化・損失の設計で使われます。
- Ch.03対数関数:かけ算を足し算に、損失設計の言語
対数は「底を何回かけたらその数になるか」を表します。指数の逆演算であり、ディープラーニングの損失・確率の式で指数とともに使われます。
- Ch.04極限とε-δ:「限りなく近づく」を定義する
極限は、目標の点に到達しなくてもその状態を予測する数学的な道具です。動く物体の瞬間速度を測ったり、AIが答えに向かって少しずつ進む「学習」の過程は、すべてこの極限の概念の上に成り立っています。
- Ch.05連続性:途切れない曲線、微分への扉を開く
ある点で連続とは、そこでの極限が存在し、その値が関数値と一致するときです。微分可能性や、ディープラーニングの活性化・損失関数の理解の基礎になります。
- Ch.06微分と導関数:瞬間の傾き、学習の羅針盤
微分はある点での瞬間の変化率(傾き)を表します。導関数はそれを関数にしたもので、ディープラーニングの勾配降下法・誤差逆伝播の基礎になります。
- Ch.07連鎖律:重ねた関数を解く、逆伝播の核心
関数を重ねて書いたものを微分するときは外の微分 × 内の微分をかければよいです。逆伝播の核心です。
- Ch.08偏微分と勾配:多変数の世界、勾配降下の方向
変数が複数あるとき、一つの変数だけ動かして微分するのが偏微分、その偏微分を並べたベクトルが勾配です。勾配降下法の基礎です。
- Ch.09積分:面積と累積、確率への架け橋
積分は微分の逆演算です。曲線の下の面積・累積量を求め、確率・期待値で使います。
- Ch.10確率変数と確率分布:不確実性を数に込める
確率変数は試行の結果を数で表したもので、確率分布はそれぞれの値の出やすさをまとめたものです。深層学習では予測・不確実性に使います。
- Ch.11平均と分散:分布の中心と広がり
平均(期待値)は分布の中心、分散はばらつきを表します。AIでは予測・損失・正則化に使われます。
- Ch.12一様分布と正規分布:初期化から予測まで
一様分布は区間で一様に広がる確率、正規分布は平均まわりに鐘形に広がる確率を表します。AIでは初期化・ノイズ・事前分布に使います。
ディープラーニング・機械学習を理解するために、なぜ数学が必要か
- 区分入力と出力
- AIにおける役割データを入れ答えを得る基本枠
- 核心数学概念関数、指数、対数
- 区分学習(Training)
- AIにおける役割誤差を減らし正解に近づく過程
- 核心数学概念極限、微分、連鎖律
- 区分予測と判断
- AIにおける役割不確実な結果の中から最善を選ぶこと
- 核心数学概念確率、統計、正規分布
| 区分 | AIにおける役割 | 核心数学概念 |
|---|---|---|
| 入力と出力 | データを入れ答えを得る基本枠 | 関数、指数、対数 |
| 学習(Training) | 誤差を減らし正解に近づく過程 | 極限、微分、連鎖律 |
| 予測と判断 | 不確実な結果の中から最善を選ぶこと | 確率、統計、正規分布 |