Chapter 00

なぜ基礎数学を学ぶか

ディープラーニング・機械学習を理解するために、なぜ数学が必要か、どんな数学が使われるかを簡潔に述べます。

home.mathDiagramTitle

home.mathDiagramDescription

Ch01~Ch12で学ぶこと

ディープラーニング・機械学習を理解するには、関数指数・対数極限・微分・積分確率・分布といった基礎数学が必要です。Ch01~Ch12で学ぶ内容がまさにそれです。関数は入力→出力の土台で、微分・勾配はモデルが学習時にパラメータをどこをどれだけ変えるか決めるのに使います。確率・分布は予測と不確実性に必要です。

  • Ch.01
    関数

    関数は入力一つに出力一つが対応する規則です。ニューロンや層も関数として理解できます。

  • Ch.02
    指数と指数関数

    指数は同じ数を何回かけたかを表し、指数関数はその規則を変数にした関数です。ディープラーニングの活性化・損失の設計で使われます。

  • Ch.03
    対数関数

    対数は「底を何回かけたらその数になるか」を表します。指数の逆演算であり、ディープラーニングの損失・確率の式で指数とともに使われます。

  • Ch.04
    極限とイプシロン-デルタ論法 (ε-δ)

    極限は「ある値に限りなく近づくとき」を表します。イプシロン-デルタはそれを数学的に厳密に定義する方法で、微分・ディープラーニングの基礎になります。

  • Ch.05
    連続性

    ある点で連続とは、そこでの極限が存在し、その値が関数値と一致するときです。微分可能性や、ディープラーニングの活性化・損失関数の理解の基礎になります。

  • Ch.06
    微分と導関数

    微分はある点での瞬間の変化率(傾き)を表します。導関数はそれを関数にしたもので、ディープラーニングの勾配降下法・誤差逆伝播の基礎になります。

  • Ch.07
    連鎖律

    関数を重ねて書いたものを微分するときは外の微分 × 内の微分をかければよいです。逆伝播の核心です。

  • Ch.08
    偏微分と勾配

    変数が複数あるとき、一つの変数だけ動かして微分するのが偏微分、その偏微分を並べたベクトルが勾配です。勾配降下法の基礎です。

  • Ch.09
    積分

    積分は微分の逆演算です。曲線の下の面積・累積量を求め、確率・期待値で使います。

  • Ch.10
    確率変数と確率分布

    確率変数は試行の結果を数で表したもので、確率分布はそれぞれの値の出やすさをまとめたものです。深層学習では予測・不確実性に使います。

  • Ch.11
    平均と分散
  • Ch.12
    一様分布と正規分布

ディープラーニング・機械学習を理解するために、なぜ数学が必要か

ディープラーニング・機械学習を理解するには数学が必要です — どちらも入力(画像・文・音)をに変え、関数かけ算・足し算を繰り返して答えを出します。その過程全体が関数極限・微分確率・分布といった数学で書かれています。数学がなければ「どんな計算がどう行われているか」を読むのが難しく、あればなぜその出力になったかを解釈できます。
どんな数学が使われるか関数は「入力一つに出力一つが決まる規則」、ベクトル・行列は数をまとめて一括計算するためのものです。微分・勾配はモデルが学習するときにパラメータをどこをどれだけ変えるか決めるのに使われ、確率・分布は予測と不確実性に必要です。だからディープラーニング・機械学習を理解するには、この基礎数学が必要です。
まとめ — ディープラーニング・機械学習は数と関数の上で動いています。その内部を理解するには関数極限・微分・勾配確率・分布を押さえておくとよいです。このコース(Ch01~Ch12)は、その「ディープラーニング・機械学習を理解するために必要な数学」を順に扱います。
なぜ数学が必要か — ディープラーニング・機械学習モデルの判断(次の単語、レコメンド、翻訳、分類など)は、すべて数と関数で計算されています。その過程を理解するには関数(入力→出力)、極限・微分(学習で使う勾配)、確率・分布(予測・不確実性)といった基礎数学が必要です。数学を押さえると、なぜその答えになったかを読めます。
ディープラーニング・機械学習で数学が使われる場面は入力を重みでかけ算・足し算する関数であり、学習は損失を減らすために勾配でパラメータを調整する過程です。確率・分布は予測区間、不確実性、損失関数の設計に使われます。だからディープラーニング・機械学習を理解するには、この数学がどこでどう使われているかを知ることが重要です。
このコースの流れ(Ch01~Ch12)Ch01 関数Ch02・03 指数・対数Ch04~05 極限・連続性Ch06~08 微分・連鎖律・偏微分・勾配Ch09 積分Ch10~12 確率変数・平均・分散・一様・正規分布。それぞれ入力→出力学習(勾配)予測・不確実性と結びついています。左のチャプター一覧の順に進めてください。
ディープラーニング・機械学習の理解と数学のつながり — モデルは入力→数→関数の繰り返し→出力という構造です。関数(Ch01~)はその基本単位で、微分・勾配(Ch06~08)は学習時に「どこをどれだけ変えるか」を決めるのに使われます。確率・分布(Ch10~12)は予測と損失の解釈に使われます。この基礎数学を押さえると、ディープラーニング・機械学習の内部計算を理解しやすくなります。