Chapter 00
ディープラーニングとは?
ディープラーニングの概要と、Ch01〜Ch12で何を学ぶかをひと目で把握します。
チャプター別 ディープラーニング図
チャプターを進めるたびに、下の図が少しずつ埋まります。ここまでの構造です。
Ch01~Ch12で学ぶこと
- Chapter 01ベクトル内積
二つのベクトルの向きと大きさを掛け合わせ、一つのスカラーで表す最も基本的な演算。
- Chapter 02行列の積
前の行列の行と後の行列の列の内積で、新しい行列の要素が埋まる。
- Chapter 03線形層(重みとバイアス)
入力に重み行列を掛け、バイアスを足す層。
- Chapter 04活性化関数(非線形)
ニューロンの出力を非線形にする関数。
- Chapter 05人工ニューロン(重み付き和と活性化)
入力の重み付き和を計算し、活性化関数を適用する単位。
- Chapter 06バッチ(一度に計算)
複数サンプルをまとめて一度に計算する単位。
- Chapter 07重み付き結合
層やニューロン間の重み付き接続。
- Chapter 08隠れ層(見えない層)
入出力層の間にある層。
- Chapter 09深さ(ディープネット)
隠れ層が多いこと。ディープラーニングの「ディープ」。
- Chapter 10幅(1層のニューロン数)
一層あたりのニューロン数が多いこと。
- Chapter 11ソフトマックス(確率に変換)
ベクトルを0〜1の和が1になる確率分布のようにする関数。
- Chapter 12勾配(逆伝播)
パラメータを少し変えたとき、損失がどの方向にどれだけ変わるかを表す。
ディープラーニングとは?
ディープラーニングは、コンピュータがとても多くの例を見て、自分でパターンを学ぶ方法です。人間がルールをひとつずつ入れるのではなく、データを見せると「こんな入力にはこんな出力」を自分で見つけます。その仕組みが人工ニューラルネットです。脳のニューロンのような小さな計算単位を何層も重ねたものがディープラーニングです。
なぜディープラーニングが大切か? 身の回りの多くの技術がディープラーニングで動いています。ChatGPTやGeminiのような対話・文章生成AI、テスラのような自動運転(カメラで車線・歩行者・信号を認識)、Netflix・YouTubeのレコメンド、翻訳、顔認識まで、すべて同じ原理です。入力を数字に変え、層ごとにかけ算・足し算を繰り返して結果(分類・予測・生成)を出します。実際、さまざまな業界(IT・医療・金融・製造など)や学術界では機械学習・ディープラーニングの研究が主役になっています。
市販の高性能モデルを使えばいいのでは? 市販の高性能モデルを使うこと、あるいはディープラーニング・機械学習のモデルを作ることもバイブコーディングで可能です。ただしそのモデルをうまく使い、変更したり活用したりするには、この章で扱う基礎知識(内積、行列の積、勾配など)が必要です。だからディープラーニングを学んで章を進めることが大切です。
一層がやることは、入ってきた数字に重みをかけて足し、次の層に渡すことです。多くの層がつながると、単純な情報がだんだん「エッジ」「目・鼻」「犬/猫」のような大きな特徴に変わります。学習は正解例を見せながら重みを少しずつ変えて正解に近づける過程です。「どこをどれだけ変えるか」を教えるのが勾配(グラディエント)で、Ch12で学びます。
このコースではどう学ぶ? 一層がやることは結局かけ算・足し算の繰り返しです。Ch01 内積→Ch02 行列の積→Ch03〜05 線形層・活性化・人工ニューロン→Ch06〜10 バッチ・結合・隠れ層・深さ・幅→Ch11〜12 ソフトマックス・勾配の順に、その計算を一歩ずつ学びます。
下のロードマップで各章の内容を確認してください。Ch01から順に進めば、ChatGPTや自動運転のようなシステムが内部でどんな式を使っているか理解できるようになります。