Chapter 05
人工ニューロン(重み付き和と活性化)
入力の重み付き和を計算し、活性化関数を適用する単位。
チャプター別 ディープラーニング図
チャプターを進めるたびに、下の図が少しずつ埋まります。ここまでの構造です。
点線の円の中が人工ニューロン1つ。入力(X)に重みをかけて足し(w·x+b)、ReLUを通って出力(Y)になります。
ディープラーニングで見る人工ニューロン
人工ニューロンはディープラーニングの最小の計算単位です。やることは二つだけ: ① 重み付き和 Z = W·X + b を計算、② 活性化関数 Y = ReLU(Z) や Sigmoid(Z) を適用。
生物の神経細胞がモデルです。本物のニューロンは複数の信号を受け取り、それぞれに異なる重みをかけて合計し、一定以上なら発火します。人工ニューロンはこの仕組みを数式で簡略化したものです。
まとめると: 入力 (X) → 重みとバイアス (Z = W·X + b) → 活性化 (Y = f(Z)) → 出力 (Y)。これが人工ニューロンのすべてです。
ChatGPTや画像認識、レコメンドシステムなどのAIモデルは、こうしたニューロンを数千〜数十億個つないで作られています。一つのニューロンを理解すれば、モデル全体の動きが読めるようになります。
学習(トレーニング)とは各ニューロンの重み (W) とバイアス (b) を少しずつ調整して、出力を正解に近づけることです。WとbがYにどう影響するかを知ることが、学習の理解の鍵です。
一つのニューロンは内積+バイアス+活性化を組み合わせたもので、これまでのチャプターの内積・行列の積・線形層・活性化関数がすべてここに集約されます。
日常の例え──試験合否予測: 「数学×0.4 + 理科×0.4 + 英語×0.2 + 5 = 75」(重み付き和)を計算し、「60以上→合格(1)、未満→不合格(0)」(活性化)と判定する──これがまさに一つのニューロンの動作です。
画像認識での一ニューロン: 画像の特定領域のピクセルを受け取り、重み付き和+バイアスを計算し、ReLUを通して「ここに横線があるか?」のスコアを出します。こうしたニューロンが何千個も集まって「犬か猫か」を判定します。
チャットボット・翻訳・音声認識: 文や音の各部分が数値に変換され、ニューロンが「どんなパターンがあるか」をスコアリングし、次の層のニューロンに渡してより複雑な意味を段階的に把握します。
ステップ1──重み付き和 (Z): Z = W·X + b を計算します。Wの行とXの内積を求めてbを足します。空白がZにあればこのステップで埋めます。
ステップ2──活性化 (Y): 指定された活性化関数をZに適用します。ReLU: Z > 0 なら Y = Z、Z ≤ 0 なら Y = 0。Sigmoid: 表を見てZがどの区間に入るか確認します。
WやbにAある空白: YとXが分かっている場合、まず活性化を逆に戻してZを求め、そこから Z = W·X + b の式で空白を解きます。一歩ずつ逆算するのがコツです。
人工ニューロンは重み付き和 を計算し、ReLU・Sigmoid・Tanh などの活性化関数をかけて出力 Y を出します。
計算の順序: (W·X) の積 + b を加算 = Z → ReLU(Z) = Y
問題
人工ニューロン: 指定された活性化(ReLU、Sigmoid、Tanh)を適用して Y を求め、空欄(?)を埋めなさい。