Chapter 05

人工ニューロン(重み付き和と活性化)

入力の重み付き和を計算し、活性化関数を適用する単位。

チャプター別 ディープラーニング図

チャプターを進めるたびに、下の図が少しずつ埋まります。ここまでの構造です。

ニューロンw1w2w3X1X2X3w·x + bReLUYB

点線の円の中が人工ニューロン1つ。入力(X)に重みをかけて足し(w·x+b)、ReLUを通って出力(Y)になります。

ディープラーニングで見る人工ニューロン

人工ニューロンはディープラーニングの最小の計算単位です。やることは二つだけ: ① 重み付き和 Z = W·X + b を計算、② 活性化関数 Y = ReLU(Z) や Sigmoid(Z) を適用。

生物の神経細胞がモデルです。本物のニューロンは複数の信号を受け取り、それぞれに異なる重みをかけて合計し、一定以上なら発火します。人工ニューロンはこの仕組みを数式で簡略化したものです。

まとめると: 入力 (X)重みとバイアス (Z = W·X + b)活性化 (Y = f(Z))出力 (Y)。これが人工ニューロンのすべてです。

ChatGPTや画像認識、レコメンドシステムなどのAIモデルは、こうしたニューロンを数千〜数十億個つないで作られています。一つのニューロンを理解すれば、モデル全体の動きが読めるようになります。

学習(トレーニング)とは各ニューロンの重み (W) とバイアス (b) を少しずつ調整して、出力を正解に近づけることです。WとbがYにどう影響するかを知ることが、学習の理解の鍵です。

一つのニューロンは内積+バイアス+活性化を組み合わせたもので、これまでのチャプターの内積・行列の積・線形層・活性化関数がすべてここに集約されます。

日常の例え──試験合否予測: 「数学×0.4 + 理科×0.4 + 英語×0.2 + 5 = 75」(重み付き和)を計算し、「60以上→合格(1)、未満→不合格(0)」(活性化)と判定する──これがまさに一つのニューロンの動作です。

画像認識での一ニューロン: 画像の特定領域のピクセルを受け取り、重み付き和+バイアスを計算し、ReLUを通して「ここに横線があるか?」のスコアを出します。こうしたニューロンが何千個も集まって「犬か猫か」を判定します。

チャットボット・翻訳・音声認識: 文や音の各部分が数値に変換され、ニューロンが「どんなパターンがあるか」をスコアリングし、次の層のニューロンに渡してより複雑な意味を段階的に把握します。

ステップ1──重み付き和 (Z): Z = W·X + b を計算します。Wの行とXの内積を求めてbを足します。空白がZにあればこのステップで埋めます。

ステップ2──活性化 (Y): 指定された活性化関数をZに適用します。ReLU: Z > 0 なら Y = Z、Z ≤ 0 なら Y = 0。Sigmoid: 表を見てZがどの区間に入るか確認します。

WやbにAある空白: YとXが分かっている場合、まず活性化を逆に戻してZを求め、そこから Z = W·X + b の式で空白を解きます。一歩ずつ逆算するのがコツです。

人工ニューロンは重み付き和 Z=WX+bZ = W \cdot X + b を計算し、ReLU・Sigmoid・Tanh などの活性化関数をかけて出力 Y を出します。

W
1
-1
·
X
3
1
+
b
1
=
Z
3
→ ReLU →
Y
3

計算の順序: (W·X) の積 + b を加算 = Z → ReLU(Z) = Y

Z = (W·X) + b = (1×3 + (-11) + 1 = 2 + 1 = 3
Y = ReLU(Z) = max(0, 3) = 3

問題

人工ニューロン: 指定された活性化(ReLU、Sigmoid、Tanh)を適用して Y を求め、空欄(?)を埋めなさい。

X
0
-1
·
W
-2
-1
+
b
-2
=
Z
-1
~ ReLU
Y
1 / 20