Chapter 13

전체 요약

Ch01~Ch12에서 배운 내용을 하나의 신경망 도식으로 모아서 볼 수 있다.

챕터별 딥러닝 도식화

챕터를 하나씩 진행할 때마다 아래 도식이 조금씩 채워져요. 지금까지의 구조예요.

Chapter 01 벡터 내적

X1X2X3Y1Y2Y3가중치x₂·y₂결과

왼쪽 X1, X2, X3와 오른쪽 Y1, Y2, Y3가 선으로 이어져 있어요. 오른쪽 노드 하나는 왼쪽이랑 가중치를 곱해서 더한 값(내적)이에요.

Chapter 02 행렬 곱셈

X1X2X3Y1Y2Y3가중치A·B행렬곱 결과

왼쪽은 행렬 A의 한 행, 오른쪽 Y1~Y3는 행렬 B의 열과 내적한 결과예요. 이게 모여 A·B 행렬곱 결과가 됩니다.

Chapter 03 선형 계층 (가중치와 편향)

X1X2X3Y1Y2Y3가중치·입력+편향ReLUY결과

이 구간이 선형 계층이에요. Y = W·X + b로 입력이 다음 층으로 한 번에 계산돼요.

Chapter 04 활성화 함수 (비선형)

입력 X에 따라 출력 Y가 비선형으로 바뀌는 대표적인 활성화 함수입니다. (3단계 양자화 버전)

Y = Sigmoid(X)00.51
Y = ReLU(X)0
Y = Tanh₃(X)-101

노드 값이 ReLU나 σ를 거치면 구불구불하게 바뀌어요. 마지막 층 Y1, Y2, Y3가 그렇게 나온 거예요.

Chapter 05 인공 뉴런 (가중합과 활성화)

뉴런w1w2w3X1X2X3w·x + bReLUYB

점선 원 안이 인공 뉴런 하나예요. 입력(X)에 가중치(w)를 곱해 더하고(w·x+b), ReLU를 거쳐 출력(Y)이 나옵니다.

Chapter 06 배치 (한꺼번에 계산)

그래서 결과 Y도 한 표로 한 번에 나와요.

입력 표 X
X1
X2
X3
샘플 1
샘플 2
샘플 3
한 열 = 한 샘플
같은 W, b한 번에 계산
결과 Y
샘플 1
샘플 2
샘플 3
Y1
Y2
Y3
← 같은 W, b로 한 번에 나온 결과

그래서 입력을 한 표로 묶으면, 결과 Y도 한 표로 한 번에 나와요.

Chapter 07 가중치 연결

층과 층 사이의 각 선가중치(w)예요. 입력에 가중치를 곱해 더한 뒤 편향(b)을 더하면 다음 층 Y가 나와요.

가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)X1X2X3+편향(b)Y1Y2Y3

동그라미는 값, 선은 가중치(w)예요. 가중합에 편향(b)을 더한 값이 다음 층 Y예요.

Chapter 08 은닉층 (보이지 않는 층)

우리가 보는 건 입력(X)출력(Y)뿐이에요. 그 사이 층은 네트워크 안에서만 쓰이는 표현이라서 은닉층이에요.

보임: 입력안 보임: 은닉(H)보임: 출력

은닉층 (바깥에서 보이지 않음)W₁·X+b₁ → ReLUW₂·H+b₂ → ReLUX1X2X3H1H2H3Y1Y2Y3

값이 입력 → 은닉층 → 출력으로 한 경로씩 흘러요. 은닉층은 우리가 보지 않는 내부 표현이에요.

Chapter 09 깊이 (깊은 신경망)

깊다 = 은닉층(중간 단계)이 많다. 딥러닝의 이 바로 이 깊이예요.

X1X2X3A1A2A3B1B2B3C1C2C3D1D2D3Y1Y2Y3X1층A2층B3층C4층D5층Y6층

단계가 많을수록 깊은 신경망. 깊을수록 더 정교한 패턴을 배울 수 있어요.

Chapter 10 너비 (한 층의 뉴런 수)

X1H1H2H1H2H3H4Y1Y2Y3Y4Y5Y6Y7Y8너비 1뉴런 1개너비 2뉴런 2개너비 4뉴런 4개너비 8뉴런 8개

한 층의 뉴런 개수가 너비예요. 넓을수록 그 단계에서 더 많은 특징을 동시에 다룰 수 있어요.

Chapter 11 소프트맥스 (확률로 바꾸기)

Softmax점수 → 확률(예시: e를 3으로 가정)
점수
3
1
0
중간
27
3
1
3의 거듭제곱
3³=27
3¹=3
3=1
확률
27/31
3/31
1/31
합으로 나누기
27÷31=27/31
3÷31=3/31
1÷31=1/31

3를 키우면 27(3의 3제곱)

27/31=27 ÷ 31

Chapter 12 기울기 (역전파)

XHY

Y → H → X

마지막 챕터에서는 '앞으로 계산 → 오차 → 뒤로 계산 → 학습'까지 담긴 완성된 모델을 볼 수 있어요.

전체 요약

아래 도식은 Ch01~Ch12에서 배운 내용을 한 신경망에 모아 둔 것이에요. 입력 X → 은닉층(A, B, C, D) → 출력 Y, 그 사이 가중치(W)·활성화(ReLU 등)·배치·기울기(∇)가 어떻게 붙는지 한눈에 볼 수 있어요.

실제 학습은 순전파(앞으로 계산) → 손실역전파(기울기) → 가중치 수정을 반복하는 과정이에요. 이 코스를 다 끝내면 그 흐름을 계산으로 따라갈 수 있게 됩니다.