Chapter 13
전체 요약
Ch01~Ch12에서 배운 내용을 하나의 신경망 도식으로 모아서 볼 수 있다.
챕터별 딥러닝 도식화
챕터를 하나씩 진행할 때마다 아래 도식이 조금씩 채워져요. 지금까지의 구조예요.
Chapter 01 벡터 내적
왼쪽 X1, X2, X3와 오른쪽 Y1, Y2, Y3가 선으로 이어져 있어요. 오른쪽 노드 하나는 왼쪽이랑 가중치를 곱해서 더한 값(내적)이에요.
Chapter 02 행렬 곱셈
왼쪽은 행렬 A의 한 행, 오른쪽 Y1~Y3는 행렬 B의 열과 내적한 결과예요. 이게 모여 A·B 행렬곱 결과가 됩니다.
Chapter 03 선형 계층 (가중치와 편향)
이 구간이 선형 계층이에요. Y = W·X + b로 입력이 다음 층으로 한 번에 계산돼요.
Chapter 04 활성화 함수 (비선형)
입력 X에 따라 출력 Y가 비선형으로 바뀌는 대표적인 활성화 함수입니다. (3단계 양자화 버전)
노드 값이 ReLU나 σ를 거치면 구불구불하게 바뀌어요. 마지막 층 Y1, Y2, Y3가 그렇게 나온 거예요.
Chapter 05 인공 뉴런 (가중합과 활성화)
점선 원 안이 인공 뉴런 하나예요. 입력(X)에 가중치(w)를 곱해 더하고(w·x+b), ReLU를 거쳐 출력(Y)이 나옵니다.
Chapter 06 배치 (한꺼번에 계산)
그래서 결과 Y도 한 표로 한 번에 나와요.
그래서 입력을 한 표로 묶으면, 결과 Y도 한 표로 한 번에 나와요.
Chapter 07 가중치 연결
층과 층 사이의 각 선이 가중치(w)예요. 입력에 가중치를 곱해 더한 뒤 편향(b)을 더하면 다음 층 Y가 나와요.
동그라미는 값, 선은 가중치(w)예요. 가중합에 편향(b)을 더한 값이 다음 층 Y예요.
Chapter 08 은닉층 (보이지 않는 층)
우리가 보는 건 입력(X)과 출력(Y)뿐이에요. 그 사이 층은 네트워크 안에서만 쓰이는 표현이라서 은닉층이에요.
보임: 입력→안 보임: 은닉(H)→보임: 출력
값이 입력 → 은닉층 → 출력으로 한 경로씩 흘러요. 은닉층은 우리가 보지 않는 내부 표현이에요.
Chapter 09 깊이 (깊은 신경망)
깊다 = 은닉층(중간 단계)이 많다. 딥러닝의 딥이 바로 이 깊이예요.
단계가 많을수록 깊은 신경망. 깊을수록 더 정교한 패턴을 배울 수 있어요.
Chapter 10 너비 (한 층의 뉴런 수)
한 층의 뉴런 개수가 너비예요. 넓을수록 그 단계에서 더 많은 특징을 동시에 다룰 수 있어요.
Chapter 11 소프트맥스 (확률로 바꾸기)
3를 키우면 27(3의 3제곱)
27/31=27 ÷ 31
Chapter 12 기울기 (역전파)
Y → H → X
마지막 챕터에서는 '앞으로 계산 → 오차 → 뒤로 계산 → 학습'까지 담긴 완성된 모델을 볼 수 있어요.
전체 요약
아래 도식은 Ch01~Ch12에서 배운 내용을 한 신경망에 모아 둔 것이에요. 입력 X → 은닉층(A, B, C, D) → 출력 Y, 그 사이 가중치(W)·활성화(ReLU 등)·배치·기울기(∇)가 어떻게 붙는지 한눈에 볼 수 있어요.
실제 학습은 순전파(앞으로 계산) → 손실 → 역전파(기울기) → 가중치 수정을 반복하는 과정이에요. 이 코스를 다 끝내면 그 흐름을 계산으로 따라갈 수 있게 됩니다.