Chapter 13
총정리: 한눈에 보는 인공지능 지도
Ch01~Ch12에서 배운 내용을 하나의 신경망 도식으로 모아서 볼 수 있다.
챕터별 딥러닝 도식화
챕터를 하나씩 진행할 때마다 아래 도식이 조금씩 채워져요. 지금까지의 구조예요.
Chapter 01 벡터 내적: 데이터 사이의 닮은꼴 찾기
왼쪽 X1, X2, X3와 오른쪽 Y1, Y2, Y3가 선으로 이어져 있어요. 오른쪽 노드 하나는 왼쪽이랑 가중치를 곱해서 더한 값(내적)이에요.
Chapter 02 행렬 곱셈: 한꺼번에 계산하는 마법
왼쪽은 행렬 A의 한 행, 오른쪽 Y1~Y3는 행렬 B의 열과 내적한 결과예요. 이게 모여 A·B 행렬곱 결과가 됩니다.
Chapter 03 선형 계층: 중요도를 결정하는 가중치
이 구간이 선형 계층이에요. Y = W·X + b로 입력이 다음 층으로 한 번에 계산돼요.
Chapter 04 활성화 함수: 인공지능에 판단력을 더하다
입력 X에 따라 출력 Y가 비선형으로 바뀌는 대표적인 활성화 함수입니다. (3단계 양자화 버전)
노드 값이 ReLU나 σ를 거치면 구불구불하게 바뀌어요. 마지막 층 Y1, Y2, Y3가 그렇게 나온 거예요.
Chapter 05 인공 뉴런: 정보를 모아 신호를 보내는 단위
점선 원 안이 인공 뉴런 하나예요. 입력(X)에 가중치(w)를 곱해 더하고(w·x+b), ReLU를 거쳐 출력(Y)이 나옵니다.
Chapter 06 배치 처리: 묶어서 한 번에 학습하기
그래서 결과 Y도 한 표로 한 번에 나와요.
그래서 입력을 한 표로 묶으면, 결과 Y도 한 표로 한 번에 나와요.
Chapter 07 가중치 연결: 지능을 만드는 수조 개의 사슬
층과 층 사이의 각 선이 가중치(w)예요. 입력에 가중치를 곱해 더한 뒤 편향(b)을 더하면 다음 층 Y가 나와요.
동그라미는 값, 선은 가중치(w)예요. 가중합에 편향(b)을 더한 값이 다음 층 Y예요.
Chapter 08 은닉층: 눈에 보이지 않는 생각의 깊이
우리가 보는 건 입력(X)과 출력(Y)뿐이에요. 그 사이 층은 네트워크 안에서만 쓰이는 표현이라서 은닉층이에요.
보임: 입력→안 보임: 은닉(H)→보임: 출력
값이 입력 → 은닉층 → 출력으로 한 경로씩 흘러요. 은닉층은 우리가 보지 않는 내부 표현이에요.
Chapter 09 깊은 신경망: 더 복잡한 문제를 푸는 힘
깊다 = 은닉층(중간 단계)이 많다. 딥러닝의 딥이 바로 이 깊이예요.
단계가 많을수록 깊은 신경망. 깊을수록 더 정교한 패턴을 배울 수 있어요.
Chapter 10 너비와 뉴런: 한 번에 더 많은 특징 찾기
한 층의 뉴런 개수가 너비예요. 넓을수록 그 단계에서 더 많은 특징을 동시에 다룰 수 있어요.
Chapter 11 소프트맥스: 결과를 확신으로 바꾸기
3를 키우면 27(3의 3제곱)
27/31=27 ÷ 31
Chapter 12 기울기와 역전파: 실수를 통해 배우는 법
Y → H → X
전체 요약
아래 도식은 Ch01~Ch12에서 배운 내용을 한 신경망에 모아 둔 것이에요. 입력 X → 은닉층(A, B, C, D) → 출력 Y, 그 사이 가중치(W)·활성화(ReLU 등)·배치·기울기(∇)가 어떻게 붙는지 한눈에 볼 수 있어요.
실제 학습은 순전파(앞으로 계산) → 손실 → 역전파(기울기) → 가중치 수정을 반복하는 과정이에요. 이 코스를 다 끝내면 그 흐름을 계산으로 따라갈 수 있게 됩니다.