모두의 AI
머신러닝AI논문
로딩 중…

배우기

🏅내 업적

Chapter 13

총정리: 한눈에 보는 인공지능 지도

Ch01~Ch12에서 배운 내용을 하나의 신경망 도식으로 모아서 볼 수 있다.

챕터별 딥러닝 도식화

챕터를 하나씩 진행할 때마다 아래 도식이 조금씩 채워져요. 지금까지의 구조예요.

Chapter 01 벡터 내적: 데이터 사이의 닮은꼴 찾기

X1X2X3Y1Y2Y3가중치x₂·y₂결과

왼쪽 X1, X2, X3와 오른쪽 Y1, Y2, Y3가 선으로 이어져 있어요. 오른쪽 노드 하나는 왼쪽이랑 가중치를 곱해서 더한 값(내적)이에요.

Chapter 02 행렬 곱셈: 한꺼번에 계산하는 마법

X1X2X3Y1Y2Y3가중치A·B행렬곱 결과

왼쪽은 행렬 A의 한 행, 오른쪽 Y1~Y3는 행렬 B의 열과 내적한 결과예요. 이게 모여 A·B 행렬곱 결과가 됩니다.

Chapter 03 선형 계층: 중요도를 결정하는 가중치

X1X2X3Y1Y2Y3가중치·입력+편향ReLUY결과

이 구간이 선형 계층이에요. Y = W·X + b로 입력이 다음 층으로 한 번에 계산돼요.

Chapter 04 활성화 함수: 인공지능에 판단력을 더하다

입력 X에 따라 출력 Y가 비선형으로 바뀌는 대표적인 활성화 함수입니다. (3단계 양자화 버전)

Y = Sigmoid(X)00.51
Y = ReLU(X)0
Y = Tanh₃(X)-101

노드 값이 ReLU나 σ를 거치면 구불구불하게 바뀌어요. 마지막 층 Y1, Y2, Y3가 그렇게 나온 거예요.

Chapter 05 인공 뉴런: 정보를 모아 신호를 보내는 단위

뉴런w1w2w3X1X2X3w·x + bReLUYB

점선 원 안이 인공 뉴런 하나예요. 입력(X)에 가중치(w)를 곱해 더하고(w·x+b), ReLU를 거쳐 출력(Y)이 나옵니다.

Chapter 06 배치 처리: 묶어서 한 번에 학습하기

그래서 결과 Y도 한 표로 한 번에 나와요.

입력 표 X
X1
X2
X3
샘플 1
샘플 2
샘플 3
한 열 = 한 샘플
→같은 W, b한 번에 계산
결과 Y
샘플 1
샘플 2
샘플 3
Y1
Y2
Y3
← 같은 W, b로 한 번에 나온 결과

그래서 입력을 한 표로 묶으면, 결과 Y도 한 표로 한 번에 나와요.

Chapter 07 가중치 연결: 지능을 만드는 수조 개의 사슬

층과 층 사이의 각 선이 가중치(w)예요. 입력에 가중치를 곱해 더한 뒤 편향(b)을 더하면 다음 층 Y가 나와요.

가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)가중치(w)X1X2X3+편향(b)Y1Y2Y3

동그라미는 값, 선은 가중치(w)예요. 가중합에 편향(b)을 더한 값이 다음 층 Y예요.

Chapter 08 은닉층: 눈에 보이지 않는 생각의 깊이

우리가 보는 건 입력(X)과 출력(Y)뿐이에요. 그 사이 층은 네트워크 안에서만 쓰이는 표현이라서 은닉층이에요.

보임: 입력→안 보임: 은닉(H)→보임: 출력

은닉층 (바깥에서 보이지 않음)W₁·X+b₁ → ReLUW₂·H+b₂ → ReLUX1X2X3H1H2H3Y1Y2Y3

값이 입력 → 은닉층 → 출력으로 한 경로씩 흘러요. 은닉층은 우리가 보지 않는 내부 표현이에요.

Chapter 09 깊은 신경망: 더 복잡한 문제를 푸는 힘

깊다 = 은닉층(중간 단계)이 많다. 딥러닝의 딥이 바로 이 깊이예요.

X1X2X3A1A2A3B1B2B3C1C2C3D1D2D3Y1Y2Y3X1층A2층B3층C4층D5층Y6층

단계가 많을수록 깊은 신경망. 깊을수록 더 정교한 패턴을 배울 수 있어요.

Chapter 10 너비와 뉴런: 한 번에 더 많은 특징 찾기

X1H1H2H1H2H3H4Y1Y2Y3Y4Y5Y6Y7Y8너비 1뉴런 1개너비 2뉴런 2개너비 4뉴런 4개너비 8뉴런 8개

한 층의 뉴런 개수가 너비예요. 넓을수록 그 단계에서 더 많은 특징을 동시에 다룰 수 있어요.

Chapter 11 소프트맥스: 결과를 확신으로 바꾸기

Softmax점수 → 확률(예시: e를 3으로 가정)
점수
3
1
0
→
중간
27
3
1
3의 거듭제곱
3³=27
3¹=3
3⁰=1
→
확률
27/31
3/31
1/31
합으로 나누기
27÷31=27/31
3÷31=3/31
1÷31=1/31

3를 키우면 27(3의 3제곱)

27/31=27 ÷ 31

Chapter 12 기울기와 역전파: 실수를 통해 배우는 법

XHY∇

Y → H → X

전체 요약

아래 도식은 Ch01~Ch12에서 배운 내용을 한 신경망에 모아 둔 것이에요. 입력 X → 은닉층(A, B, C, D) → 출력 Y, 그 사이 가중치(W)·활성화(ReLU 등)·배치·기울기(∇)가 어떻게 붙는지 한눈에 볼 수 있어요.

실제 학습은 순전파(앞으로 계산) → 손실 → 역전파(기울기) → 가중치 수정을 반복하는 과정이에요. 이 코스를 다 끝내면 그 흐름을 계산으로 따라갈 수 있게 됩니다.