Chapter 08

은닉층 (보이지 않는 층)

은닉. 입력·출력 층 사이에 있는 층이다.

챕터별 딥러닝 도식화

챕터를 하나씩 진행할 때마다 아래 도식이 조금씩 채워져요. 지금까지의 구조예요.

우리가 보는 건 입력(X)출력(Y)뿐이에요. 그 사이 층은 네트워크 안에서만 쓰이는 표현이라서 은닉층이에요.

보임: 입력안 보임: 은닉(H)보임: 출력

은닉층 (바깥에서 보이지 않음)W₁·X+b₁ → ReLUW₂·H+b₂ → ReLUX1X2X3H1H2H3Y1Y2Y3

값이 입력 → 은닉층 → 출력으로 한 경로씩 흘러요. 은닉층은 우리가 보지 않는 내부 표현이에요.

딥러닝에서 보는 은닉층

은닉층(Hidden Layer)입력출력 사이에 있는 중간 단계예요. 사용자가 보는 건 입력(사진, 문장, 소리)과 출력(답, 레이블)뿐인데, 그 사이에서 '숨겨진 특징'을 만들어내는 층이 은닉층이에요.

동작 순서는 X → 선형(W₁·X+b₁) → ReLU → H(은닉 표현) → 선형(W₂·H+b₂) → ReLU → Y(출력) 이에요. H가 은닉층의 결과물이고, 이 H 속에 '입력의 핵심 특징'이 압축되어 있어요.

비유: 사진을 보고 '강아지'라고 답하기까지, '색상 → 선/모서리 → 눈/코/귀 → 강아지!' 순서로 특징을 뽑아가잖아요. 이 중간 사고 과정이 은닉층이에요.

은닉층의 뉴런 수(너비)가 크면 그 단계에서 더 다양한 특징을 담을 수 있어요. 층이 많을수록(깊을수록) 더 추상적인 개념까지 배울 수 있어요.

은닉층은 입력을 단계마다 요약·변형해요. 앞쪽은 '밝기, 선, 질감'처럼 단순한 특징을, 뒤쪽은 '눈, 바퀴, 물체 전체'처럼 복잡한 특징을 만들어요.

은닉층이 없으면 입력을 바로 출력으로만 바꿀 수 있어서 단순한 관계만 표현해요. 있으면 곡선, 여러 조건의 조합 같은 복잡한 관계를 배울 수 있어요.

은닉층의 너비깊이가 모델의 표현력을 결정해요. 너무 작으면 성능이 나쁘고, 너무 크면 과적합(외우기만 함)이 생길 수 있어요. 휴대폰용 작은 모델은 이 크기를 줄여서 가볍게 만들어요.

이미지 인식: '픽셀 → 선/모서리 → 질감 → 물체 부분 → 물체 전체'로 가는 중간 단계가 모두 은닉층이에요.

번역·챗봇: 문장을 숫자로 바꾼 뒤, 여러 개의 은닉층을 거치면서 '단어 의미 → 문맥 → 답'을 구체화해요. 검색에서는 '찾은 문서'를 은닉층을 거쳐 요약·통합해요.

음성 인식: 소리 → 음소 → 단어 → 문장으로 가는 중간 표현이 모두 은닉층이에요.

앞에서부터 순서대로: X → (W₁·X+b₁) → ReLU → H → (W₂·H+b₂) → ReLU → Y. 각 단계를 차례로 계산하면 돼요. 빈 칸이 H에 있으면 첫 번째 선형+ReLU까지만 계산하면 되고, Y에 있으면 H까지 구한 뒤 두 번째 선형+ReLU를 계산하면 돼요.

ReLU 주의: 선형 결과(W·입력+b)가 음수이면 ReLU가 0으로 만들어요. 그러면 다음 층에서 그 값은 0이 되니까, 해당 항은 아예 무시해도 돼요. 이게 은닉층 계산에서 자주 나오는 포인트예요.

빈 칸이 W나 b에 있을 때: 은닉층 문제는 두 단계(2개의 선형+활성화)로 나눠져 있으니까, 빈 칸이 어느 단계에 있는지 먼저 파악하세요. 해당 단계의 입력과 출력을 알면, 그 단계만의 식으로 빈 칸을 구할 수 있어요.

은닉층은 입력과 출력 사이에서 선형 변환(WX+bW \cdot X + b)과 ReLU를 거쳐 중간 표현 H를 만들고, 다시 선형과 ReLU를 적용해 최종 출력 Y를 냅니다.

X
3
1
W₁
2
-1
-1
1
b₁
0
1
선형
5
-1
ReLU
H
5
0
W₂
1
1
0
1
b₂
1
-1
선형
6
-1
ReLU
Y
6
0

1층: H = ReLU(W₁·X + b₁)

선형₁ = (W₁ 1행·X)+b₁[0] = (2×3 + -1×1) + (0) = 5 → ReLU = 5
선형₂ = (W₁ 2행·X)+b₁[1] = (-1×3 + 1×1) + ((1)) = -1 → ReLU = 0

2층: Y = ReLU(W₂·H + b₂)

선형₁ = (W₂ 1행·H)+b₂[0] = (1×5 + 1×0) + (1) = 6 → ReLU = 6
선형₂ = (W₂ 2행·H)+b₂[1] = (0×5 + 1×0) + ((-1)) = -1 → ReLU = 0

문제

은닉층이 있는 순전파: X → (W₁·X+b₁) → ReLU → H → (W₂·H+b₂) → ReLU → Y 에서 빈 칸(?)을 채우세요.

X
3
0
W₁
1
2
b₁
2
선형
5
ReLU
H
W₂
-2
b₂
0
선형
-10
ReLU
Y
0
1 / 20