Ch.00
중급 딥러닝: 학습을 안정시키고, 이미지·텍스트를 다루기
중급 딥러닝에서 무엇을 배우는지, Ch01~Ch21에서 다룰 학습 안정화와 이미지·텍스트 다루기를 한눈에 알아봅니다.
챕터별 중급 딥러닝 도식화
챕터를 하나씩 진행할 때마다 아래 도식이 조금씩 채워져요. 지금까지의 구조예요.
Ch01~Ch21에서 배우는 것
- 01가중치 초기화: 좋은 출발이 반이다
- 02최적화 알고리즘: 속도와 방향을 똑똑하게 조절하기
- 03학습률 스케줄링: 때에 따라 속도 줄이기
- 04손실 함수 심화: 불균형 데이터와 거리로 배우기
- 05과적합 방지와 정규화: 외우지 않고 이해하게 하기
- 06정규화 층: 층마다 스케일을 맞추는 법
- 07데이터 증강과 노이즈 강건성: 적은 데이터로 더 잘 배우기
- 08합성곱 신경망 기초: 이미지에서 패턴 찾기
- 09풀링과 다중 채널: 요약하고 색을 나누기
- 10잔차 연결과 ResNet: 깊게 쌓아도 잊지 않기
- 11경량화 합성곱: 가볍고 빠르게
- 12비전 전이 학습: 남이 배운 걸 가져오기
- 13비전 태스크 1: 사진 속에서 무엇이 어디 있는지 찾기
- 14비전 태스크 2: 픽셀마다 경계 그리기
- 15자연어 전처리와 토큰화: 문장을 모델이 먹을 수 있게
- 16단어 임베딩: 단어를 벡터로 표현하기
- 171D 합성곱: 시퀀스 데이터에서 패턴 잡기
- 18순환 신경망: 이전을 기억하는 층
- 19LSTM과 GRU: 먼 과거까지 기억하기
- 20인코더-디코더와 어텐션: 중요한 부분에 집중하기
- 21중급 딥러닝 총정리: 지금까지의 딥러닝 한눈에
중급 딥러닝이란?
기초 딥러닝에서는 뉴런, 층, 기울기까지 배웠다면, 중급 딥러닝에서는 학습을 안정시키는 방법과 이미지·텍스트처럼 구조가 있는 데이터를 다루는 방법을 배웁니다. 가중치 초기화, 옵티마이저(모멘텀, Adam), 학습률 스케줄, 정규화·과적합 방지, 배치 정규화 등을 통해 학습이 잘 수렴하도록 만들고, 합성곱 신경망(CNN), ResNet, 전이 학습, 객체 검출·세그멘테이션, 자연어 전처리·임베딩, RNN·LSTM·GRU, 인코더-디코더·어텐션까지 이어집니다.이미지는 픽셀 격자이기 때문에 합성곱으로 공간 패턴을 잡고, 풀링으로 요약하며, 잔차 연결로 깊은 네트워크도 안정적으로 학습합니다. 텍스트는 시퀀스이기 때문에 토큰화·임베딩 후 1D 합성곱이나 RNN·LSTM으로 문맥을 반영하고, 어텐션으로 중요한 부분에 집중하는 구조를 배우게 됩니다.학습이 안정적이어야 하는 이유는 간단합니다. 가중치를 나쁘게 고르면 학습이 거의 진행되지 않거나, 학습률이 너무 크면 발산하고, 너무 작으면 너무 느립니다. 옵티마이저는 기울기만 보지 않고 '지금까지의 움직임(모멘텀)'이나 '변수마다 다른 보폭(Adam)'을 써서 더 빠르고 안정적으로 최적점에 가까워지게 합니다. 학습률 스케줄은 처음에는 크게 움직이다가 나중에 작게 조정해 정확히 수렴하게 하고, 정규화와 배치 정규화는 층마다 값의 스케일을 맞춰 기울기 소실·폭발을 줄입니다.비전(이미지)에서는 픽셀 주변의 국소 패턴(모서리, 텍스처)이 중요하므로 합성곱이 적합합니다. 풀링으로 위치를 조금 흐리게 하면서 정보를 압축하고, ResNet의 잔차 연결은 층을 아무리 깊게 쌓아도 이전 정보를 그대로 더해 줘서 학습이 깨지지 않게 합니다. 전이 학습은 이미 대량의 데이터로 학습된 모델을 가져와 우리 태스크에 맞게 살짝만 다시 학습시키는 방식이라, 데이터가 적어도 실용적인 성능을 내는 데 유리합니다.자연어·시퀀스에서는 단어나 문자를 토큰으로 나누고 임베딩으로 벡터로 바른 뒤, RNN이나 LSTM·GRU로 '이전까지의 문맥'을 담은 상태를 넘기며 다음 단어를 예측합니다. 어텐션은 '지금 예측할 때 문장의 어떤 부분이 중요한지'를 학습해, 번역·요약·질의응답 같은 태스크에서 핵심만 골라 쓰게 해 줍니다. 이 코스를 마치면 이미지 분류·검출·세그멘테이션, 그리고 텍스트 생성·번역·요약의 기본 구조를 이해할 수 있습니다.이 코스에서는 Ch01~Ch07까지 학습 안정화(초기화, 최적화, 스케줄, 손실, 정규화, 정규화 층, 데이터 증강), Ch08~Ch14까지 비전(CNN, 풀링, ResNet, 경량 합성곱, 전이 학습, 검출·세그멘테이션), Ch15~Ch21까지 자연어·시퀀스(전처리, 임베딩, 1D CNN, RNN, LSTM·GRU, 인코더-디코더·어텐션, 총정리) 순으로 한 걸음씩 다룹니다.