Chapter 00
기초 수학과 인공지능
딥러닝·머신러닝을 이해하려면 왜 수학이 필요한지, 어떤 수학이 쓰이는지를 간단히 언급합니다.
챕터별 수학 도식화
챕터를 선택하면 아래 도식이 해당 챕터 내용으로 바뀌어요. 기초 수학 흐름을 한눈에 보세요.
Ch01 ~ Ch12에서 배우는 것
딥러닝·머신러닝을 이해하려면 함수, 지수·로그, 극한·미분·적분, 확률·분포 같은 기초 수학이 필요해요. Ch01~Ch12에서 배우는 내용이 바로 그것입니다. 함수는 '입력→출력'의 기본이고, 미분·그라디언트는 모델이 학습할 때 파라미터를 어디로 얼마나 바꿀지 정하는 데 쓰여요. 확률·분포는 예측과 불확실성을 다룰 때 필요해요.
- Ch.01함수
함수는 입력 하나에 출력 하나가 대응되는 규칙입니다. 인공지능이 입력을 출력으로 바꾸는 방식도 이 함수 개념과 직접 이어져요.
- Ch.02지수와 지수함수
지수는 같은 수를 거듭 곱한 횟수를 나타내고, 지수함수는 그 규칙을 변수로 쓴 함수예요. 딥러닝의 활성화 함수·손실 설계에서 쓰입니다.
- Ch.03로그 함수
로그는 '밑을 몇 번 곱해야 그 수가 나오는지'를 나타내요. 지수의 역연산이며, 딥러닝의 손실·확률 식에서 지수와 함께 쓰입니다.
- Ch.04극한과 입실론-델타 논법 (ε-δ)
극한은 '어떤 값에 한없이 가까워질 때'를 말해요. 입실론-델타는 그걸 수학적으로 정확히 정의하는 방법이고, 미분·딥러닝의 기초가 됩니다.
- Ch.05연속성
한 점에서 연속이란 극한값이 존재하고 그게 함숫값과 같을 때예요. 미분 가능성과 딥러닝의 활성화·손실 함수 이해의 기초가 됩니다.
- Ch.06미분과 도함수
미분은 한 점에서의 순간 변화율(기울기)을 나타내요. 도함수는 그걸 함수로 만든 것이고, 딥러닝의 경사 하강법·역전파의 기초가 됩니다.
- Ch.07연쇄 법칙
함수를 겹쳐 쓴 걸 미분할 때는 밖의 미분 × 안의 미분으로 곱하면 됩니다. 역전파의 핵심이에요.
- Ch.08편미분과 그라디언트
변수가 여러 개일 때 한 변수만 움직이며 미분하는 편미분, 그걸 모은 그라디언트를 배워요. 경사하강법의 기초예요.
- Ch.09적분
적분은 미분의 역연산이에요. 곡선 아래 넓이·누적량을 구하고, 확률·기댓값을 다룰 때 씁니다.
- Ch.10확률 변수와 확률 분포
확률변수는 시행 결과를 숫자로 나타낸 것이고, 확률 분포는 각 값이 나올 가능성을 정리한 것이에요. 딥러닝에서 예측·불확실성을 다룰 때 쓰입니다.
- Ch.11평균과 분산
- Ch.12균등 분포와 정규 분포