Ch.00
중급 수학과 인공지능: 한 걸음 더 깊어지는 수학의 세계
중급 수학은 AI가 세상을 계산할 때 쓰는 ‘언어’를 더 정밀하게 만드는 과정이에요. 이 코스에서는 데이터를 단순한 숫자 묶음이 아니라 벡터와 행렬로 보고, 그 사이를 오가는 규칙을 선형 변환(Linear Transformation)으로 이해합니다. 또한 여러 변수에서의 변화량을 다루는 야코비안(Jacobian)과 곡률 정보를 담는 헤시안(Hessian)으로, 학습이 왜 빠르거나 느려지는지까지 해석해요.
챕터별 수학 도식화
챕터를 선택하면 아래 도식이 해당 챕터 내용으로 바뀌어요. 중급 수학 흐름을 한눈에 보세요.
Ch01 ~ Ch20에서 배우는 것
중급 수학은 AI를 설명하는 언어를 한 단계 더 깊게 만듭니다. 벡터와 행렬, 선형 변환으로 데이터가 어떻게 표현되고 변하는지 읽고, 내적·정사영으로 유사도와 방향을 계량해요. 이어서 야코비안과 헤시안으로 변화량과 곡률(손실 지형의 휘어짐)을 다루고, 테일러 급수와 볼록 최적화로 더 안정적인 학습을 설계합니다. 마지막으로 베이즈, 공분산, 다변량 정규 분포로 불확실성과 함께 사는 법을 배웁니다.
- Ch.01벡터와 벡터 공간: 크기와 방향을 한 번에
- Ch.02벡터의 내적과 정사영: 얼마나 닮았는지 숫자로 재기
- Ch.03행렬과 데이터 묶음: 여러 벡터를 한 장에 담는 법
- Ch.04행렬 곱셈과 선형 변환: 공간을 돌리고 늘리는 마법
- Ch.05역행렬과 행렬식: 되감기와 넓이의 비밀
- Ch.06선형 독립과 랭크: 진짜 차원은 몇 개일까?
- Ch.07고유값과 고유벡터: 변해도 변하지 않는 방향
- Ch.08방향 도함수와 그라디언트: 올라가야 할 길 찾기
- Ch.09야코비안 행렬: 여러 입력이 움직일 때 출력은?
- Ch.10헤시안 행렬: 곡면이 휘어진 정도 읽기
- Ch.11테일러 급수: 복잡한 함수를 다항식으로 따라하기
- Ch.12볼록 최적화: 함정 없이 최저점 찾기
- Ch.13조건부 확률과 종속성: 하나를 알면 다른 하나가 보일 때
- Ch.14베이즈 정리: 새 정보로 믿음을 업데이트하기
- Ch.15공분산과 상관계수: 둘이 함께 움직이는 정도
- Ch.16다변량 정규 분포: 여러 변수가 만드는 종 모양
- Ch.17최대 가능도 추정: 데이터가 말해 주는 가장 그럴듯한 값
- Ch.18엔트로피: 얼마나 알 수 없는지 재기
- Ch.19크로스 엔트로피와 KL 발산: 두 분포가 얼마나 다른가
- Ch.20중급 수학 총정리: 지금까지의 수학 한눈에
벡터·행렬·민감도: 중급 수학이 AI를 설명하는 방식
벡터 공간(Vector Space)은 ‘방향과 크기’로 데이터를 다루는 틀입니다. 이미지를 한 장의 픽셀로 보지 않고, 특징(feature)들의 좌표로 바꿔 모델이 다루기 쉬운 형태로 만드는 거죠.
행렬(Matrix)은 여러 벡터를 동시에 변환하는 도구이고, 특히 선형 변환은 ‘기저(좌표계)가 바뀌면 어떻게 값이 움직이는지’를 일관된 규칙으로 표현합니다. 그래서 신경망의 각 층이 수학적으로 설명됩니다.
야코비안(Jacobian)과 헤시안(Hessian)은 “여러 입력이 있을 때 출력이 얼마나 민감하게 변하는가”, “손실 표면이 얼마나 휘어져 있는가”를 수치로 보여주는 지도입니다. 이 지도 위에서 학습률(학습 속도)과 업데이트 방향을 더 똑똑하게 설계할 수 있어요.
AI가 실제로 하는 일은 수많은 연산을 반복하며 ‘오차를 줄이는 것’이고, 그 오차 변화의 원리를 이해하려면 다변수 변화(기울기·민감도)가 필요해요. 그래서 중급 수학은 단순한 지식이 아니라 모델을 해석하는 도구가 됩니다.
선형 대수는 표현(표상)을 바꾸는 규칙을 제공합니다. 임베딩(embedding), 주성분 같은 아이디어도 결국 “벡터를 어떻게 재배치하느냐”의 문제로 바뀝니다. 중급 수학을 알면 결과를 더 정확히 설명할 수 있어요.
헤시안을 이해하면 ‘학습이 왜 어떤 지점에서 느려지는지/빨라지는지’를 더 정교하게 볼 수 있습니다. 또한 두 번째 미분은 최적화에서 뉴턴법, 신뢰영역 같은 방법의 핵심 근거가 됩니다.
모델의 순전파(Forward)에서는 입력 벡터가 행렬 곱과 선형 변환을 거치며 표현이 바뀝니다. 이때 어떤 특징이 강조되고 무엇이 억제되는지가 수학으로 드러나요.
역전파(Backward)에서는 변화량이 필요하므로 야코비안이 등장합니다. 연쇄법칙은 “작은 변화가 출력으로 전달되는 경로”를 정리해 주는 언어이고, 그 덕분에 정확한 기울기 계산이 가능해집니다.
최적화에서는 학습을 안정적으로 만들기 위해 곡률(헤시안)을 활용할 수 있습니다. 헤시안은 ‘바닥이 완만한지/급한지’를 알려줘서 업데이트 폭을 설계하는 데 쓰여요.
- 구분유사도와 방향
- AI에서의 역할비슷한 특징을 더 가깝게, 다른 특징을 멀게
- 중급 수학 개념내적, 정사영
- 구분레이어의 작동 방식
- AI에서의 역할한 층이 입력 벡터를 어떤 규칙으로 바꾸는가
- 중급 수학 개념행렬, 선형 변환
- 구분민감도(변화량)
- AI에서의 역할입력이 조금 변할 때 출력이 얼마나 달라지는가
- 중급 수학 개념야코비안, 그라디언트
- 구분학습의 곡률
- AI에서의 역할손실 표면이 휘어진 정도와 최적화 속도
- 중급 수학 개념헤시안, 고유값
- 구분불확실성의 언어
- AI에서의 역할공분산/상관으로 여러 변수의 함께 움직임 표현
- 중급 수학 개념공분산, 다변량 정규 분포
| 구분 | AI에서의 역할 | 중급 수학 개념 |
|---|---|---|
| 유사도와 방향 | 비슷한 특징을 더 가깝게, 다른 특징을 멀게 | 내적, 정사영 |
| 레이어의 작동 방식 | 한 층이 입력 벡터를 어떤 규칙으로 바꾸는가 | 행렬, 선형 변환 |
| 민감도(변화량) | 입력이 조금 변할 때 출력이 얼마나 달라지는가 | 야코비안, 그라디언트 |
| 학습의 곡률 | 손실 표면이 휘어진 정도와 최적화 속도 | 헤시안, 고유값 |
| 불확실성의 언어 | 공분산/상관으로 여러 변수의 함께 움직임 표현 | 공분산, 다변량 정규 분포 |