Chapter 00

기초 수학과 인공지능

딥러닝·머신러닝을 이해하려면 왜 수학이 필요한지, 어떤 수학이 쓰이는지를 간단히 언급합니다.

챕터별 수학 도식화

챕터를 선택하면 아래 도식이 해당 챕터 내용으로 바뀌어요. 기초 수학 흐름을 한눈에 보세요.

Ch01 ~ Ch12에서 배우는 것

딥러닝·머신러닝을 이해하려면 함수, 지수·로그, 극한·미분·적분, 확률·분포 같은 기초 수학이 필요해요. Ch01~Ch12에서 배우는 내용이 바로 그것입니다. 함수는 '입력→출력'의 기본이고, 미분·그라디언트는 모델이 학습할 때 파라미터를 어디로 얼마나 바꿀지 정하는 데 쓰여요. 확률·분포는 예측과 불확실성을 다룰 때 필요해요.

  • Ch.01
    함수

    함수는 입력 하나에 출력 하나가 대응되는 규칙입니다. 인공지능이 입력을 출력으로 바꾸는 방식도 이 함수 개념과 직접 이어져요.

  • Ch.02
    지수와 지수함수

    지수는 같은 수를 거듭 곱한 횟수를 나타내고, 지수함수는 그 규칙을 변수로 쓴 함수예요. 딥러닝의 활성화 함수·손실 설계에서 쓰입니다.

  • Ch.03
    로그 함수

    로그는 '밑을 몇 번 곱해야 그 수가 나오는지'를 나타내요. 지수의 역연산이며, 딥러닝의 손실·확률 식에서 지수와 함께 쓰입니다.

  • Ch.04
    극한과 입실론-델타 논법 (ε-δ)

    극한은 '어떤 값에 한없이 가까워질 때'를 말해요. 입실론-델타는 그걸 수학적으로 정확히 정의하는 방법이고, 미분·딥러닝의 기초가 됩니다.

  • Ch.05
    연속성

    한 점에서 연속이란 극한값이 존재하고 그게 함숫값과 같을 때예요. 미분 가능성과 딥러닝의 활성화·손실 함수 이해의 기초가 됩니다.

  • Ch.06
    미분과 도함수

    미분은 한 점에서의 순간 변화율(기울기)을 나타내요. 도함수는 그걸 함수로 만든 것이고, 딥러닝의 경사 하강법·역전파의 기초가 됩니다.

  • Ch.07
    연쇄 법칙

    함수를 겹쳐 쓴 걸 미분할 때는 밖의 미분 × 안의 미분으로 곱하면 됩니다. 역전파의 핵심이에요.

  • Ch.08
    편미분과 그라디언트

    변수가 여러 개일 때 한 변수만 움직이며 미분하는 편미분, 그걸 모은 그라디언트를 배워요. 경사하강법의 기초예요.

  • Ch.09
    적분

    적분은 미분의 역연산이에요. 곡선 아래 넓이·누적량을 구하고, 확률·기댓값을 다룰 때 씁니다.

  • Ch.10
    확률 변수와 확률 분포

    확률변수는 시행 결과를 숫자로 나타낸 것이고, 확률 분포는 각 값이 나올 가능성을 정리한 것이에요. 딥러닝에서 예측·불확실성을 다룰 때 쓰입니다.

  • Ch.11
    평균과 분산
  • Ch.12
    균등 분포와 정규 분포

딥러닝·머신러닝을 이해하기 위해 왜 수학이 필요한가

딥러닝·머신러닝을 이해하려면 수학이 필요해요 — 딥러닝과 머신러닝은 입력(이미지, 글, 소리)을 숫자로 바꾼 뒤 함수곱셈·덧셈을 반복해 답을 냅니다. 그 과정 전체가 함수, 극한·미분, 확률·분포 같은 수학으로 쓰여요. 수학을 모르면 ‘어떤 계산이 어떻게 이뤄지는지’ 읽기 어렵고, 알면 왜 그런 출력이 나왔는지 해석할 수 있어요.
어떤 수학이 쓰이냐면함수는 ‘입력 하나에 출력 하나가 정해지는 규칙’이고, 벡터·행렬은 숫자를 묶어서 한 번에 계산하는 방식이에요. 미분·그라디언트는 모델이 학습할 때 파라미터를 어디로 얼마나 바꿀지 정하는 데 쓰이고, 확률·분포는 예측과 불확실성을 다룰 때 필요해요. 그래서 딥러닝·머신러닝을 이해하려면 이 기초 수학이 필요합니다.
정리 — 딥러닝·머신러닝은 숫자와 함수 위에서 동작해요. 그 내부를 이해하려면 함수, 극한·미분·그라디언트, 확률·분포를 알아두는 것이 좋아요. 이 코스(Ch01~Ch12)는 그런 ‘딥러닝·머신러닝을 이해하기 위해 필요한 수학’을 순서대로 다룹니다.
왜 수학이 필요한지 — 딥러닝·머신러닝 모델이 내린 결정(다음 단어, 추천, 번역, 분류 등)은 전부 숫자와 함수로 계산돼요. 그 과정을 이해하려면 함수(입력→출력), 극한·미분(학습 시 쓰는 기울기), 확률·분포(예측·불확실성) 같은 기초 수학이 필요해요. 수학을 알면 ‘ 그런 답이 나왔는지’를 읽을 수 있어요.
딥러닝·머신러닝에서 수학이 쓰이는 자리층(레이어)은 입력에 가중치를 곱하고 더하는 함수이고, 학습은 손실을 줄이기 위해 기울기(그라디언트)로 파라미터를 조정하는 과정이에요. 확률·분포는 예측 구간, 불확실성, 손실 함수 설계에 쓰여요. 그래서 딥러닝·머신러닝을 이해하려면 이 수학들이 어디서 어떻게 쓰이는지 아는 것이 중요해요.
이 코스에서 배우는 순서(Ch01~Ch12)Ch01 함수Ch02·03 지수·로그Ch04~05 극한·연속성Ch06~08 미분·연쇄 법칙·편미분·그라디언트Ch09 적분Ch10~12 확률 변수·평균·분산·균등·정규 분포. 각각 딥러닝·머신러닝의 입력→출력, 학습(기울기), 예측·불확실성과 연결돼요. 왼쪽 챕터 목록에서 순서대로 따라가 보세요.
딥러닝·머신러닝 이해와 수학의 연결 — 모델은 입력→숫자→함수 반복→출력 구조예요. 함수(Ch01~)는 그 기본 단위이고, 미분·그라디언트(Ch06~08)는 학습 시 ‘어디를 얼마나 바꿀지’ 정할 때 쓰여요. 확률·분포(Ch10~12)는 예측과 손실 해석에 쓰여요. 그래서 이 기초 수학을 알면 딥러닝·머신러닝의 내부 계산을 이해하기 쉬워요.