Chapter 04

극한과 입실론-델타 논법 (ε-δ)

극한은 '어떤 값에 한없이 가까워질 때'를 말해요. 입실론-델타는 그걸 수학적으로 정확히 정의하는 방법이고, 미분·딥러닝의 기초가 됩니다.

챕터별 수학 도식화

챕터를 선택하면 아래 도식이 해당 챕터 내용으로 바뀌어요. 기초 수학 흐름을 한눈에 보세요.

아래 그래프에서 극한과 ε-δ를 확인해 보세요.

12312345xyy = x²(a, L) = (2, 4)(x, f(x))

요약: 오차 ε(초록)을 정하면, 그에 맞는 거리 δ(파란)가 있어서 — x가 파란 구간에만 있으면 f(x)가 항상 초록 구간 안에 들어와요. 이게 ε-δ 뜻이에요.

보는 순서

  • 주황 점 = 곡선 위 (x, f(x))가 (2, 4)로 다가감
  • 초록 밴드 = L±ε (f(x) 허용 오차)
  • 파란 밴드 = a±δ (x가 이 구간이면 f(x)가 초록 안에)

극한이란 무엇인가

극한이란 'xx가 어떤 수 aa한없이 가까워질 때, f(x)f(x)가 어떤 값 LL한없이 가까워진다'는 뜻이에요. 기호로 limxaf(x)=L\lim_{x \to a} f(x) = L 이라고 씁니다. '실제로 aa에 도달하지 않아도', aa 주변만 보면 f(x)f(x)LL에 거의 붙어 있다는 말이에요.
쉽게 말하면: xxaa에 충분히 가깝게만 잡으면, f(x)f(x)는 원하는 만큼 LL에 가깝게 만들 수 있어요. 예: xx00에 가까워질수록 sinxx\frac{\sin x}{x}11에 가까워집니다 (limx0sinxx=1\lim_{x \to 0} \frac{\sin x}{x} = 1).
입실론(ε\varepsilon)-델타(δ\delta) 논법은 이 '가까워진다'를 정확한 말으로 바꾼 거예요. '오차를 아무리 작게(ε\varepsilon) 정해도, xxaa에 충분히 가깝게(δ\delta 이내) 잡으면 f(x)f(x)LL과의 차이가 그 오차보다 작다'라고 쓰는 방식이에요. 처음엔 어렵게 느껴져도, '조금만 더 가까이 가면 결과가 원하는 만큼 정확해진다'는 뜻이라고 보면 돼요.
미분은 '한 점에서 순간 변화율'을 재는 건데, 이건 결국 '아주 조금 움직였을 때 값이 얼마나 변하는지'의 극한이에요. 그래서 극한을 알면 미분·기울기를 이해할 수 있어요.
딥러닝에서는 경사 하강법으로 파라미터를 조금씩 바꿔 가며 손실을 줄이는데, '조금 바꿨을 때 손실이 얼마나 변하는가'가 바로 미분(그라디언트)이고, 그 뒤에 극한 개념이 있어요. 극한을 쉽게라도 알아 두면 '왜 미분을 쓰나'가 자연스럽게 보여요.
인공지능에서 극한은 수식 속에 숨어 있어요. 학습률을 작게 잡으면 '한 스텝에서 움직이는 양'이 극한에 가까운 움직임이 되고, 역전파로 구하는 기울기도 '변화량을 움직인 거리로 나누고, 움직인 거리를 0에 가깝게 보낸 극한'이에요. 입실론-델타까지 외우지 않아도, '아주 작은 변화를 다룬다'는 느낌만 있어도 도움이 됩니다.
극한을 볼 때는 xx가 어디로 가는지(예: x0x \to 0, xx \to \infty)와 그에 따라 f(x)f(x)가 어떤 값에 가까워지는지를 먼저 생각해 보세요. 그래프를 그리면 'aa 근처에서 f(x)f(x)LL 주변에 모인다'는 걸 눈으로 확인할 수 있어요.
입실론-델타는 'ε\varepsilon을 먼저 정하고, 그에 맞는 δ\delta를 찾는' 순서로 증명합니다. 실전에서는 '충분히 가까우면 오차가 원하는 만큼 작아진다'는 논리만 이해해도 다음 챕터(미분, 연속)를 읽는 데 충분해요.
예시 문제풀이 과정을 표로 정리했어요.
문제풀이
예시 1. limx2(x2+1)\lim_{x \to 2} (x^2 + 1)풀이: x2x \to 2일 때 x=2x = 2를 대입하면 22+1=52^2 + 1 = 5. (다항식은 연속이므로 극한값 = 함숫값) 답 5.
예시 2. limx1x\lim_{x \to \infty} \frac{1}{x}풀이: xx가 커지면 1x\frac{1}{x}는 0에 가까워짐. 답 0.
예시 3. limx3(2x1)\lim_{x \to 3} (2x - 1)풀이: x=3x = 3 대입 → 2×31=52 \times 3 - 1 = 5. 답 5.