Ch.03

선형 회귀 (Linear Regression): 데이터의 흐름을 꿰뚫는 선

복잡하게 흩어진 데이터들 사이에서 '가장 잘 어울리는 하나의 직선'을 긋는 과정입니다. 이 직선 하나만 잘 찾으면, 새로운 데이터가 들어왔을 때 그 결과값을 바로 예측할 수 있습니다. 머신러닝이 어떻게 수학(함수, 미분)을 이용해 '학습'하는지 보여주는 가장 기초적이면서도 강력한 모델입니다.

챕터별 머신러닝 도식화

챕터를 선택하면 아래 도식이 해당 챕터 내용으로 바뀌어요. 머신러닝 흐름을 한눈에 보세요.

① 학습 데이터 — (x, y) 산점도

y0.7x+1.1y \approx 0.7x + 1.1 — 경사 하강법으로 ww, bb 학습

선형 회귀: 데이터의 흐름을 꿰뚫는 선

직선을 찾는 탐정 — 선형 회귀는 입력(xx)과 정답(yy) 사이에 직선 관계가 있다고 가정합니다. 중학교 때 배운 일차함수 y=ax+by = ax + b 기억나시나요? 여기서 기울기 aa가중치 ww, 절편 bb편향 bb라고 부르며, y=wx+by = wx + b라는 식을 완성하는 것이 목표입니다.
'가장 잘 맞는다'는 건? — 우리가 그은 선이 실제 데이터 점들과 얼마나 가까운지를 봅니다. 예측한 값 y^\hat{y}와 실제 값 yy의 차이(오차)를 가장 작게 만드는 wwbb를 찾는 것이 핵심입니다. 이때 오차를 계산하는 도구를 손실 함수(Loss Function)라고 합니다.
공식을 배우는 모델 — KNN이 시험 때마다 교과서를 뒤져서(이웃을 찾아서) 답을 낸다면, 선형 회귀는 공식(y=wx+by=wx+b)을 머릿속에 외운 상태입니다. 그래서 새로운 문제(xx)가 나오면 공식에 대입해 즉시 답(yy)을 낼 수 있어 속도가 훨씬 빠릅니다.
머신러닝 학습의 정석 — '오차를 줄이는 방향으로 조금씩 수정한다'는 머신러닝의 핵심 원리를 배웁니다. 산 정상에서 가장 낮은 골짜기로 내려가는 것처럼, 미분(기울기)을 이용해 오차를 줄여나가는 경사 하강법(Gradient Descent)의 기초가 됩니다.
설명 가능한 AI — 결과가 왜 그렇게 나왔는지 설명하기 좋습니다. 예를 들어 '집 크기(xx)'와 '집값(yy)'의 관계에서 가중치 ww가 양수(++)라면, "집이 클수록 집값이 비싸진다"라고 명확히 해석할 수 있습니다. 이는 비즈니스 의사결정에서 매우 중요합니다.
딥러닝의 씨앗 — 현재 가장 강력한 AI인 딥러닝(신경망)도 사실 이 선형 회귀를 수없이 겹쳐 놓은 구조입니다. 선형 회귀를 이해하면 최신 AI 모델의 작동 원리도 절반은 이해한 셈입니다.
숫자 예측의 달인 — 결과값이 '합격/불합격' 같은 범주가 아니라, 연속된 숫자일 때 사용합니다. (예: 내일의 기온 예측, 택시 이동 거리에 따른 요금 예측, 공부 시간에 따른 시험 점수 예측)
중요한 요인 골라내기 — 여러 입력 요소(x1,x2,...x_1, x_2, ...) 중 무엇이 결과에 큰 영향을 주는지 알 수 있습니다. y=3x1+0.1x2y = 3x_1 + 0.1x_2라는 식이 있다면, 가중치가 큰 x1x_1x2x_2보다 훨씬 중요한 요소임을 알 수 있습니다.
데이터 크기에 따른 전략 — 데이터가 적을 땐 수학 공식(정규방정식)으로 한방에 답을 찾지만, 데이터가 방대할 땐 경사 하강법을 통해 조금씩 정답에 가까워지는 방식을 사용합니다.
핵심 요약: 오차를 줄여가는 '시행착오'의 과정 — 선형 회귀는 데이터라는 흩어진 점들 사이를 가장 잘 관통하는 '단 하나의 직선(y=wx+by=wx+b)'을 찾는 탐정입니다. 가정(Model): 처음에는 무작위로 선을 하나 긋습니다. 당연히 실제 데이터와는 잘 맞지 않아 오차(Error)가 큽니다. 학습(Learning): 이 오차를 줄이기 위해 경사 하강법이라는 도구를 씁니다. 마치 산 정상에서 눈을 가리고 가장 낮은 골짜기(오차 최소화 지점)를 찾아 한 걸음씩 내려가는 것과 같습니다. 결과(Prediction): 골짜기 바닥에 도착하면 최적의 기울기(ww)와 위치(bb)를 찾은 것입니다. 이제 새로운 질문(xx)이 와도 이 완성된 공식에 넣기만 하면 즉시 정답(y^\hat{y})을 예측할 수 있습니다.
데이터에서 법칙을 추출하는 3단계 — 선형 회귀는 복잡한 데이터 속에서 y=wx+by=wx+b라는 '단순한 법칙'을 찾아내는 과정입니다.
① 모델 수립 — "입력(xx)과 정답(yy)은 직선 관계일 것이다"라고 가정하고 모델을 세웁니다.
② 최적화(학습) — 예측값(y^\hat{y})과 실제값(yy)의 차이인 손실(Loss)을 계산하고, 이 손실을 최소화하기 위해 경사 하강법으로 ww(기울기)와 bb(절편)를 조금씩 수정해 나갑니다. 이는 딥러닝 학습의 기초 원리와 완전히 동일합니다.
③ 추론(예측) — 학습된 직선은 데이터의 패턴을 압축하고 있습니다. 새로운 데이터가 들어오면 복잡한 연산 없이 직선 식에 대입해 즉시 결과를 예측합니다.