Chapter 03

로그 함수

로그는 '밑을 몇 번 곱해야 그 수가 나오는지'를 나타내요. 지수의 역연산이며, 딥러닝의 손실·확률 식에서 지수와 함께 쓰입니다.

챕터별 수학 도식화

챕터를 선택하면 아래 도식이 해당 챕터 내용으로 바뀌어요. 기초 수학 흐름을 한눈에 보세요.

로그는 지수의 반대예요. y=log2xy = \log_2 x2y=x2^y = x를 만족해요. 아래는 y=log2xy = \log_2 x와 역함수 y=2xy = 2^x 그래프입니다.

012345678012345678xy(x=1.0, y=0.00)(x=0.0, y=1.0)

예: log21=0\log_2 1 = 0, log22=1\log_2 2 = 1, log24=2\log_2 4 = 2, log28=3\log_2 8 = 3 (2y=x2^y = x일 때 yylog2x\log_2 x)

보라: y=log2xy=\log_2 x, 청록: y=2xy=2^x

로그 함수란 무엇인가

로그는 지수의 반대 개념이에요. ax=ba^x = b일 때, 'aa를 몇 번 곱하면 bb가 되는가?'를 logab=x\log_a b = x로 씁니다. 여기서 aa, bb진수, xx로그값(지수)이에요.
예: 23=82^3 = 8이므로 log28=3\log_2 8 = 3. log10100=2\log_{10} 100 = 2 (102=10010^2 = 100). 밑이 ee인 로그는 자연로그 ln\ln로 쓰고, 딥러닝·통계에서 자주 써요.
로그합·로그곱: loga(bc)=logab+logac\log_a(b \cdot c) = \log_a b + \log_a c (곱은 로그에서 합으로), loga(b/c)=logablogac\log_a(b/c) = \log_a b - \log_a c (몫은 차로). 인공지능에서 확률을 곱할 때 이 형태가 빈번하게 쓰여요.
인공지능에서는 손실 함수(예: cross-entropy)와 확률 식에서 log\log가 꼭 나와요. 곱셈을 덧셈으로 바꿔 주어 계산과 미분이 쉬워지기 때문이에요. 왜 로그를 쓰나요? 확률이 여러 번 곱해지면 수가 너무 작아져서, log\log를 쓰면 곱이 으로 바뀌어 계산이 안정되고 경사 하강법에서도 다루기 쉬워요.
딥러닝손실 함수는 확률에 log\log를 써서 '얼마나 틀렸는지'를 잴 때가 많아요. 지수만 알면 softmax는 읽을 수 있지만, 로그를 알면 '왜 log\log를 쓰나?'를 이해할 수 있어요.
확률이 여러 번 곱해지면 숫자가 너무 작아져요. log\log를 쓰면 곱이 으로 바뀌어 계산이 안정되고, 경사 하강법에서 미분도 다루기 쉬워요.
인공지능에서 로그는 '확률·점수를 로그 스케일로 바꾸는 것'으로 쓰여요. Cross-entropy 손실은 정답 클래스의 로그 확률을 음수로 써서, 맞출수록 손실이 0에 가깝게 만듭니다. 로그합 log(p1p2)=logp1+logp2\log (p_1 \cdot p_2) = \log p_1 + \log p_2 형태가 손실·확률 식에 자주 등장해요.
예시
log28\log_2 83 (23=82^3=8)
log24\log_2 42
log39\log_3 92
진수가 밑의 거듭제곱일 때만 정수 로그가 나와요.
로그에서 빈번하게 쓰이는 연산 (인공지능 손실·확률 식에서 자주 씀):
연산수식설명
로그합logab+logac=loga(bc)\log_a b + \log_a c = \log_a(b \cdot c)곱 → 합
로그차logablogac=loga(b/c)\log_a b - \log_a c = \log_a(b/c)몫 → 차
거듭제곱loga(bn)=nlogab\log_a(b^n) = n \cdot \log_a b지수는 앞으로
계산
로그합log22+log24=1+2=3\log_2 2 + \log_2 4 = 1 + 2 = 3
로그차log28log22=31=2\log_2 8 - \log_2 2 = 3 - 1 = 2
아래 문제에서 값 구하기, 진수 구하기, 로그합, 로그차 구하기를 풀어 보세요.