Chapter 03
로그 함수
로그는 '밑을 몇 번 곱해야 그 수가 나오는지'를 나타내요. 지수의 역연산이며, 딥러닝의 손실·확률 식에서 지수와 함께 쓰입니다.
챕터별 수학 도식화
챕터를 선택하면 아래 도식이 해당 챕터 내용으로 바뀌어요. 기초 수학 흐름을 한눈에 보세요.
로그는 지수의 반대예요. 는 를 만족해요. 아래는 와 역함수 그래프입니다.
예: , , , (일 때 가 )
보라: , 청록:
로그 함수란 무엇인가
로그는 지수의 반대 개념이에요. 일 때, '를 몇 번 곱하면 가 되는가?'를 로 씁니다. 여기서 는 밑, 는 진수, 가 로그값(지수)이에요.
예: 이므로 . (). 밑이 인 로그는 자연로그 로 쓰고, 딥러닝·통계에서 자주 써요.
로그합·로그곱: (곱은 로그에서 합으로), (몫은 차로). 인공지능에서 확률을 곱할 때 이 형태가 빈번하게 쓰여요.
인공지능에서는 손실 함수(예: cross-entropy)와 확률 식에서 가 꼭 나와요. 곱셈을 덧셈으로 바꿔 주어 계산과 미분이 쉬워지기 때문이에요. 왜 로그를 쓰나요? 확률이 여러 번 곱해지면 수가 너무 작아져서, 를 쓰면 곱이 합으로 바뀌어 계산이 안정되고 경사 하강법에서도 다루기 쉬워요.
딥러닝의 손실 함수는 확률에 를 써서 '얼마나 틀렸는지'를 잴 때가 많아요. 지수만 알면 softmax는 읽을 수 있지만, 로그를 알면 '왜 를 쓰나?'를 이해할 수 있어요.
확률이 여러 번 곱해지면 숫자가 너무 작아져요. 를 쓰면 곱이 합으로 바뀌어 계산이 안정되고, 경사 하강법에서 미분도 다루기 쉬워요.
인공지능에서 로그는 '확률·점수를 로그 스케일로 바꾸는 것'으로 쓰여요. Cross-entropy 손실은 정답 클래스의 로그 확률을 음수로 써서, 맞출수록 손실이 0에 가깝게 만듭니다. 로그합 형태가 손실·확률 식에 자주 등장해요.
| 예시 | 값 |
|---|---|
| 3 () | |
| 2 | |
| 2 |
진수가 밑의 거듭제곱일 때만 정수 로그가 나와요.
로그에서 빈번하게 쓰이는 연산 (인공지능 손실·확률 식에서 자주 씀):
| 연산 | 수식 | 설명 |
|---|---|---|
| 로그합 | 곱 → 합 | |
| 로그차 | 몫 → 차 | |
| 거듭제곱 | 지수는 앞으로 |
| 예 | 계산 |
|---|---|
| 로그합 | |
| 로그차 |
아래 문제에서 값 구하기, 진수 구하기, 로그합, 로그차 구하기를 풀어 보세요.