Chapter 03
对数函数:从乘法到加法,损失设计的语言
对数表示「底乘几次能得到这个数」,是指数的逆运算,在深度学习的损失与概率式中与指数一起使用。
按章节的数学图示
选择章节后,下方图示会切换为该章节内容。可一览基础数学的脉络。
对数是指数的逆。 表示 。下图为 与其反函数 的图象。
例:,,,(当 时, 即为 )
紫:,青绿:
什么是对数函数
对数相当于「把指数的时间倒着走」。在 里,看到结果 8 问「2 乘了几次才得到 8?」这个次数就是对数 。其中 2 是底,8 是真数。
可以想成「数位数」。 所以 , 所以 。数扩大 10 倍(),对数值只增加 1()。也就是说,对数把急剧变大的数压成平缓变化的过滤器。基本性质:(底乘 0 次得 1),(底乘 1 次得自己)。
对数的妙处在于「把乘法变成加法」:。在计算机里乘法比加法贵,数也容易溢出或下溢,取对数后复杂的乘积会变成简单、稳定的加法。
真数必须 。0 或负数的对数没有定义,所以 AI 代码里常加一个很小的数 避免 报错。以 为底的自然对数 则让求导形式简洁,是深度学习里的标准选择。
因为必须防止下溢。把概率 连乘 100 次得到 ,计算机会当成「小到无法表示的 0」。取对数后 ,就仍是有意义的数。
因为它是信息量(熵)的尺子。概率越低(越罕见),对数值的绝对值越大。「明天太阳从西边出来」这种罕见事件信息量大,「明天早上会天亮」这种必然事件信息量接近 0。AI 用基于对数的信息量衡量「学到了多令人惊讶的信息」。
因为对错误施以重罚。()的图像中, 趋近 0 时 趋近 。预测正确类概率为 0.9 时损失很小,若误预测为 0.01,对数会暴增,产生巨大惩罚(损失),促使模型明显纠正错误。
交叉熵损失是典型用法:对正确类的概率取对数再取负()并最小化,相当于数学上要求「把正确类的概率尽量推向 1(对数尽量接近 0)」。
最大似然估计(MLE)里会用到。「让观测到这批数据的概率最大」等于让很多概率的积最大;取对数后变成让和最大,便于求导且数值更稳定。
- 例
- 值3()
- 例
- 值2
- 例
- 值2
| 例 | 值 |
|---|---|
| 3() | |
| 2 | |
| 2 |
仅当真数是底的整数次幂时,对数值才是整数。
对数中常用运算(在 AI 损失与概率式中常用):
- 运算对数和
- 公式
- 说明积→和
- 运算对数差
- 公式
- 说明商→差
- 运算幂
- 公式
- 说明指数提前
| 运算 | 公式 | 说明 |
|---|---|---|
| 对数和 | 积→和 | |
| 对数差 | 商→差 | |
| 幂 | 指数提前 |
- 例对数和
- 计算
- 例对数差
- 计算
| 例 | 计算 |
|---|---|
| 对数和 | |
| 对数差 |
在下面题目中求对数值、真数、对数和或对数差。