Chapter 09
积分
积分是微分的逆运算,用于求曲线下面积、累积量,并与概率、期望相关。
home.mathDiagramTitle
home.mathDiagramDescription
矩形与曲线之间的空隙会随着分得更细而变小,取极限就得到精确面积(积分)。
定积分表示曲线下面积。先求原函数,再代入上、下限相减。
什么是积分
简言之积分是微分的逆运算——把求导“还原”回去。记号用 ,区间 上的定积分写成 。
与面积挂钩:曲线与 轴、、 所围成的面积用定积分定义。函数为正时就是“曲线下面积”。
定积分的算法是:先把积分号里的式子还原成“求导之前的式子”,再代入上、下限相减。核心公式:当 时,。这里的 叫做 的原函数,理解成“还原回去的函数”就可以。
日常生活里也会用到。速度变化时总移动距离就是速度的积分。随时间累积的总量(物流、用电等)也是对区间积分得到的。
概率中,连续变量落在某区间的概率就是该区间上概率密度的积分,例如“气温在 20–25 度”“尺寸在公差内”等。
人工智能与深度学习中积分必不可少。使用连续概率分布的模型(图像生成、语音、预测)中区间概率和期望都由积分计算。VAE、归一化流、贝叶斯神经网络等处理分布的模型离不开积分,强化学习中累积奖励的期望也是积分。Ch10–Ch12 概率与分布会自然用到。
物理中,距离、功、电荷、流量等“累积量”常用积分。对加速度积分得速度,对速度积分得距离。
经济中,随时间变化的需求、成本在连续情形下也会用积分来汇总。
人工智能中这样使用:(1) 生成模型 — VAE、扩散模型等用积分计算连续分布的期望、对数似然。(2) 贝叶斯推断 — 后验的均值、概率都是积分。(3) 强化学习 — 策略的期望奖励是奖励函数的积分。(4) 连续输出 — 预测为区间时“落入该区间的概率”也是积分。学好定积分和原函数,Ch10 及之后的概率与 AI 会轻松很多。
定积分的计算顺序:① 确认上、下限 → ② 求“还原回去的函数” → ③ (上限代入值) − (下限代入值)。
“原函数”是什么? — 就是把积分号里的式子还原成求导之前得到的那个函数。例如: 求导得 ,所以反过来,“ 积分后是什么?”→ 。也就是说 的原函数是 。不必纠结术语,就当成“代入上、下限再相减时用的那个函数”即可。
第1步:确认上、下限 — 在 中, 是下限, 是上限。若写的是 ,则下限为 1,上限为 3。
第2步:求“还原回去的函数”(原函数) — 找一个求导后等于被积函数的函数。常用: → ,常数 → , → 。多项相加就逐项还原再相加。
第3步:代入上、下限并相减 — 把上限 代入 得 ,下限 代入得 ,算 即为答案。
验算与注意 — 对求出的函数求导,看是否等于被积函数。相减顺序始终是 。
什么是「不定积分」? — 没有上、下限,只写原函数 + C 的积分叫不定积分。例:。 为任意常数。若问「在 处的值?」,只需把 代入 ;本课程取 计算。不定积分可理解为定积分里用的「原函数」加上 。
“求原函数在给定点处的值”这类题 — 题目已经给出原函数(如 ),并问“在 处的值是多少?”时,只要把 2 代入该式即可。 代入 得 ;本课程中取 ,所以答案是 。取 则 为答案。
例题与分步解答。(定积分为 ①·②·③;不定积分代入题为 ①·②。)
例1.
① 下限 0,上限 2.
② 的原函数 .
③ → 6
例2.
① 下限 1,上限 3.
② 的原函数 .
③ → 8
例3.
① 下限 0,上限 2.
② →,→,故 .
③ → 4
例4. 已知 ,求 处的值?
① 代入 ,.
② 时 → 4