大家的AI
机器学习AI论文
加载中…

学习

🏅我的成就

Ch.06

逻辑回归:及格还是不及格?

线性回归预测「分数」,逻辑回归则专门做 是/否 分类——例如「这个分数算及格(1)还是不及格(0)?」。它用 Sigmoid(S 形)函数把分数变成 0~1 的概率。

按章节的机器学习图示

选择章节后,下方图示会切换为该章节内容。可一览机器学习脉络。

线性分数 zzz 越大,σ(z)\sigma(z)σ(z) 越接近 1,越判为 class 1。z=0z=0z=0 为决策边界。

z (线性分数)σ(z)0

Sigmoid:σ(z)=11+e−z\sigma(z) = \frac{1}{1+e^{-z}}σ(z)=1+e−z1​。z>0z>0z>0 时 y^=1\hat y=1y^​=1,z≤0z \le 0z≤0 时 y^=0\hat y=0y^​=0。

公式读法 — zzz 为很大负数时 e−ze^{-z}e−z 很大,σ(z)≈0\sigma(z) \approx 0σ(z)≈0。z=0z=0z=0 时 σ(0)=0.5\sigma(0)=0.5σ(0)=0.5。zzz 为很大正数时 e−z≈0e^{-z} \approx 0e−z≈0,σ(z)≈1\sigma(z) \approx 1σ(z)≈1。即该公式把任意 zzz 压成 0~1 之间的概率。

逻辑回归:及格还是不及格?

S 形曲线:Sigmoid — 线性模型算出的分数 zzz 可正可负、可很大。概率必须在 0~1 之间。Sigmoid σ(z)=11+e−z\sigma(z) = \frac{1}{1+e^{-z}}σ(z)=1+e−z1​ 把任意 zzz 映射到 (0, 1)。
决策边界 — Sigmoid 给出「及格概率 0.7」后,需要规则。通常取 0.5:概率 ≥ 0.5 预测 1(是),否则 0(否)。
内核与线性回归相同 — 逻辑回归仍先算分数 z=wx+bz = wx + bz=wx+b,区别只是多了一步:把 zzz 通过 Sigmoid 变成概率。
如何读 σ(z)=11+e−z\sigma(z) = \frac{1}{1+e^{-z}}σ(z)=1+e−z1​ — zzz 很大且为负时 e−ze^{-z}e−z 很大,σ(z)≈0\sigma(z) \approx 0σ(z)≈0。z=0z=0z=0 时 σ(0)=0.5\sigma(0)=0.5σ(0)=0.5。zzz 很大且为正时 e−z≈0e^{-z} \approx 0e−z≈0,σ(z)≈1\sigma(z) \approx 1σ(z)≈1。因此任意 zzz 都被压成 [0,1] 内的概率。

为何重要

现实里大量是非题 — 是否垃圾邮件?是否患病?用户会不会买?二分类无处不在,逻辑回归是标准基线。
用数字表示置信度 — 说「及格概率 98%」比只说「及格」更有用。逻辑回归给出概率,便于决策。
通往深度学习的桥梁 — 神经网络中单个神经元的行为与逻辑回归非常相似。掌握它有助于后续理解深度学习。

如何被使用

垃圾邮件过滤 — 根据特征算「该邮件是垃圾邮件的概率」,超过阈值则判为垃圾。
医疗 AI — 根据影像或化验值预测「患病概率」,辅助诊断。
营销与推荐 — 预测「用户是否会流失」「是否会点击」等,用于定向与广告。