Ch.00
进阶深度学习:大模型与生成式AI范式
高级深度学习(Ch.00)把“为什么模型会变得这么大”与“生成式AI系统到底怎么运作”连在一起的入门章节。我们不仅学习如何从数据中获得表征(Representation),还会看大规模Transformer如何建立上下文、预测下一个token;并进一步理解如何通过对齐(Alignment)与控制,把这些能力变成可用、可部署的系统。
通往大规模生成模型的高级路线图
随着你从Ch01开始推进,下面的路线图会逐步填充,帮助你把每一章的贡献串成一个完整系统。
你将在 Ch01~Ch26 学到什么
- Ch.01Transformer 1:自注意力与并行化
- Ch.02Transformer:位置编码与前馈
- Ch.03Transformer 谱系:编码器(BERT)vs 解码器(GPT)
- Ch.04注意力优化:FlashAttention 与稀疏注意力
- Ch.05视觉 Transformer(ViT)与图像块
- Ch.06自监督学习(Self-Supervised Learning)
- Ch.07提示工程与上下文学习(In-Context Learning)
- Ch.08参数高效微调 1:PEFT 与 LoRA
- Ch.09参数高效微调 2:QLoRA 与量化调优
- Ch.10价值对齐与人类反馈强化学习(RLHF)
- Ch.11直接偏好优化(DPO):无强化学习的对齐
- Ch.12检索增强生成(RAG):幻觉控制架构
- Ch.13LLM 智能体(Agents)与工具使用(Tool Use)
- Ch.14图神经网络(GNN)与消息传递
- Ch.15深度学习中的可解释 AI(XAI):Grad-CAM
- Ch.16自编码器(Autoencoder)与无监督降维
- Ch.17变分自编码器(VAE):基于概率分布的生成空间
- Ch.18生成对抗网络(GAN)基础
- Ch.19条件 GAN(cGAN)与应用
- Ch.20扩散模型(Diffusion Model)1:前向与逆过程
- Ch.21扩散模型(Diffusion Model)2:潜在扩散(Latent Diffusion)
- Ch.22视觉-语言模型(Vision-Language Model)与 CLIP
- Ch.23语音识别(Speech-to-Text)与音频处理
- Ch.24模型压缩与知识蒸馏(Knowledge Distillation)
- Ch.25推理优化与服务部署(Deployment)
- Ch.26进阶深度学习总整理:AI 架构设计与未来
什么是高级深度学习?(从生成式AI系统看)
基础模型(Foundation / LLM)以“预测下一个token”为目标进行训练。也就是说,它会最大化 ,学习语言的流动与模式,而不只是死记语法。
理解生成式AI的一种实用方式,是把它拆成阶段:预训练(pretraining)获得广泛知识;指令微调(instruction / SFT)让模型遵循你的意图;最后通过对齐(alignment)让偏好、安全与事实性更稳定、更可靠。
骨架通常是Transformer。自注意力把“token之间的关联”写进上下文表征,再由前馈网络与归一化不断打磨,使模型在长上下文中也能保持一致性。
模型越大能力往往越强,但训练会更不稳定、成本也会迅速上升。因此,高级深度学习关注的不仅是精度,还有 训练稳定性、效率(算力/内存)与 可复现性。
现实世界里,生成式AI的核心是信任:真实、可控、安全与可靠。要做到这些,需要对齐、评估与控制机制。
另外,部署约束(延迟、成本、服务器资源)也非常关键。所以高级深度学习不会停留在训练阶段,而是延伸到 推理优化、压缩与服务策略。
在生产环境中,系统通常遵循类似 `text/image -> tokenization -> context window -> Transformer -> decoding(greedy/beam/sample)` 的流水线。解码策略与提示词设计会显著影响输出质量。
对齐与控制也可以用多种方式实现。例如 RLHF / DPO 使用偏好来更新模型;而 RAG 通过检索外部知识,让回答更有依据。
从产品角度看,工具调用、缓存/批处理以及量化与蒸馏等优化,都会成为整体栈的一部分。就算是同一个底座模型,不同的运行方式也会带来完全不同的体验。
- 主题下一个token预测
- 在AI系统中的作用构建通用语言能力
- 这门课里的连接概念概率生成、表征学习
- 主题instruction / SFT
- 在AI系统中的作用让回复遵循意图
- 这门课里的连接概念数据格式、微调
- 主题对齐(Alignment)
- 在AI系统中的作用控制偏好、安全与真实性
- 这门课里的连接概念偏好学习、奖励模型
- 主题RAG / grounded generation
- 在AI系统中的作用降低无依据的生成
- 这门课里的连接概念检索、向量/嵌入、上下文拼装
- 主题推理优化
- 在AI系统中的作用降低延迟与成本
- 这门课里的连接概念量化、缓存、蒸馏
| 主题 | 在AI系统中的作用 | 这门课里的连接概念 |
|---|---|---|
| 下一个token预测 | 构建通用语言能力 | 概率生成、表征学习 |
| instruction / SFT | 让回复遵循意图 | 数据格式、微调 |
| 对齐(Alignment) | 控制偏好、安全与真实性 | 偏好学习、奖励模型 |
| RAG / grounded generation | 降低无依据的生成 | 检索、向量/嵌入、上下文拼装 |
| 推理优化 | 降低延迟与成本 | 量化、缓存、蒸馏 |