みんなのAI
機械学習AI論文
読み込み中…

学ぶ

🏅マイ実績

Ch.00

発展ディープラーニング:大規模モデルと生成AIパラダイム

上級ディープラーニング(Ch.00)は「なぜモデルが巨大になったのか」と「生成AIが実際にどう動くのか」を一本につなぐ導入です。データから表現(representation)を学ぶところから一歩進み、大規模Transformerが文脈を作り次トークンを予測する仕組み、さらに整合(Alignment)と制御、そして実運用のためのデプロイまでを扱います。

大規模生成モデルへ向かう上級ロードマップ

以下のロードマップはCh01から順に埋まっていき、各章が全体システムで果たす役割をつなげて理解できるようにします。

Ch01~Ch26で学ぶこと

  • Ch.01
    Transformer 1:セルフアテンションと並列化
  • Ch.02
    Transformer:位置エンコーディングとフィードフォワード
  • Ch.03
    Transformer系譜:エンコーダ(BERT)vs デコーダ(GPT)
  • Ch.04
    アテンション最適化:FlashAttentionとスパースアテンション
  • Ch.05
    Vision Transformer(ViT)と画像パッチ
  • Ch.06
    自己教師あり学習
  • Ch.07
    プロンプトエンジニアリングと文脈内学習
  • Ch.08
    PEFT 1:PEFTとLoRA
  • Ch.09
    PEFT 2:QLoRAと量子化チューニング
  • Ch.10
    価値アライメントとRLHF
  • Ch.11
    DPO:強化学習なしのアライメント
  • Ch.12
    RAG:幻覚制御アーキテクチャ
  • Ch.13
    LLMエージェントとツール利用
  • Ch.14
    GNNとメッセージパッシング
  • Ch.15
    ディープラーニングにおけるXAI:Grad-CAM
  • Ch.16
    オートエンコーダと教師なし次元削減
  • Ch.17
    VAE:確率分布に基づく生成空間
  • Ch.18
    GAN基礎
  • Ch.19
    条件付きGAN(cGAN)と応用
  • Ch.20
    拡散モデル1:順過程と逆過程
  • Ch.21
    拡散モデル2:潜在拡散(Latent Diffusion)
  • Ch.22
    視覚-言語モデルとCLIP
  • Ch.23
    音声認識とオーディオ処理
  • Ch.24
    モデル圧縮と知識蒸留
  • Ch.25
    推論最適化とサービスデプロイ
  • Ch.26
    発展ディープラーニング総まとめ:AIアーキテクチャの設計と未来

上級ディープラーニングとは?(生成AIシステムの視点)

基盤モデル(Foundation / LLM)は次トークン予測という目的で学習します。つまり p(xt∣x<t)p(x_t\mid x_{<t})p(xt​∣x<t​) を最大化し、文法だけでなく「言語の流れ」やパターンを吸収していきます。
生成AIを実用的に理解するには、段階で捉えるのが便利です。事前学習(pretraining)で知識を広く獲得し、指示に従うための微調整(instruction / SFT)で意図に合わせ、最後に整合(alignment)で嗜好や安全性、幻覚を抑えます。
中心となる骨格はほとんどの場合Transformerです。自己注意がトークン同士の文脈を作り、フィードフォワードと正規化がそれを磨きます。長い文脈でも一貫性を保ちやすくなります。
モデルが大きいほど能力は伸びますが、同時に学習の安定性が落ち、コストも大きくなります。そのため上級DLは精度だけでなく、学習安定化、効率(計算/メモリ)、再現性に注目します。
現実の生成AIは信頼が重要です。真実性、安全性、そして信頼性を高めるには、整合・評価・制御の考え方が必要です。
さらにデプロイでは、遅延や費用、サーバの制約が効きます。だから学習で終わらず、推論最適化、圧縮、運用設計までつながります。
本番では、多くの場合 `text/image -> tokenization -> context window -> Transformer -> decoding(greedy/beam/sample)` という流れで応答を生成します。デコード方式とプロンプト設計が出力品質を大きく左右します。
整合と制御は複数の方法で行います。例えば RLHF / DPO は嗜好を使って改善し、RAG は外部知識を検索して根拠のある回答を目指します。
プロダクト視点では、ツール利用、キャッシュ/バッチ化、量子化や知識蒸留などの最適化が一体で入ってきます。同じ基盤モデルでも、動かし方で体感は大きく変わります。
  • テーマ次トークン予測
  • AIシステムでの役割一般的な言語能力
  • このコースでの接続概念確率生成、表現学習
  • テーマinstruction / SFT
  • AIシステムでの役割指示に従う応答
  • このコースでの接続概念データ形式、微調整
  • テーマ整合(Alignment)
  • AIシステムでの役割嗜好・安全・真実性の制御
  • このコースでの接続概念嗜好学習、報酬モデル
  • テーマRAG / grounded generation
  • AIシステムでの役割根拠のない主張を減らす
  • このコースでの接続概念検索、埋め込み、文脈組み立て
  • テーマ推論最適化
  • AIシステムでの役割レイテンシとコスト削減
  • このコースでの接続概念量子化、キャッシュ、蒸留
テーマAIシステムでの役割このコースでの接続概念
次トークン予測一般的な言語能力確率生成、表現学習
instruction / SFT指示に従う応答データ形式、微調整
整合(Alignment)嗜好・安全・真実性の制御嗜好学習、報酬モデル
RAG / grounded generation根拠のない主張を減らす検索、埋め込み、文脈組み立て
推論最適化レイテンシとコスト削減量子化、キャッシュ、蒸留