2026-04-30·LLM·⏱ 約 4 分
LLM 入門 ─ ChatGPT は何を計算しているのか
ChatGPT・Claude・Gemini などの大規模言語モデル(LLM)が内部で何をしているかを、Transformer の数式と pre-training/fine-tuning の流れで整理します。
ChatGPT・Claude・Gemini が『答えを返してくれる』のはなぜか? 内部で何が起きているのかを、AI エンジニア視点で要素分解します。
LLM の本質は『次の単語予測』
LLM は これまでの文脈から次のトークンを確率的に予測 することを延々と学習したモデル。これだけで会話・コード・要約・翻訳などができてしまう ─ 規模を上げると新しい能力が突然現れる(Emergent Ability)のが LLM の不思議。
💡 Auto-regressive とは
1 トークン予測 → 出力に追加 → また予測 → … を繰り返す。ChatGPT が文字を 1 つずつ出すのはこの仕組み。
アーキテクチャ ─ Decoder-only Transformer
- Transformer が基本(2017 年提案)
- GPT 系 ・ LLaMA ・ Claude などはほぼ Decoder-only
- BERT は Encoder-only(分類向き)
- T5 は Encoder + Decoder(翻訳など)
Self-Attention で長距離依存を処理 ─ 詳細は以下の記事:
- [Transformer の数学](/blog/transformer-math) ─ Self-Attention の式と PyTorch 実装
- [線形代数を AI 視点で](/blog/linear-algebra-for-ai) ─ 内積と行列積の理解
学習の 3 段階
Stage 1: 事前学習(Pre-training)
Web ・ 書籍 ・ コードなどの 大量テキスト で次トークン予測を学習。GPT-4 級だと数兆トークン。データセンター規模の計算が数ヶ月かかる。
Stage 2: 教師ありファインチューニング(SFT)
人間が書いた高品質な指示 ・ 応答ペア で追加学習。指示に従う動作を獲得。
Stage 3: RLHF(人間フィードバック強化学習)
好み比較データ から報酬モデルを学習し、PPO で本体を最適化。Helpful ・ Harmless ・ Honest を促進。
- 応答候補 A・B を出して人間が好みを選ぶ
- 好み比較から 報酬モデル を学習
- 報酬モデルを使って PPO で LLM を強化学習
推論時の重要パラメータ
- 温度(temperature): 高 = ランダム、低 = 決定論的
- Top-p(nucleus sampling): 累積確率 p までの候補から選択
- Top-k: 上位 k 候補から選択
- コンテキスト長: 一度に扱える入力 + 出力の長さ(GPT-4 = 128K, Claude 4.7 = 1M)
- max_tokens: 出力の最大長
OpenAI API の例
from openai import OpenAI
client = OpenAI()
resp = client.chat.completions.create(
model='gpt-4o',
messages=[{'role': 'user', 'content': '統計検定 2 級の合格率は?'}],
temperature=0.7,
max_tokens=300,
)
print(resp.choices[0].message.content)幻覚(Hallucination)とその対策
LLM は『もっともらしい嘘』を生成することがある。対策:
- RAG(検索拡張生成): 信頼できるドキュメントを参照させる
- ファクトチェック: 別 LLM で検証 ・ ツール呼び出し
- 温度を下げる: 創造性は下がるが安定
- Chain-of-Thought: 推論過程を出させる
RAG の詳細は [RAG 入門](/blog/rag-introduction) を参照。
次のステップ
- [プロンプトエンジニアリング基礎](/blog/prompt-engineering-basics)
- [Transformer の数学](/blog/transformer-math)
- [E 資格 ロードマップ](/certs/e-shikaku/roadmap)
- [AI Engineer Roadmap](/roadmap)
Related Articles
関連記事
- 2026-04-30LLMAI エージェント 入門 ─ ReAct・Tool Use・Multi-AgentChatGPT に外部 API・コード実行・Web 検索を組み合わせる『AI エージェント』。ReAct パターン・ツール呼び出し・マルチエージェント協調を実装視点で解説します。
- 2026-04-30LLMプロンプトエンジニアリング基礎 ─ 出力を 10 倍良くする 7 つのコツChatGPT・Claude を使いこなすためのプロンプト設計の基礎。Few-shot・Chain-of-Thought・Role 指定など、現場で効くテクニックを 7 つ。
- 2026-04-30LLMRAG 入門 ─ LLM に外部知識を持たせる仕組みRetrieval Augmented Generation(RAG)の仕組みを、Embedding・ベクトル DB・検索・生成の 4 要素に分解。社内文書 Bot を作る最短ルートを示します。