2026-04-30·LLM·⏱ 約 4 分
プロンプトエンジニアリング基礎 ─ 出力を 10 倍良くする 7 つのコツ
ChatGPT・Claude を使いこなすためのプロンプト設計の基礎。Few-shot・Chain-of-Thought・Role 指定など、現場で効くテクニックを 7 つ。
LLM の力を引き出す プロンプト設計 は、AI エンジニアにとって新しい必須スキルです。コードの書き方を覚えるように、プロンプトの書き方も体系化されています。本記事では基礎 7 テクニックを紹介。
1. 明確な指示(Specificity)
❌ 『コードを書いて』 → ✅ 『Python で 1〜100 の素数を列挙する関数を書いて。型ヒント付き、docstring 必須。』
💡 良い指示の 4 要素
(1) 何を / (2) どんな入力で / (3) どんな出力形式で / (4) 制約(性能・スタイル)。
2. ロール指定(Role Prompting)
システムロールで人格を設定
messages=[
{'role': 'system', 'content':
'あなたは統計検定 1 級保持者の数理統計学者です。式変形は厳密に、自然言語の説明は丁寧に。'},
{'role': 'user', 'content': '中心極限定理の数学的証明をお願いします'},
]システムロールで 専門性 ・ トーン ・ 制約 を先に固定すると、出力が安定します。
3. Few-shot(例示)
やってほしいタスクの 入出力例を 2〜5 個 見せる。LLM はその場でパターンを学習します。
例: 感情分類
prompt = '''次のレビューを Positive / Negative に分類してください。
レビュー: 最高の体験でした
分類: Positive
レビュー: 期待外れだった
分類: Negative
レビュー: まあまあかな
分類:'''4. Chain-of-Thought(段階的推論)
数学・論理問題で『ステップバイステップで考えてください』と指示すると正答率が大きく上がります。
数学問題の改善
❌ '36 個のリンゴを 4 人で平等に分けると?'
→ 即答えだけ
✅ '36 個のリンゴを 4 人で平等に分けます。
ステップごとに考えてから最終的な答えを述べてください。'
→ 1) 全体は 36 個
2) 4 人で割る → 36 / 4 = 9
答え: 9 個ずつ5. 出力形式の指定
JSON ・ Markdown 表 ・ XML タグなど、機械が読める形 を指定すると後段処理が楽。
JSON 出力例
prompt = '''次の文章から人物名と年齢を抽出してください。
出力は JSON のみ。説明文は不要。
文章: 田中さん(34 歳)と山田さん(28 歳)が会議に参加した。
出力スキーマ: {"persons": [{"name": str, "age": int}]}'''6. Self-Consistency(複数サンプル + 多数決)
重要な推論問題は temperature を上げて 複数回サンプリング → 多数決。コストはかかるが精度が大きく上がる。
7. プロンプトの構造化
セクション分けでロバストに
prompt = '''# 役割
あなたはデータサイエンティストです。
# タスク
以下のデータから 5 つの示唆を抽出する。
# データ
```csv
{csv_content}
```
# 出力
- Markdown の箇条書き 5 項目
- 各項目は 1 文 50 字以内
- 数値根拠を併記'''やってはいけない 3 つ
- 曖昧な指示: 『良い感じに書いて』は禁物
- 否定形だけ: 『〜しないで』より『〜してください』が効く
- 長すぎる文脈: 関係ない情報は削る(精度が落ちる)
学習リソース
- [LLM 入門](/blog/llm-introduction)
- [RAG 入門](/blog/rag-introduction)
- [Transformer の数学](/blog/transformer-math)
プロンプトエンジニアリングは 書いて試す が一番。本記事のテクニックを ChatGPT / Claude で順番に試してみてください。
Related Articles
関連記事
- 2026-04-30LLMAI エージェント 入門 ─ ReAct・Tool Use・Multi-AgentChatGPT に外部 API・コード実行・Web 検索を組み合わせる『AI エージェント』。ReAct パターン・ツール呼び出し・マルチエージェント協調を実装視点で解説します。
- 2026-04-30LLMLLM 入門 ─ ChatGPT は何を計算しているのかChatGPT・Claude・Gemini などの大規模言語モデル(LLM)が内部で何をしているかを、Transformer の数式と pre-training/fine-tuning の流れで整理します。
- 2026-04-30LLMRAG 入門 ─ LLM に外部知識を持たせる仕組みRetrieval Augmented Generation(RAG)の仕組みを、Embedding・ベクトル DB・検索・生成の 4 要素に分解。社内文書 Bot を作る最短ルートを示します。