Self-Consistency(自己整合性プロンプティング)とは?
読み方: セルフコンシステンシー
30秒まとめ
同じプロンプトに対しLLMから複数回サンプリングし、多数決で最終答を決める推論強化手法。Chain-of-Thoughtと併用で数学・論理タスクの精度を10-30%向上。
Self-Consistency(自己整合性プロンプティング)の意味・定義
Self-Consistency(自己整合性プロンプティング)は、Google Brainが2022年に提案した推論強化手法で、Chain-of-Thought(CoT)プロンプティングを温度(temperature)0.5-1.0で5-40回サンプリングし、最終的な答え(数値・選択肢など)の多数決で結論を決定するテクニックです。単一サンプリングのGreedy Decoding(temperature=0)に比べ、数学(GSM8K)・論理推論(AQUA-RAT)・記号推論で5-30%の精度向上を達成し、2024年以降のo1/o3/Gemini 2.5 Thinking/Claude Extended Thinkingなどの「内部多段思考モデル」の理論的基盤となりました。実装は単純で(1)同じプロンプトでN回API呼出(並列化可)、(2)各出力の最終答えを抽出、(3)頻度最大の答えを採用。N=5-10が費用対効果スイートスポット。応用は(a)Kaggleコンペの推論タスク、(b)エンタープライズQAの信頼性向上、(c)Agent Workflowのアクション選択、(d)コード生成の正解率向上(複数解候補→ユニットテストで検証)、など。発展形にUniversal Self-Consistency(多数決を再びLLMで判定)、Self-Refine(自己批評→修正ループ)、Tree-of-Thoughts(推論の分岐探索)があり、2026年のagentic推論パターンの基盤を成しています。注意点はAPIコストがN倍に増えること、reasoning modelでは内部実装済みなので二重適用が無駄になること。