Chain-of-Thought Prompting(思維鏈提示)
Chain-of-Thought (CoT) Prompting 是一種能顯著提升大型語言模型(LLMs)在複雜推理任務上表現的提示技巧。其核心理念是:在提示中引導模型逐步推理(step-by-step reasoning),而非直接給出最終答案。
該技術已成為提升 LLM 邏輯性與可解釋性的關鍵方法。
CoT一共有三個手法:
- CoT:需人工撰寫多個逐步推理示範,效果佳但耗時費力,人力成本高。
- Zero-Shot CoT:用一句「Let’s think step by step」引導模型自行推理,免人工示範,減少人力需求,但推理品質不穩。
- Auto-CoT:自動分群問題並生成推理鏈,降低人工設計與維護成本,同時保留 Few-Shot 的高品質推理效果。
目錄
原理與範例
傳統提示範例如下:
這種方式模仿人類的思維過程,鼓勵模型先推理、再作答。
零鏈提示(Zero-shot COT Prompting)
零鏈提示是一種無需範例的提示技術,直接透過自然語言指令讓大型語言模型(LLM)完成任務,依賴模型的預訓練知識與語言理解能力。
Q: What is 23 × 47?
A: 1081
而使用 CoT 提示會寫成:
Q: What is 23 × 47?
A: Let's think step-by-step.
23 × 47 = (20 + 3) × 47
= 20 × 47 + 3 × 47
= 940 + 141 = 1081
自動鏈結提示(Automatic Prompt Chaining)
自動鏈結提示將複雜任務拆解為多個子任務,自動串聯提示執行,每步輸出作為下一步輸入。
階段 1):問題分群:將給定資料集中的問題劃分為幾個群集。
階段 2):示範抽樣:從每個群集中選取一個具有代表性的問題,並使用基於簡單啟發式的 Zero-Shot-CoT 生成其推理鏈。
優勢
- 提升複雜任務表現:如數學、常識、邏輯推理。
- 減少錯誤與幻覺:避免模型直接亂猜答案。
- 促進可解釋性:有助人類理解模型的思考過程。
- 可與 Few-shot、Self-Consistency 等方法結合。
設計建議
- 使用明確引導語,例如:
- 我們一步一步來思考。
- 讓我們詳細地討論一下這個問題。
- 可與 few-shot exemplars 搭配使用,示範多個步驟推理範例。
- 較長的推理路徑雖耗 token,但效能通常更穩定可靠。
適用任務類型
- 算術與數學應用題
- 常識推理(Commonsense QA)
- 符號邏輯與推理
- 解謎類問題(Puzzle-solving)
結語
Chain-of-Thought Prompting 是讓模型「先思考再回答」的高效技巧,特別適用於需要多步驟推理的任務。透過這種結構化的提示設計,我們可以大幅提升模型的邏輯性與準確性,是現代提示工程中不可或缺的一環。
References
Prompt Engineering Guide
Wei et al. (2022)
Kojima et al. (2022)
Zhang et al. (2022)
here
上一篇:Prompting Techniques - Few-shot
下一篇:Prompting Techniques - Meta


