Prompting Techniques-Chain-of-Thought Prompting(思維鏈提示)

Chain-of-Thought Prompting(思維鏈提示)

Chain-of-Thought (CoT) Prompting 是一種能顯著提升大型語言模型(LLMs)在複雜推理任務上表現的提示技巧。其核心理念是:在提示中引導模型逐步推理(step-by-step reasoning),而非直接給出最終答案。

該技術已成為提升 LLM 邏輯性與可解釋性的關鍵方法。
CoT一共有三個手法:

  • CoT:需人工撰寫多個逐步推理示範,效果佳但耗時費力,人力成本高。
  • Zero-Shot CoT:用一句「Let’s think step by step」引導模型自行推理,免人工示範,減少人力需求,但推理品質不穩。
  • Auto-CoT:自動分群問題並生成推理鏈,降低人工設計與維護成本,同時保留 Few-Shot 的高品質推理效果。

目錄


原理與範例

傳統提示範例如下:

這種方式模仿人類的思維過程,鼓勵模型先推理、再作答。

零鏈提示(Zero-shot COT Prompting)

零鏈提示是一種無需範例的提示技術,直接透過自然語言指令讓大型語言模型(LLM)完成任務,依賴模型的預訓練知識與語言理解能力。

Q: What is 23 × 47?
A: 1081

而使用 CoT 提示會寫成:

Q: What is 23 × 47?
A: Let's think step-by-step.
23 × 47 = (20 + 3) × 47
= 20 × 47 + 3 × 47
= 940 + 141 = 1081

自動鏈結提示(Automatic Prompt Chaining)

自動鏈結提示將複雜任務拆解為多個子任務,自動串聯提示執行,每步輸出作為下一步輸入。
階段 1):問題分群:將給定資料集中的問題劃分為幾個群集。
階段 2):示範抽樣:從每個群集中選取一個具有代表性的問題,並使用基於簡單啟發式的 Zero-Shot-CoT 生成其推理鏈。


優勢

  • 提升複雜任務表現:如數學、常識、邏輯推理。
  • 減少錯誤與幻覺:避免模型直接亂猜答案。
  • 促進可解釋性:有助人類理解模型的思考過程。
  • 可與 Few-shot、Self-Consistency 等方法結合

設計建議

  • 使用明確引導語,例如:
    • 我們一步一步來思考。
    • 讓我們詳細地討論一下這個問題。
  • 可與 few-shot exemplars 搭配使用,示範多個步驟推理範例。
  • 較長的推理路徑雖耗 token,但效能通常更穩定可靠。

適用任務類型

  • 算術與數學應用題
  • 常識推理(Commonsense QA)
  • 符號邏輯與推理
  • 解謎類問題(Puzzle-solving)

結語

Chain-of-Thought Prompting 是讓模型「先思考再回答」的高效技巧,特別適用於需要多步驟推理的任務。透過這種結構化的提示設計,我們可以大幅提升模型的邏輯性與準確性,是現代提示工程中不可或缺的一環。


References

Prompt Engineering Guide
Wei et al. (2022)
Kojima et al. (2022)
Zhang et al. (2022)
here


目錄:Prompting Techniques

上一篇:Prompting Techniques - Few-shot
下一篇:Prompting Techniques - Meta