Zero-shot Prompting(零樣本提示)
現今的大型語言模型(LLMs),如 GPT-3.5 Turbo、GPT-4 和 Claude 3,經過大量資料訓練與指令微調,能夠在許多任務中展現零樣本能力。所謂零樣本提示,指的是在提示中不提供範例,而是直接透過指令要求模型完成任務。
目錄
例如,執行文本分類(Text Classification)時,只需下達簡單的分類指令,LLM 就能理解並完成,因為模型已在訓練過程中學習到如「情感分析」等任務概念,這便是零樣本能力的體現。
範例
提示 :
將句子分類為生氣、開心、難過、失望
句子 : 我沒有拿到我應該有的分數
輸出 :
失望
失望
失望
指令微調與 RLHF
研究顯示,指令微調(Instruction Tuning)有助於增強 LLM 的零樣本能力。其方法是將模型微調在大量以「指令描述」為主的資料集上,讓模型更擅長理解並執行指令。此外,從人類回饋中強化學習(RLHF)技術被應用於擴展指令微調,使模型能更符合人類偏好,這也是像 Chat GPT 等模型背後的重要技術之一。
Few-shot Prompting(少樣本提示)
當零樣本提示無法取得理想效果時,推薦使用少樣本提示(Few-shot Prompting)–即在提示中提供少量範例,協助模型理解並執行任務。下一章節將進一步介紹少樣本提示的操作方式與應用。
結語
零樣本與少樣本提示技術,展現了大型語言模型在不同任務中靈活應用的潛力。透過指令微調與人類回饋強化學習(RLHF),LLMs 不僅能理解複雜指令,還能更貼近人類需求與偏好。理解並善用這些提示技術,是有效與大型語言模型互動的重要能力。隨著技術持續演進,掌握提示工程將成為未來 AI 應用與開發的核心關鍵。
References
Prompt Engineering Guide
Wei et al. (2022)
RLHF
上一篇:Prompting Techniques - 簡介
下一篇﹕Prompting Techniques - Few-shot