Introduction-LLM Settings

LLM 設定參數說明(LLM Settings)

在設計與測試提示(prompts)時,我們通常會透過 API 與大型語言模型(LLM)互動。
你可以調整一些設定參數來影響模型回應的結果。這些參數的微調對於提升輸出的可靠性與理想性非常重要,而要找到最適合的設定組合也需要一些實驗與嘗試。


本篇目標


以下是使用不同 LLM 平台時常見的參數設定:

溫度(Temperature)

  • 簡介:決定模型的隨機性程度
  • 數值越低(例如 0.1)→ 較「可預測」的結果,會選擇機率最高的字詞。
  • 數值越高(例如 0.8)→ 更多樣化與創意,因為其他可能的詞彙會有更高的選擇機會。
  • 應用建議
    • 事實性任務(如問答)→ 使用低溫度以獲得準確與簡潔的回答。
    • 創意任務(如詩歌生成)→ 使用高溫度以產出多樣、有趣的內容。

核取樣機率上限(Top P)

  • 簡介:控制模型回應時的「決定性 vs. 多樣性」。
  • 當設定 Top P = 0.9 時,模型僅會從機率加總達到 90% 的候選詞中選擇下一個詞。
  • Top P 越低 → 越專注於高信心的詞彙(更穩定、更準確)。
  • Top P 越高 → 可以探索更多潛在選項(更具創意與變化)。
  • 建議:通常只需調整 Temperature 或 Top P 的其中一個,不必同時修改。

最大長度(Max Length)

  • 控制模型回應的最大 token 數量
  • 可以避免回答過長或偏題,並幫助控制運算成本。

停止序列(Stop Sequences)

  • 當模型遇到指定的字串時,就會停止生成回應
  • 範例用途:若你要模型產出一個最多 10 項的清單,可指定 "11" 為停止序列。

頻率懲罰(Frequency Penalty)

  • 根據某個詞在提示與回應中出現次數給予懲罰。
  • 數值越高 → 越不容易重複使用同樣的詞,減少重複字詞的機率。

出現懲罰(Presence Penalty)

  • 對於「曾經出現過的詞」給予相同程度的懲罰(無論出現幾次)。
  • 有助於避免模型反覆使用相同片語。
  • 應用建議
    • 想要更有創意、多樣化 → 增加 Presence Penalty。
    • 需要模型保持專注、不跳針 → 減少 Presence Penalty。
  • 與 Temperature、Top P 類似:建議只調整 Frequency 或 Presence Penalty 其中一項

注意事項

  • 最佳參數組合可能會依據你使用的模型版本而有所不同。
  • 記得多加實驗與測試,以找出最適合你應用場景的參數設定!

References

Prompt Engineering Guide


上一篇:介紹 - 簡介
下一篇:介紹 - 提示語設計基礎