温度(Temperature)是调用 LLM API 时的一个重要参数,用于控制模型输出的随机性和创造性。取值范围通常在 0 到 1 之间(有些模型支持到 2)。

参数影响

  • 低温度 (0 ~ 0.3):
    • 特点: 输出非常稳定、确定性高,每次回答几乎一样。
    • 适用场景: 代码生成、数学解题、事实性问答、数据提取。
    • 原理: 模型总是选择概率最高的那个词。
  • 高温度 (0.7 ~ 1.0+):
    • 特点: 输出更具创造性、多样性,但可能出现幻觉或逻辑错误。
    • 适用场景: 创意写作、头脑风暴、角色扮演、聊天。
    • 原理: 模型会按概率随机选择稍微次优的词,增加了变化。

建议

  • 如果你需要精准的答案(如 API 解释),请将温度设为 0
  • 如果你需要有趣的对话,尝试 0.7 或更高。