😀
Intersection of AI and Web Development
HomeKnowledgeGitHubDiscussions
  • 👋Welcome!
  • Before Start
    • 主流平台
    • 名词概念
      • Token
      • Prompt
      • Temperature
      • Top K and Top P
      • Vector & Embeddings
    • CoT and ReAct
  • Practice
    • 发起一次提问和对话
    • Server-Sent Events流式对话
      • 客户端调用
      • 服务端处理
    • Openai Function Calling
      • 获取当前时间 - function calling
      • FunctionCalling实现实时搜索
        • openai functions 入参
        • 设定 functions
    • 通过Embeddings实现PDF检索
      • 上传识别PDF
      • 获取文本,按句整理
      • 上传并按限定长度分割Documents
      • Openai Embeddings 向量化及存储
    • 结合语音输入实现对话
      • 通过麦克风识别语音输入
      • Memory Chat & Conversation
    • Chrome侧边栏对话插件
  • Others
    • Framework and SDK
由 GitBook 提供支持
在本页

这有帮助吗?

  1. Before Start
  2. 名词概念

Temperature

上一页Prompt下一页Top K and Top P

最后更新于1年前

这有帮助吗?

默认为1

如果temperature很高,它会使得所有Token的得分变得接近于0,这意味着这个Token更有可能被选中。会有更多的多样性,更多的内容可以被预测,这会使得模型变得更有创造性。但如果temperature太高,神经网络只会预测出无意义的东西。

如果temperature非常低,最高的概率得分会被乘以一个非常大的数,这会使得最高得分的Token有更大的被选中的概率,也就是说,模型的行为会更加确定。

一个更直观的解释,Temperature, “温度”,顾名思义,好比煮沸的一锅水,温度越高,就会有越多的水滴溅出锅,温度越低能溅出出锅就那么几个水滴。

也就是说Temperature 这个参数越高就拉平模型预测在词表上的概率分布,这样在解码时结合采样策略会采样到不同的Token。

Reference:

Google Generative AI learning Path - Encoder-Decoder Architecture
The garden was full of beautiful