我们证明,GPT-3 模型可以学习用自然语言表达其自身答案的不确定性,而无需使用模型 Logits。当给出问题时,模型会生成答案和置信度(例如“90% 置信度”或“高置信度”)。这些水平映射到经过良好校准的概率。该模型在分布变化下也保持适度校准,并且对其自身答案的不确定性敏感,而不是模仿人类的例子。据我们所知,这是第一次有模型被证明可以用自然语言表达其自身答案的校准不确定性。为了测试校准,我们引入了 CaliberatedMath 任务套件。我们将用单词(“语言化概率”)表达的不确定性的校准与从模型逻辑中提取的不确定性进行比较。两种不确定性都能够在分布偏移下推广校准。我们还提供证据表明,GPT-3 概括校准的能力取决于预先训练的潜在表示,这些表示与其答案的认知不确定性相关。
- SEO 支持的内容和 PR 分发。 今天得到放大。
- 柏拉图区块链。 Web3 元宇宙智能。 知识放大。 访问这里。
- Sumber: https://openai.com/research/teaching-models-to-express-their-uncertainty-in-words