置信度校准:当大模型说"我有80%把握"时,它真的知道自己在说什么吗?
引言:当AI说出"我有80%把握"时,它真的知道自己在说什么吗? 2017年,斯坦福大学的研究生Chuan Guo发表了一篇论文,揭示了一个令人不安的现象:现代深度神经网络在预测准确率上远超早期模型,但它们对自己预测的置信度估计却变得更不可靠。一个可能达到99%分类准确率的模型,当它声称有99%的置信度时,实际正确率可能只有80%。 ...
引言:当AI说出"我有80%把握"时,它真的知道自己在说什么吗? 2017年,斯坦福大学的研究生Chuan Guo发表了一篇论文,揭示了一个令人不安的现象:现代深度神经网络在预测准确率上远超早期模型,但它们对自己预测的置信度估计却变得更不可靠。一个可能达到99%分类准确率的模型,当它声称有99%的置信度时,实际正确率可能只有80%。 ...
当你问一个大模型一个问题,它吐出一串文字作为回答。这个过程看似简单,但模型内部究竟发生了什么?它有多确信自己的答案?如果它在"胡编乱造",我们能否察觉? ...