数智化转型网szhzxw.cn 人工智能资讯 大语言模型的自信危机:为何GPT-4o轻易放弃正确答案?

大语言模型的自信危机:为何GPT-4o轻易放弃正确答案?

最近,Google DeepMind 与伦敦大学的研究揭示了大语言模型(LLMs)在面对反对意见时的 “软弱” 表现。比如,像 GPT-4o 这样的先进模型,有时会显得非常自信,但一旦遇到质疑,它们就可能立即放弃正确答案。这种现象引发了研究人员的关注,他们探索了这种行为背后的原因。

研究团队发现,大语言模型在自信与自我怀疑之间存在一种矛盾的行为模式。模型在最初给出答案时,往往自信满满,表现出与人类相似的认知特征,通常会坚定地维护自己的观点。然而,当这些模型受到反对意见的挑战时,它们的敏感度超出了合理范围,甚至在面对明显错误的信息时也会开始怀疑自己的判断。

为了深入了解这一现象,研究人员设计了一项实验,比较了不同条件下模型的反应。在实验中,研究者使用了 Gemma3、GPT-4o 等代表性模型,进行了一轮二元选择问题的回答。首次回答后,模型会接收虚构的反馈建议,并进行最终决策。研究者发现,当模型能够看到自己最初的答案时,它们更倾向于保持原有的判断。而当这个答案被隐藏时,模型改变答案的概率大大增加,显示出对反对建议的过度依赖。

这种 “耳根子软” 的现象可能源于几个因素。首先,模型在训练过程中受到的强化学习人类反馈(RLHF)使其对外部输入产生过度迎合的倾向。其次,模型的决策逻辑主要依赖于海量文本的统计模式,而非逻辑推理,导致它们在面对反对信号时容易被偏差引导。此外,记忆机制的缺乏也使得模型在没有固定参照的情况下容易动摇。

综上所述,这一研究结果提示我们,在使用大语言模型进行多轮对话时,需格外留意其对反对意见的敏感性,以避免偏离正确的结论。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)鲍勃

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/84900.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部