长期以来,人们一直担心人工智能是否会超越人类智能,但最新研究揭示了一个有趣的现象:像ChatGPT和Claude这样的顶级人工智能模型实际上“神话化”了人类理性。这些模型常假设人类做出高度逻辑和战略决策,但现实情况不同。
研究人员用经典的博弈论实验“凯恩斯主义美人竞赛”(一个数字猜谜游戏)来测试人工智能。该任务要求参与者预测他人的选择以获胜。理论上,这需要深层的逻辑推理,但人类在实践中往往无法达到这种理想状态。有趣的是,当AI与人类对弈时,可以根据对手的背景(如学生或专家)调整策略,但仍然倾向于相信人类会做出最理性的选择。这种“高估人类智力”的偏见导致人工智能经常误判真实的人类决策。
本研究提醒我们,尽管人工智能能够准确模拟人类性格特征,但如何校准人工智能对涉及真实人类行为的复杂任务(如经济预测和战略建模)中人类非理性行为的理解,将是未来技术发展的关键挑战。
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
