最近,人工智能社区经历了一起令人尴尬的“集体幻觉”事件。包括谷歌、OpenAI和Anthropic在内的多个顶级全球人工智能模型,在简单的常识问题“2027年是明年吗?”时给出了错误答案。
事件起因于一名用户在社交媒体平台上的披露。当用户问“2027年是明年吗?”时,谷歌的AI搜索摘要(AI概览)非常“自信”,声称当前年份是2026年,所以明年应该是2028年,2027年是后年。这种逻辑矛盾甚至伴随着错误的引用,让人们既发笑又感到困惑。
除了谷歌,曾被视为行业标杆的ChatGPT(5.2版)和Claude 3.5也受到了影响。这些模型在最初的回应中也否认2027年是明年。尽管他们后来在对话中意识到了逻辑错误并自我纠正,但这一基本错误仍在业界引发了轩然。
分析表明,这一现象揭示了大型语言模型在处理实时日期和基本逻辑推理时的脆弱性。尽管制造商不断创新,面对这些“免费积分”时,AI的性能似乎并不像他们声称的那么无所不知。目前,只有谷歌最新的Gemini 3能够准确回答这个问题。这一事件不仅让科技巨头尴尬,也再次提醒用户:在依赖人工智能获取信息时,仍应保持必要的谨慎。
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
