数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|AI 聊天机器人在数据总结能力上愈加糟糕,关键细节常被遗漏

人工智能资讯|AI 聊天机器人在数据总结能力上愈加糟糕,关键细节常被遗漏

随着人工智能技术的迅猛发展,各大 AI 创业公司不断宣称其产品将工作方式和知识获取的方式。然而,最近一项发表在《皇家学会》上的研究却揭示了新一代 AI 模型在总结文本时存在严重问题,令人担忧。研究显示,新款 AI 聊天机器人在提供信息时,有高达73% 的概率会遗漏关键信息。

这项研究对十款广泛使用的语言模型(LLM)进行分析,样本涵盖近5000个科学研究的总结,涉及的聊天机器人包括 ChatGPT-4o、ChatGPT-4.5、DeepSeek 和 LLaMA3.370B。研究结果显示,即使在特定要求下,AI 提供的回答仍然在遗漏关键细节方面的错误率是人类撰写科学摘要的五倍。

研究人员指出:“在总结科学文本时,LLM 可能会遗漏限制研究结论范围的细节,从而导致对原始研究的结果进行过度概括。” 更令人担忧的是,随着聊天机器人的不断更新,其错误率反而在上升,情况与 AI 行业领袖们的承诺完全相反。例如,在2023至2025年间,美国青少年对 ChatGPT 的使用率从13% 增加到26%。在研究中,旧版 ChatGPT-4Turbo 遗漏关键细节的可能性是原版的2.6倍,而新版 ChatGPT-4o 则高达9倍。类似地,Meta 的 LLaMA3.370B 相较于旧版本,其过度概括的概率更是高达36.4倍。

总结大量数据为简洁的几句话是一项复杂的任务。虽然人类可以直观地从具体经验中提取广泛的教训,但这对于编程给聊天机器人而言却极其复杂。研究人员指出,在临床医疗等领域,细节至关重要,哪怕是微小的遗漏也可能导致严重后果。因此,将 LLM 广泛应用于各行各业,尤其是医疗和工程领域,面临着巨大的风险。

尽管如此,研究也提到,提供给 LLM 的提示对其回答结果有显著影响,但这是否会影响其对科学论文的总结仍然未知,这为未来的研究提供了方向。总体来看,除非 AI 开发者能够有效解决新一代 LLM 的这些问题,否则人们可能还得依赖人类撰写的内容来准确总结科学报告。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。https://www.szhzxw.cn/81911.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部