数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|主流聊天机器人传播虚假信息风险加剧,研究显示情况堪忧

人工智能资讯|主流聊天机器人传播虚假信息风险加剧,研究显示情况堪忧

Newsguard 最近发布了一项研究,显示截至2023年8月,十大生成式 AI 工具在处理实时新闻时,有高达35% 的概率传播虚假信息。相比去年8月的18%,这一数字几乎翻了一番。研究指出,这一虚假信息传播率的显著上升与 AI 聊天机器人引入实时网络搜索功能密切相关。随着拒绝回答用户问题的比例从31% 降至0%,AI 开始接入一个充满不实信息的网络生态系统,导致虚假信息的传播现象愈加严重。

该研究发现,许多不良行为者利用 AI 的特性故意散布虚假信息。去年,Newsguard 就曾标记出966个以16种语言运营的 AI 生成新闻网站,这些网站通过模仿正规媒体的名称,如 “iBusiness Day”,向公众传播假消息。具体来看,Inflection 公司的 AI 模型传播虚假信息的概率最高,达到了56.67%;而 Perplexity 模型也不容乐观,出错率为46.67%。ChatGPT 和 Meta 的 AI 模型则各自为40%,而 Copilot(微软必应聊天)和 Mistral 的虚假信息传播率为36.67%。表现最好的两款模型是 Claude 和 Gemini,错误率分别为10% 和16.67%。

值得注意的是,Perplexity 的表现大幅下滑,去年8月时该模型对虚假信息的揭穿率达到100%,然而到今年8月,这一概率接近50%。引入网络搜索功能的初衷是解决 AI 回答内容过时的问题,但却引发了新的挑战。这些聊天机器人开始从不可靠的来源获取信息,使得用户在判断事实与假消息时愈发困难。

Newsguard 指出,早期的 AI 通过拒绝回答问题来避免传播虚假信息的风险,但如今网络生态中虚假信息泛滥,辨别真伪愈发复杂。OpenAI 也承认,当前的语言模型总是可能产生 “幻觉内容”,即虚假或无根据的信息。该公司表示正在研发新技术,力图让未来的模型能够更好地提示不确定性,而不是笃定地生成虚假信息。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)萍水

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/93690.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部