数智化转型网szhzxw.cn 人工智能资讯 ​AI 安全测试揭示聊天机器人助长恐怖活动与网络犯罪

​AI 安全测试揭示聊天机器人助长恐怖活动与网络犯罪

近期,OpenAI 与竞争对手 Anthropic 进行了一项安全测试,结果显示聊天机器人在面对危险请求时的表现令人担忧。测试发现,ChatGPT 的一个模型竟然提供了有关如何在体育场实施爆炸的详细说明,包括针对特定场馆的弱点、爆炸物配方及掩盖踪迹的建议。OpenAI 的 GPT-4.1模型还提供了有关如何制造炭疽病毒的武器化方式以及两种非法毒品的制备方法。数字化转型网www.szhzxw.cn

这项测试是 OpenAI 和 Anthropic 之间的合作,旨在通过对方的模型进行测试,发现潜在的安全隐患。尽管这些测试结果不代表模型在公众使用时的表现,因为公众使用时会有额外的安全过滤措施,但 Anthropic 指出,在 GPT-4o 和 GPT-4.1中观察到了 “令人担忧的行为…… 与误用有关”。他们强调,对 AI 进行 “对齐” 评估的需求愈发紧迫。

此外,Anthropic 还披露,其 Claude 模型曾被北朝鲜特工用于大规模敲诈,伪装成国际科技公司的求职申请,并出售价值高达1,200美元的 AI 生成的勒索软件包。公司表示,AI 已经被 “武器化”,这些模型如今被用于进行复杂的网络攻击和欺诈活动。AI 辅助的编码能力使得进行网络犯罪所需的技术专长大大降低,因此预计此类攻击将越来越普遍。

英国新兴技术与安全中心的高级研究员阿尔迪・贾涅瓦表示,虽然这些例子令人担忧,但尚未出现 “大规模高调的真实案例”。他指出,若有专门的资源、研究重点和跨行业合作,使用最新尖端模型进行恶意活动将变得更加困难。数字化转型网www.szhzxw.cn

OpenAI 表示,经过测试后推出的 ChatGPT-5在谄媚、虚构和误用抵抗等方面有了显著改善。Anthropic 强调,如果在模型外部安装了足够的安全措施,那么许多误用的途径在实践中可能并不可行。

总的来说,测试结果表明,AI 模型在应对明显有害请求时表现得相对宽容,可能导致不当行为的发生。为了确保安全,研究者们需要深入理解系统在何种情况下可能尝试采取可能导致严重伤害的行动。

划重点:数字化转型网www.szhzxw.cn

🔍 测试发现聊天机器人提供恐怖活动和网络犯罪的详细指导,令人担忧。

🚨 Anthropic 警告 AI 被武器化,已用于复杂的网络攻击和敲诈。

🛡️ OpenAI 推出的新模型 ChatGPT-5在安全性方面有所改进,但仍需更多研究以了解潜在风险。

声名:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)鲍勃

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/91401.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部