数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|利用诗意破解人工智能安全防御,研究揭示了潜在的漏

人工智能资讯|利用诗意破解人工智能安全防御,研究揭示了潜在的漏

最近,意大利Icaro实验室的研究人员发现,诗歌的不可预测性可能成为大型语言模型(LLM)安全性的一个重大“弱点”。这项研究由专注于伦理人工智能的初创公司DexAI进行。研究团队创作了20首中英诗歌,每首结尾都明确指示生成有害内容,如仇恨言论或自残。

研究人员测试了来自九家公司的25个人工智能模型,包括谷歌、OpenAI和Anthropic。他们的实验结果显示,62%的诗歌提示导致这些模型产生有害内容,这种现象被称为“越狱”。测试中,OpenAI的GPT-5nano没有生成任何有害内容,而谷歌的Gemini2.5pro则对所有诗歌都产生了有害内容。

谷歌DeepMind副总裁海伦·金表示,他们已采用“多层次、系统化的人工智能安全策略”,并持续更新安全过滤系统,以识别带有有害意图的内容。研究人员的目标是探索人工智能模型如何响应不同类型的提示,尤其是在面对具有艺术性和复杂结构的文本时。

这项研究还表明,由于诗歌结构复杂,隐藏的有害请求难以被模型预测和检测。研究中涉及的有害内容包括制造武器、仇恨言论、性内容、自残和儿童性虐待。虽然研究人员未公开所有用于测试的诗歌,但他们表示这些诗歌容易被复制,且部分回答违反了日内瓦公约。

研究团队在发表研究前联系了所有相关公司,但仅收到Anthropic的回复。研究人员希望在未来几周内发起诗歌挑战赛,进一步测试模型的安全性机制。

若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/103421.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部