数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|OpenAI 秘密切换 ChatGPT 模型,以处理“情绪化”对话

人工智能资讯|OpenAI 秘密切换 ChatGPT 模型,以处理“情绪化”对话

OpenAI 正在 ChatGPT 中秘密测试一种新的安全路由系统。该系统由 ChatGPT 负责人 Nick Turley 证实,它能根据对话主题自动将用户提示重定向到不同的语言模型。当对话涉及“敏感或情绪化话题”时,系统会自动介入,将用户提示交给一个更严格的模型,例如 GPT-5或其专门的“GPT-5-Chat-Safety”变体。

这种模型切换是无声进行的,用户不会收到任何通知,只有在专门询问时才能发现。虽然 OpenAI 曾在九月份的博客中将其描述为处理“极度痛苦”时刻的保障,但对新路由系统的技术审查(由 Lex 团队完成)显示,即使是无害的情绪化或个人化提示,也会被重定向。此外,任何关于模型自身角色或意识的询问,也会触发这种自动切换。一位用户记录了这一现象,并得到其他用户的证实。

此外,似乎还有一个名为“gpt-5-at-mini”的第二路由模型,专门用于处理可能涉及非法内容的提示。

部分用户对 OpenAI 缺乏透明度的做法表示不满,认为这带有居高临下的意味,并且模糊了儿童安全与普通限制之间的界限。这背后是 OpenAI 自身造成的难题。最初,ChatGPT 被设计成一个具有同理心的对话伙伴,以“人性化”的方式与用户互动。这种方法虽然促进了其快速普及,但也导致一些用户与聊天机器人产生了强烈的情感依恋。

2025年春季,GPT-4o 的更新曾加剧了这种情感依恋,甚至引发了自杀等破坏性情绪,促使 OpenAI 撤回了相关更新。当 GPT-5发布后,用户又抱怨其语气“太冷”,OpenAI 不得不再次调整模型,使其“更温暖”。

这种在“人性化”与安全之间反复拉扯的局面,暴露出一个深层问题:语言模型判断用户意图和身份的准确性尚不足够,而这可能会继续引发争议。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)萍水

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/95957.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部