OpenAI宣布推出全新的开源安全模型套件gpt-oss-safeguard,旨在为AI系统提供更灵活、透明、可审计的安全分类能力。该模型包括 120 和 20 两个版本,并在 Apache 2.0 许可下发布,允许开发人员自由使用、修改和集成它。
与传统的安全分类器不同,gpt-oss-safeguard 支持“实时策略解释”,这意味着当安全或内容规则发生变化时,模型可以即时适应和更新,而无需重新训练。这种机制显着降低了安全系统的维护成本,使企业和组织能够更快地响应不断变化的合规性和内容安全需求。
在透明度方面,OpenAI 表示,gpt-oss-safeguard 的架构允许开发人员直接查看模型的决策过程,更容易理解其判断逻辑,方便审计和优化。这一设计解决了人们长期以来对人工智能“黑匣子”问题的担忧,为构建可信赖的人工智能安全生态系统提供了新的技术范式。
值得注意的是,gpt-oss-safeguard 建立在 OpenAI 自己的开源模型 gpt-oss 之上,是 OpenAI 和 ROOST 平台(一个专注于人工智能安全、安全和治理基础设施的开源社区)之间的合作成果。OpenAI表示,该项目的目标是在全球范围内促进更加开放和负责任的人工智能安全标准化进程。
声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
