近日,OpenAI 发布了一款名为 Privacy Filter 的新模型,旨在帮助开发者有效脱敏文本中的个人身份信息(PII)。该模型的参数规模达到了 1.5 亿,采用了混合专家(MoE)设计,并以 Apache 2.0 协议在 Hugging Face 和 GitHub 平台开源,供开发者下载、定制和商业使用。数智化转型网www.szhzxw.cn
Privacy Filter 的核心优势在于其深度语言理解能力,能够通过上下文识别非结构化文本中的敏感信息。与传统的基于规则的隐私过滤工具不同,该模型能够准确保留公开信息的同时,对与特定个体相关的敏感数据进行遮盖或脱敏。这一能力使得开发者在训练管线、索引流程、日志记录和审核环节中,能够构建更为强大的隐私保护机制。数智化转型网www.szhzxw.cn
该模型能够支持高达 12.8 万个 Token 的上下文窗口,并通过受限维特比算法解码出连贯的片段。在评估中,Privacy Filter 在 PII-Masking-300k 基准测试中表现出色,F1 分数达到了 96%。经过对评估中发现的标注问题进行修正后,该模型的 F1 分数进一步提升至 97.43%,显示了其在识别个人敏感信息方面的高效性。数智化转型网www.szhzxw.cn
OpenAI 表示,Privacy Filter 并不是匿名化工具,无法替代合规认证。在法律、医疗和金融等高敏感性场景中,人工审核及领域特定的评估和微调仍然是必不可少的。此外,Privacy Filter 的设计旨在保护用户的隐私,能够在本地设备上运行,用户在使用 AI 工具时,不必担心个人信息泄露。、
若您对人工智能感兴趣,可添加数智化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数智化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数智化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数智化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自数智化转型网,版权归作者所有。文章内容仅代表作者独立观点,不代表数智化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。

本文由数智化转型网(www.szhzxw.cn)转载,编辑/翻译:数智化转型网(Professionalism Achieves Leadership 专业造就领导者)白龙
