2026年4月27日,OpenAI 在 Hugging Face 和 GitHub 同步开源了一款全新的隐私保护模型——Privacy Filter。这不是一个云端 API,而是一个能在你笔记本甚至浏览器里本地运行的脱敏工具,Apache 2.0 协议,随意商用。
核心看点
Privacy Filter 采用混合专家(MoE)架构,总参数量 15 亿,但每次推理只激活约 5000 万个参数。这意味着你不需要昂贵的 GPU,普通电脑甚至浏览器就能跑起来。
它能识别 8 类个人敏感信息:姓名、地址、电子邮箱、电话号码、URL 链接、日期、金融账号(银行卡/信用卡号)、以及密码和 API 密钥等机密信息。支持高达 12.8 万 Token 的上下文窗口,一次读取整个文档,一次性完成标注。
在基准测试中,Privacy Filter 的 F1 分数达到了 97.43%,准确率 96.79%,召回率 98.08%,远超传统的规则匹配工具。
为什么 OpenAI 要做这个?
很多人在日常使用中会把包含个人信息的文本直接粘贴到 ChatGPT 或其它 AI 工具里。Privacy Filter 的作用就是在数据离开设备之前,先完成一次隐私过滤——PII 在本地脱敏后,再发送给云端大模型处理。
OpenAI 也坦诚地说了:这不是匿名化工具,不替代合规认证。在法律、医疗、金融等高敏场景中,人工审核仍然是必要的。
但作为团队开发流程中的前置过滤层,它能让隐私保护从「靠自觉」变成「自动化」。
对开发者有什么价值?
– 在本地运行,数据不出设备,隐私风险可控
– 可在训练管线、索引流程、日志处理和审核环节嵌入使用
– 支持微调,用少量数据即可提升在特定领域的准确性
– 支持高精度与高召回率之间的灵活调节
对普通用户来说,这意味着随着更多应用集成 Privacy Filter,粘贴敏感信息到 AI 工具时多了一道防护网。
总结
OpenAI 这次没有卷大模型参数,而是把能力放在了隐私保护这个务实的方向上。15 亿参数的模型能在笔记本上跑,Apache 2.0 开源可商用,这可能是今年最实用的 AI 开源项目之一。
Privacy Filter 已上线 Hugging Face 和 GitHub,搜索 “OpenAI Privacy Filter” 即可找到。
本文地址:https://www.163264.com/11210

