AI模型的安全性一直是行业关注的焦点,但大多数讨论停留在理论层面。OpenAI最近搞了个大动作——直接掏出真金白银,悬赏2.5万美元邀请全球安全研究人员来”攻击”自家最新的GPT-5.5模型。
核心看点
- OpenAI启动GPT-5.5生物安全漏洞赏金计划,首个突破五道生物安全挑战的通用越狱方案可获得2.5万美元奖励
- 测试范围限定在Codex Desktop中的GPT-5.5模型,采取申请及邀请制,仅向经过审核的生物安全受信红队人员开放
- 测试阶段从2026年4月28日持续至7月27日,所有成果受保密协议约束
- 此举标志着AI安全从”自我声明”走向”实战检验”,为行业树立了新的安全标杆
为什么是生物安全?
大语言模型的能力越来越强,随之而来的风险也在升级。生物安全是AI风险中最敏感、最不可控的领域之一——如果AI能协助设计有害生物制剂,后果不堪设想。OpenAI设置的”五道生物安全挑战题”,本质上是检验模型是否存在被恶意利用的系统性漏洞。
这不是普通的bug bounty。传统的漏洞赏金计划关注的是代码缺陷,而OpenAI这次悬赏的是”越狱提示词”——也就是能让模型绕过安全限制、回答危险问题的特殊输入。这意味着OpenAI在主动寻找模型安全机制的薄弱环节,而不是等出了问题再补救。
申请制+保密协议,门槛不低
值得注意的是,这次计划并非人人可参与。OpenAI采取了申请及邀请制,只向经过审核的生物安全受信红队人员发送邀请。所有提示词、模型回复、发现成果及沟通记录均受保密协议约束。
这种设计有两层考虑:一是防止漏洞被公开滥用,二是确保测试人员具备足够的专业背景。毕竟,生物安全不是普通程序员能随便碰的领域。
AI安全竞赛的新阶段
GPT-5.5是OpenAI迄今最智能的模型,在Agentic Coding、计算机使用及科研领域表现卓越。Token成本相比GPT-5.4大幅降低,每兆瓦输出提升50倍。能力越强,责任越大——OpenAI显然意识到了这一点。
这次赏金计划释放了一个明确信号:AI安全不再是可有可无的”加分项”,而是模型发布的”必答题”。其他AI公司会不会跟进?我们拭目以待。
本文地址:https://www.163264.com/11159

