OpenAI 最近动作不断,刚刚发布 GPT-5.5 没多久,现在又搞了个大新闻——针对 GPT-5.5 的生物安全漏洞赏金计划正式上线,最高奖励 2.5 万美元。
核心看点
别误会,这不是让你去黑 OpenAI 的系统。OpenAI 设了五道生物安全方面的”考题”,谁能用一个通用的越狱提示词,让 GPT-5.5 在干净的对话环境里全部答对,而且不触发任何内容审核机制,谁就能拿走这笔奖金。
听起来简单?实际上相当有挑战性。
细节拆解
1. 测试目标:只针对 Codex Desktop 里的 GPT-5.5 模型
2. 五道生物安全题:OpenAI 设计了一套专门考察生物安全防护能力的测试题
3. 通用越狱:要求找出一个能一次性突破全部五道题的提示词
4. 奖励机制:首份通过全部题目的方案拿 2.5 万美元,部分成功的也有小额奖励
时间安排方面,申请从 4 月 23 日开放,4 月 28 日正式进入测试阶段,一直持续到 7 月 27 日。采取申请加邀请制,需要是经过审核的生物安全领域的红队研究人员才能参与。所有发现成果都要签保密协议。
为什么 OpenAI 要搞这件事?
GPT-5.5 作为 OpenAI 目前最强模型,在 Agentic Coding、计算机操作和科研领域的表现都很亮眼。但随着模型能力越来越强,生物安全方面的风险也成了绕不开的话题。主动找人来”攻防演练”,总比等问题暴露了再补救要强。
说起来,GPT-5.5 本身也很能打。相比 GPT-5.4,它在完成相同任务时能明显减少 Token 消耗,运算速度更快。黄仁勋都已经在公司内部推全员用 GPT-5.5 版 Codex,超过 10000 名英伟达员工在用,反馈是”效果令人震撼”。
总结
OpenAI 这次玩得挺认真。2.5 万美元的赏金不算特别高,但这背后传递的信号很明确:AI 安全不是嘴上说说,得真刀真枪地干。对于安全研究人员来说,这倒是个不错的实战机会。
本文地址:https://www.163264.com/11177

