GPT-5.4-Cyber:下一代网络防御的信任访问机制

1
分类业界资讯
作者OpenAI
来源跳转
发表时间

内容

我们正在将网络安全可信访问(TAC)计划扩展至数千名经过验证的个体安全专家,以及数百个负责保护关键软件安全的团队。多年来,我们始终以民主化访问迭代部署生态系统韧性三大原则构建网络安全项目。为应对未来数月OpenAI模型能力持续提升的挑战,我们正针对防御性网络安全应用场景对模型进行微调——今日起正式推出专为网络安全优化的GPT-5.4变体:GPT-5.4-Cyber。本文将阐述我们如何通过同步提升模型能力与防御能力的策略,指导未来版本的测试与部署。

人工智能的渐进式应用显著提升了网络安全卫士的工作效率——这些守护系统、数据与用户安全的专家能够更快地在全民依赖的数字基础设施中发现并修复问题。与此同时,攻击者也在利用AI技术实施恶意行为。对此我们早有准备:自2023年起,我们通过网络安全资助计划支持安全卫士,并通过准备度框架强化防护体系。同年我们开始评估模型的网络安全能力,并于2025年将专门的网络安全防护措施纳入模型部署流程。今年早些时候,我们通过发布Codex Security进一步强化对安全卫士的支持,实现大规模漏洞识别与修复。我们的持续能力建设遵循以下三大原则:

  • 民主化访问:我们的目标是在防止滥用的前提下,让这些工具尽可能广泛可用。我们设计避免任意决定谁能合法使用、谁不能使用的机制,而是采用清晰客观的标准与方法(如严格的KYC身份验证),逐步实现更先进能力的准入自动化。最终目标是让各类合法使用者——包括保护关键基础设施、公共服务及日常数字系统的机构——都能获得先进的防御能力。
  • 迭代部署:我们通过谨慎地将系统投入实践并持续改进来获取最宝贵的经验。随着对模型能力与风险理解的深入,我们相应更新模型与安全系统。这包括区分不同模型的具体效益与风险、提升对越狱攻击等对抗性攻击的抵御能力,同时增强防御功能并降低危害。
  • 投资生态系统韧性:我们通过可信访问通道、定向资助计划、参与开源安全倡议(新窗口打开),以及Codex Security等技术,支持并加速整个安全卫士社区的发展,帮助他们更高效地发现与修补漏洞。

网络安全韧性与防御加速战略

多年来,我们的网络安全战略聚焦于三项核心:投入研究、防范滥用、加速安全卫士工作效能。随着模型能力提升,我们不断扩大相关项目规模,其基础信念如下:

  • 网络风险已然存在且持续加剧,但我们仍可采取行动。数字基础设施早在高级AI出现前就已长期面临脆弱性威胁。如今现有模型已能协助发现漏洞、跨代码库推理,并支持网络安全工作流程的关键环节;而威胁行为者也在试验新型AI驱动的攻击手段。我们观察到,通过增加测试时计算资源,现有模型可激发出越来越强的能力。这意味着安全防护不能等待某个单一的未来阈值。

  • 根据使用主体与使用方式扩展访问权限。网络安全能力本质上是双重用途的,因此风险不仅取决于模型本身,还与使用者身份、信任信号及授予的访问级别密切相关。在加强防护的前提下,通用模型的广泛访问可与高风险功能的精细化管控并存,后者需辅以更强的身份验证、更清晰的意图信号及更完善的用况可见性。

  • 为实现规模化负责任使用,我们需要能更自动化、更客观地验证可信用户与用况的系统。这使得我们能够基于信任证据与真实信号而非人工决策来扩展访问权限。我们认为由中心机构单方面决定谁能自卫并不现实或不恰当。相反,我们致力于让更多合法安全卫士获得基于验证、信任信号与问责机制的访问权限。

  • 防御能力应与模型能力同步增长。随着模型能力提升,防御体系也需同步升级。我们在代理式编程方面的持续进步已对网络安全产生直接影响,并促使我们相应调整策略。我们从GPT-5.2开始进行网络安全专项训练,随后通过GPT-5.3-Codex和GPT-5.4进一步增强防护措施,并将该模型归类为"高"网络安全能力等级(依据我们的准备度框架)。与此同时,我们加大对安全卫士的支持力度:启动1000万美元网络安全资助计划,通过Codex for Open Source(新窗口打开)为超1000个开源项目提供免费安全扫描服务,并持续优化Codex Security。

  • Codex Security于六个月前发布私有测试版,今年早些时候开放研究预览。该系统自动监控代码库、验证问题并提出修复方案。随着模型性能提升,系统的精确性与实用性也随之增强。自近期正式发布以来,Codex Security已协助修复了超过3000个高危与严重级别的安全漏洞,并在整个生态系统中发现并修复了更多中低风险问题。

  • 在这些版本迭代中,我们还优化了模型处理敏感请求的方式,在扩大可信访问的同时校准拒绝边界(refusal boundaries),并通过TAC等项目实现更精细的访问控制。

  • 软件开发过程本身必须更加安全。最强的生态系统应能在代码编写过程中持续识别、验证并修复安全问题。通过将先进的编码模型和代理能力集成到开发者工作流中,我们可为开发者在构建过程中提供即时可行的反馈,从而将安全从偶发的审计检查与静态漏洞清单转变为持续性的实质性风险控制。

扩展网络安全可信访问与GPT-5.4-Cyber

我们希望通过对前沿能力的广泛访问,特别是为网络安全定制的能力,赋能安全卫士。二月份我们推出了网络安全可信访问(TAC)计划,既包含面向个人的自动化身份验证以减少安全措施对网络安全工作的干扰,也与有限数量的组织合作提供更宽松的网络安全模型。

今天我们将进一步扩展该计划,为愿意与OpenAI合作验证自身网络安全卫士身份的用户增设额外访问层级。最高层级的客户将获得GPT-5.4-Cyber的访问权限——这是专门针对网络安全能力进行微调的版本,限制更少。这是GPT-5.4的一个变体,它降低了合法网络安全工作的拒绝边界,并为高级防御工作流启用新功能,包括二进制逆向工程能力,使安全专业人员无需源代码即可分析编译软件的恶意软件潜力、漏洞及安全强度。

由于该模型更为宽松,我们将从经过筛选的安全厂商、组织和研究人员开始,采用有限的迭代部署方式。访问宽松且具备网络安全能力的模型可能附带限制,特别是在零数据保留(ZDR,新窗口打开)等无可见性要求的场景下。这在第三方平台访问我们模型的开发者和组织中尤为明显,因为OpenAI对这些用户的身份、环境或请求目的的直接可见性较低。

获取TAC访问权限十分便捷:

所有通过此流程批准的客户都将获得现有模型的简化版本,减少可能对双重用途网络安全活动触发防护措施的摩擦,使他们能继续支持安全教育、防御性编程和负责任的漏洞研究。已加入TAC且愿意进一步验证自身合法网络安全卫士身份的客户可表达兴趣(新窗口打开),申请更高层级的访问权限,包括请求访问GPT-5.4-Cyber。

展望即将到来的模型发布及未来

我们的网络安全防御体系是数月迭代改进的成果。我们相信当前采用的安全防护类别已足够降低网络安全风险,支持现有模型的广泛部署。我们预期这些防护措施对即将推出的更强模型仍属充分,但对于专门为网络安全工作训练并放宽限制的模型,则需要更严格的部署控制与适当的监管措施。

从长远来看,为确保AI网络安全防护的持续有效性,我们预计未来模型需要更广泛的防御体系,其能力将迅速超越当今任何专用模型。

评论

(0)
未配置登录方式
暂无评论