OpenAI发布GPT

OpenAI推出了一款名为GPT-5.4-Cyber的新AI模型,但这款模型目前还不会出现在普通用户的ChatGPT界面中。根据该公司周二发布的博文,OpenAI正在进行限制性发布,仅向经过身份核实的网络安全测试人员开放。这些专业人员将对模型进行全面测试,在其向公众发布之前找出潜在的安全漏洞和可能被滥用的突破口。

OpenAI表示,将利用测试人员的反馈来"深入了解特定模型的差异化优势与风险,提升模型对越狱攻击及其他对抗性攻击的抵御能力,并在降低潜在危害的同时强化防御能力"。

此次模型发布是OpenAI"网络安全可信访问计划"升级版的重要组成部分。该计划允许经过认证的网络安全专业人士和机构提前获取模型,用于防御和安全预防工作。这是一种业内常见的网络安全实践,而AI的广泛应用更使这一做法愈发重要且不可或缺。如今,网络攻击者和防御者都在借助AI工具展开博弈,网络安全领域正逐渐演变为一场AI对抗AI的较量。

在针对特定AI模型的安全保障方面,各大模型开发商普遍认为,最新一代模型的能力已强大到需要施加额外安全管控的程度。这正是Anthropic上周公布"Glasswing项目"背后的逻辑所在。Anthropic的下一代模型Claude Mythos Preview据称能力极为强大,该公司在博文中表示,该模型已在"每一个主流操作系统和网络浏览器中"发现了安全漏洞。

与Anthropic所说的全新模型Claude Mythos Preview不同,OpenAI的GPT-5.4-Cyber是在现有大语言模型GPT-5.4基础上进行微调的版本。该模型经过专项调整,聚焦于网络安全领域,并针对安全任务降低了部分限制。简而言之,与普通版GPT-5.4相比,GPT-5.4-Cyber在执行高风险网络安全相关任务时,拒绝响应的概率更低。这样的设计是为了让专家评估该模型是否可能被恶意行为者利用,以及如何被利用。

此次GPT-5.4-Cyber的发布时机,很可能并非巧合。这是OpenAI与Anthropic之间持续博弈的最新篇章。两家公司全年都在激烈竞争,争相证明自家AI模型最具实力,尤其集中在政府和企业合同的争夺上。Anthropic率先凭借Claude Cowork和Code等工具打响竞争的第一枪,其智能体能力令众多传统科技企业(及其股价)措手不及。OpenAI随即跟进,对旗下Codex编程平台和模型进行了升级改进,并关停了AI视频应用Sora,以便将公司资源集中投入到更核心的方向。

Q&A

Q1:GPT-5.4-Cyber是什么模型?和普通GPT-5.4有什么区别?

A:GPT-5.4-Cyber是OpenAI基于现有大语言模型GPT-5.4微调而来的网络安全专项模型。与普通版本相比,它针对安全任务降低了部分使用限制,在执行高风险网络安全相关操作时拒绝响应的概率更低,主要目的是帮助专业人员评估该模型是否可能被恶意利用。

Q2:为什么普通用户现在无法使用GPT-5.4-Cyber?

A:OpenAI目前采用限制性发布策略,仅向经过身份核实的网络安全专业人员和机构开放GPT-5.4-Cyber。这些测试人员需要在模型公开发布前,找出潜在安全漏洞和可能被滥用的突破口,待测试完善后才会考虑向更广泛的用户群体开放。

Q3:OpenAI的"网络安全可信访问计划"是什么?

A:OpenAI"网络安全可信访问计划"(Trusted Access for Cyber)是一项面向经认证的网络安全专业人士和机构的专项计划,允许参与者提前访问特定AI模型,用于防御研究和安全预防工作。此次GPT-5.4-Cyber的发布正是该计划升级版的重要组成部分,旨在通过专业测试提升模型安全性。

展开阅读全文

更新时间:2026-04-17

标签:科技   模型   网络安全   测试   计划   专业人员   能力   可信   限制性   安全漏洞   专项

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034844号

Top