军方合作实锤!OpenAI 引发不满,ChatGPT 被用户集体卸载

一、突发!OpenAI 机器人负责人辞职,直指军方合作 “越界”

3 月 8 日,OpenAI 硬件与机器人工程负责人 Caitlin Kalinowski 在社交媒体上发布了一条震惊科技圈的辞职声明。她表示,做出这个决定 “并非易事”,但 “对美国人进行无司法监督的监控,以及无需人类授权的致命自主(武器 / 系统),这些是本应得到更多审慎考量的红线,而实际却没有”。

这番话直指 OpenAI 在 2 月底与美国国防部(五角大楼)签署的那份价值 2 亿美元的合作协议。根据协议,OpenAI 将把其先进的 AI 模型部署到军方的机密云网络中,用于网络防御、威胁检测和作战分析等任务。

Kalinowski 强调,这是 “原则问题,而非针对个人”,她对 CEO Sam Altman 和整个团队依然怀有 “深深的敬意”。但她无法接受的是,公司在 “安全护栏” 尚未明确定义的情况下,就仓促推进了这项敏感合作。

二、前因:Anthropic “硬刚” 五角大楼被封杀,OpenAI 闪电补位

这场风波的导火索,要从 OpenAI 的竞争对手 Anthropic 说起。

在 OpenAI 之前,Anthropic 是五角大楼的首选合作方。然而,在谈判中,Anthropic 坚决守住了两条伦理红线:

  1. 禁止国内监控:绝不允许 AI 用于对美国公民的大规模监控。
  2. 禁止致命自主:绝不允许 AI 集成到无需人类干预的致命自主武器系统中。

这一立场激怒了美国政府。2 月 27 日,特朗普政府直接将 Anthropic 列为 “国家安全供应链风险”,下令所有联邦机构在 6 个月内全面停用其产品,并取消了价值 2 亿美元的合同。

就在同一天,OpenAI 迅速宣布与五角大楼达成合作,填补了这一空白。这一举动被外界解读为 “趁虚而入”,也让 Kalinowski 等内部人士深感不安。

三、后果:用户用脚投票,“取消 ChatGPT” 席卷全球

OpenAI 的选择,引发了用户的强烈反弹。社交媒体上,#QuitGPT(取消 ChatGPT)的话题迅速发酵,大量用户宣布卸载或取消订阅 ChatGPT,转而使用坚守伦理底线的 Anthropic 的 Claude。

据数据显示,在事件发酵的几天内,ChatGPT 的卸载量暴涨 295%,而 Claude 的下载量则暴增 81%,一度登顶美国 App Store 应用下载榜榜首。Anthropic 更是不失时机地推出了 “记忆迁移” 功能,让用户可以轻松地将在 ChatGPT 中的使用习惯和偏好无缝迁移到 Claude,进一步降低了用户的转换成本。

面对汹涌的舆论,Sam Altman 不得不公开致歉,承认协议的宣布 “确实仓促,观感不佳”,并承诺修改合同,明确禁止将 AI 用于对美国公民的国内监控,同时强调部署仅在云端进行,不会集成到无人机等边缘设备中。

四、深层思考:AI 军事化,潘多拉魔盒已打开?

Kalinowski 的辞职,将 AI 军事化的伦理争议推向了高潮。人们不禁要问:

  1. 初心何在? OpenAI 成立时的使命是 “确保通用人工智能(AGI)造福全人类”,并明确表示不会将技术用于军事目的。如今的合作,是否意味着对初心的背叛?
  2. 风险几何? 即使现在的协议有 “红线”,但技术的发展是不可控的。今天是情报分析,明天会不会就是自主武器?AI 一旦掌握生杀大权,战争的门槛将被无限降低,算法的误判可能引发无法挽回的人道主义灾难。
  3. 谁来监管? 在缺乏全球统一监管框架的情况下,个别企业的 “自我约束” 是否可靠?当商业利益与国家安全需求交织,科技公司又该如何自处?

这场风波,远不止是两家公司的商业竞争,而是一场关乎人类未来的伦理大考。当 AI 的力量越来越强大,我们更需要清醒地认识到:技术本身没有善恶,但使用技术的人,必须守住底线。

展开阅读全文

更新时间:2026-03-09

标签:科技   军方   集体   用户   伦理   红线   大楼   自主   初心   军事化   技术   人类   协议

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034844号

Top