3 月 8 日,OpenAI 硬件与机器人工程负责人 Caitlin Kalinowski 在社交媒体上发布了一条震惊科技圈的辞职声明。她表示,做出这个决定 “并非易事”,但 “对美国人进行无司法监督的监控,以及无需人类授权的致命自主(武器 / 系统),这些是本应得到更多审慎考量的红线,而实际却没有”。


这番话直指 OpenAI 在 2 月底与美国国防部(五角大楼)签署的那份价值 2 亿美元的合作协议。根据协议,OpenAI 将把其先进的 AI 模型部署到军方的机密云网络中,用于网络防御、威胁检测和作战分析等任务。
Kalinowski 强调,这是 “原则问题,而非针对个人”,她对 CEO Sam Altman 和整个团队依然怀有 “深深的敬意”。但她无法接受的是,公司在 “安全护栏” 尚未明确定义的情况下,就仓促推进了这项敏感合作。
这场风波的导火索,要从 OpenAI 的竞争对手 Anthropic 说起。
在 OpenAI 之前,Anthropic 是五角大楼的首选合作方。然而,在谈判中,Anthropic 坚决守住了两条伦理红线:
这一立场激怒了美国政府。2 月 27 日,特朗普政府直接将 Anthropic 列为 “国家安全供应链风险”,下令所有联邦机构在 6 个月内全面停用其产品,并取消了价值 2 亿美元的合同。
就在同一天,OpenAI 迅速宣布与五角大楼达成合作,填补了这一空白。这一举动被外界解读为 “趁虚而入”,也让 Kalinowski 等内部人士深感不安。
OpenAI 的选择,引发了用户的强烈反弹。社交媒体上,#QuitGPT(取消 ChatGPT)的话题迅速发酵,大量用户宣布卸载或取消订阅 ChatGPT,转而使用坚守伦理底线的 Anthropic 的 Claude。
据数据显示,在事件发酵的几天内,ChatGPT 的卸载量暴涨 295%,而 Claude 的下载量则暴增 81%,一度登顶美国 App Store 应用下载榜榜首。Anthropic 更是不失时机地推出了 “记忆迁移” 功能,让用户可以轻松地将在 ChatGPT 中的使用习惯和偏好无缝迁移到 Claude,进一步降低了用户的转换成本。
面对汹涌的舆论,Sam Altman 不得不公开致歉,承认协议的宣布 “确实仓促,观感不佳”,并承诺修改合同,明确禁止将 AI 用于对美国公民的国内监控,同时强调部署仅在云端进行,不会集成到无人机等边缘设备中。
Kalinowski 的辞职,将 AI 军事化的伦理争议推向了高潮。人们不禁要问:
这场风波,远不止是两家公司的商业竞争,而是一场关乎人类未来的伦理大考。当 AI 的力量越来越强大,我们更需要清醒地认识到:技术本身没有善恶,但使用技术的人,必须守住底线。
更新时间:2026-03-09
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034844号