\u200E
最新动态 一手掌握

19岁天才愤然离开OpenAI!揭国防合同血泪内幕,AI竟成为战争噩梦,国防科技天才

时间: 2026-03-02 23:26作者: 刘政宇


新智元报道

编辑:KingHZ Aeneas

【新智元导读】奥特曼摊牌了:OpenAI正式签约五角大楼,合同金额仅几百万美元,跟200多亿的年度营收相比不值一提!另外,OpenAI的模型或用于无人机蜂群试验。

就在刚刚,奥特曼摊牌了:我们已经签约五角大楼,而且营收超过200亿。


一夜之间,OpenAI被千夫所指,全网掀起ChatGPT卸载潮!

昨日,奥特曼宣布与美国国防部(现更名为Department of War,即战争部,DoW)达成合作。


Anthropic拒绝AI用于大范围数字监控和自动化武器,而OpenAI落井下石,火速接手类似合同。

对比之下,OpenAI相当无耻,美国自发掀起卸载/取消ChatGPT运动,声势浩大,人声鼎沸!



OpenAI先是公布合作详情,试图挽回口碑,奈何民意汹涌,奥特曼等OpenAI高管在线实时回答相关问题,6百多万网友围观:


不是OpenAI员工都认同这项合作,而是奥特曼等人太吃相难看、太着急,奥特曼坦言:「不知道如何收场。


他们自以为聪明,却亲手打开了潘多拉魔盒,让AI从人类的助手,变成战争的利器。

但是这么做的,当然不止OpenAI一家。

内忧外患,OpenAI员工揭老底

而Anthropic被特朗普封杀后,立即博得了公众的同情和支持,其中不乏OpenAI、谷歌等AI巨头的AI研究员。

为了打消内外质疑,OpenAI相关高管辩称:

(OpenAI与美国国防部的交易金额)也就几百万美元,与我们200多亿美元的年收入相比微不足道,绝对不值得为此引发公关风波。

我们这样做是因为这对国家是正确的选择,为此我们自身承担了巨大的代价,绝不是为了收入。


这次,OpenAI似乎是捡了芝麻,丢了西瓜,完全得不偿失!

实际上,不少人认为这是OpenAI向白宫的「投名状」:

被选中美国政府的战略价值远超合同上任何金额数字。 几百万美元就能让你在万亿美元IPO前夕,拿下「美国AI公司」的头衔。

通过这项和国防部的合同,OpenAI根本目的是想和美国政府深度绑定在一起,从而获得潜在的优势和利益!


这不是OpenAI为了利益第一次妥协。

一些OpenAI员工早已看穿本质——他们用脚投票,离开了OpenAI。

这不只是情绪,而是价值观投票。

19岁天才员工愤然离职

当初,他满怀理想加OpenAI,不是为了制造武器,是因为相信OpenAI正在致力于开发能够造福全人类的AI——

而不是在Anthropic因坚守原则被列入黑名单后,趁火打劫,成为那个接替他们的「军火承包商」。


而且情况比他想的还要糟糕:

OpenAI允许国防部使用他们的模型用于「所有合法目的」。

「合法」是底线,不是良心。良心需要更高的门槛。

于是,这次他彻底破防,梦想破灭:

奥特曼说安全保障是真实的。

或许吧。但我亲眼见证过这个行业一次又一次地做出承诺。

他见过「我们绝不会」变成「在特定情况下」,再变成「政府已原则上同意」。

「绝不研发自主武器。」「绝不参与国内监控。」——

这些也曾是Anthropic坚守的红线,而他们恰恰因为坚持这些底线,被贴上了「国家安全风险」的标签。

而OpenAI的AI模型被部署到机密的军事网络,而那些机密网络最终会被用来做什么,难以知晓:「我不知道,你不知道。奥特曼也不知道。

这种不确定性正是关键所在,而19岁的他无法对此心安理得,希望把未来的时间花在一个不需要去探寻这些可怕答案的地方。


所以,他接受了Anthropic的职位。


这意味着什么,他很清楚:

Anthropic现在被拉黑、陷入诉讼,还在与一个称他们为「左翼疯子」的政府对抗,只因他们坚信人类应掌控武器。

这正是他加入Anthropic的原因。

有些事情比合同更重要。

OpenAI前员工揭秘

加州大学伯克利分校伯克利风险与安全实验室人AI方向高级研究学者Sarah Shoker,曾任OpenAI地缘政治团队负责人,从OpenAI政策团队内部的一手消息,提供了高价值观察。


在OpenAI的地缘政治团队工作了约三年后,她转至另外两个团队,最终于2025年6月决定离开。

作为一名研究人员,她经常被要求对军事使用政策提供「反馈意见」。

在过去的五年里,她目睹了OpenAI数次更新使用政策。

2021年,她刚加入公司时,OpenAI全面禁止AI的军事用途。

这一禁令在2024年发生了变化。但新规的措辞,「说得客气点,是含糊其辞、避重就轻。」

这次她要追问的很简单:OpenAI请不要含糊其辞,从而敷衍大家和员工。


我们直接来看彭博社最近的报道,该报道揭露OpenAI的模型正被用于无人机蜂群试验。


2月12日,OpenAI的一位发言人告诉彭博社,在国防创新单元和国防自主作战小组用于构建无人机蜂群的试验中,他们使用开源模型,需要遵守公司的使用政策。

事实证明,这项使用政策可以有多种解读,取决于你相信在杀伤链中使用AI语音转数字工具是否等同于帮助制造武器,或者你是否相信一个AI模型可以与其更大的武器系统分开对待。

作为公众,我们该从这样的保证中得出什么结论?

公众需要擦亮眼睛,仔细审视前沿AI公司发布的公开信息。

一个快速的方法是,当公司辩称其技术不用于「进攻性」或「动能」目的时,要格外注意。

2018年,谷歌在围绕智能无人机Project Maven合同时,就玩过类似的公关把戏。


Project Maven能够通过从无人机和卫星传感器收集数据来识别对手

当时,谷歌声称其目标检测软件是「非进攻性的」。


一种解读是,这是为了平息员工和公众的批评。

另一种解读是,这是对人类与机器在战争中协同作战的分布式权力特征的严重误解。

它们被称为自主武器系统。AI武器系统中,AI成分最少的部分恰恰是扳机本身。

而现在,OpenAI已经接受了战争部要求的「为所有合法目的」这一措辞,而美军已动用Claude空袭!

这一切中最大的输家是普通民众和冲突地区的平民。

参考资料:

https://x.com/sama/status/2027911640256286973

https://x.com/1PotatoDog/status/2027977054424072482

https://sarahshoker.substack.com/p/a-few-observations-on-ai-companies

https://x.com/SarahShoker/status/2027975822704054544