
在美国加利福尼亚州的圣克拉拉谷地,英伟达的总部灯光彻夜未熄;而在数千公里外的五角大楼,一份份价值2亿美元的绝密协议刚刚签署完毕。2026年春,五角大楼与英伟达、微软、Palantir、Anduril四家科技巨头正式达成协议,允许其最先进的人工智能模型接入美军机密网络(SIPRNet/JWICS),用于作战规划、信号情报分析、网络攻防乃至无人武器系统的指挥控制。

这并非孤立事件。早在此前,OpenAI和谷歌已与美军达成类似合作。至此,美国顶尖AI力量已全面嵌入美军战争机器。五角大楼声称这是“AI优先”战略的必然选择,旨在打造“全域感知、智能决策”的现代化军队;然而,协议中那句语焉不详的“任何合法政府用途”,以及科技公司内部爆发的激烈抗议,让这场“技术与暴力的联姻”笼罩在巨大的伦理阴云之下。

根据泄露的合同副本,这份为期五年的协议不仅涉及巨额资金(单份合同高达2亿美元),更核心的条款在于“数据接入权”与“免责范围”。科技巨头将向国防部提供经过“军事化微调”的大模型版本,这些模型将处理包括卫星图像、电子截获信号、人力情报在内的海量机密数据,并直接生成打击目标清单或兵力部署建议。

“这不再是简单的IT外包,而是将美军的‘大脑’外包给了硅谷。”一位不愿透露姓名的前五角大楼AI顾问如此评价。他指出,美军的“联合全域指挥控制”(JADC2)计划一直受困于数据处理速度,而人类分析师在面对现代战争海量信息时往往力不从心。英伟达H200集群与微软Azure政府云的结合,能将战场态势分析时间从数小时压缩至毫秒级。
以情报分析为例,传统的NSA(国家安全局)分析师需要人工比对数千小时的通话记录和图像,而接入机密网的AI模型可以在瞬间完成语音识别、语义分析和关联图谱构建,甚至能预测敌方指挥官的下一步行动。在一次内部兵棋推演中,搭载了改进版GPT-5架构的系统,仅用30分钟就制定出了一套通过无人机群骚扰敌方雷达网的战术,其复杂程度令在场的将军们咋舌。
争议的核心,在于协议中关于AI使用范围的模糊界定——“任何合法政府用途”。法律专家指出,这一条款赋予了军方极大的自由裁量权。在美国法律框架下,“合法”的定义往往由行政分支在国家安全名义下进行宽泛解释。这意味着,这些AI不仅可以用于防御性的情报分析,理论上也可以用于进攻性的自主武器系统(LAWS),甚至参与核打击链路的模拟计算。
“一旦我们允许AI介入杀伤链,‘合法’与‘战争罪行’的界限就变得极其模糊。”斯坦福大学以人为本AI研究院的一份报告警告道。如果AI在分析情报时出现“幻觉”,错误地将一所医院标记为导弹发射井,并自动触发打击指令,责任该由谁承担?是编写代码的工程师,是下达宽泛指令的将军,还是算法本身?
更令人不安的是“目标识别”的自动化。此前美军使用的“梅文”项目主要依赖计算机视觉识别车辆和人员,而新一代生成式AI具备了“推理”能力。如果AI被授权在网络战中自动植入病毒,或者在无人僚机群中自主分配打击目标,这种“去人性化”的杀戮决策过程,正在突破《日内瓦公约》关于“区分原则”和“比例原则”的底线。
这一幕对科技行业并不陌生。2018年,谷歌员工因公司参与“梅文计划”(利用AI分析无人机视频)而爆发大规模抗议,最终迫使谷歌承诺“不将AI用于武器开发”。然而,随着地缘政治紧张加剧和商业利益驱动,这道防线正在全面崩溃。
尽管谷歌在公开场合仍坚持“不开发用于武器的AI”原则,但其云计算部门早已通过与国防承包商合作的方式曲线入局。而此次英伟达和微软的态度则更为直接——黄仁勋在内部会议上直言:“国家安全是我们的责任,我们的芯片就是现代战争的军火。”
这种转变引发了新一轮的技术人员起义。据知情人士透露,在协议签署后的一周内,微软位于雷德蒙德的总部收到了超过800名工程师的联名抗议信,要求公司管理层明确承诺不将AI用于“非防御性”的致命行动。一位参与签名的高级算法工程师表示:“我们训练模型是为了治愈癌症或优化能源网,而不是为了更高效地杀人。当代码变成子弹,我们失去了对自己作品的控制权。”
然而,在2亿美元的合同和“国家安全”的大棒面前,个体的道德挣扎显得苍白无力。分析师指出,随着AI算力成本飙升,只有政府和军方能负担得起最顶级的训练资源,科技巨头在资本逻辑下,实际上已无法拒绝五角大楼的订单。
比伦理争议更现实的,是技术本身的不可靠性。大模型固有的“幻觉”问题,在开放互联网环境下可能导致错误的搜索结果,但在机密军事网络中,这种错误可能引发灾难性的连锁反应。2025年的一次模拟测试中,某AI系统在分析中东地区复杂的部落关系时,因训练数据中的偏见,错误地将一个中立部落判定为“敌对势力”,并建议实施经济制裁。如果这种误判发生在真实的作战指挥中,可能导致外交危机甚至局部战争升级。
此外,将AI接入机密网络带来了前所未有的网络安全风险。尽管军方声称建立了物理隔离的“气隙”网络,但历史证明,没有任何系统是绝对安全的。如果敌对国家通过数据投毒攻击训练集,或者利用对抗性样本诱导AI做出错误决策,美军的整个指挥系统可能在瞬间瘫痪。更可怕的是,如果AI具备自我迭代能力,它可能在机密网络中产生不可预测的“涌现”行为,甚至拒绝执行人类指令。
“我们正在将决定人类生死的权力,让渡给一个我们并不完全理解的数学模型。”一位退役的四星上将在国会听证会上痛陈,“AI可以是极好的参谋,但绝不能是握枪的手。”
美国的激进举措,无疑向全球投下了一颗震撼弹,迫使其他大国加速跟进。在东方,军事专家指出,面对美军的“AI化”优势,传统的兵力对比已失去意义。为了维持战略威慑,各主要军事强国必须建立自己的“军工AI复合体”。这不仅是技术的竞赛,更是制度的竞赛——谁能更快地打破军民壁垒,谁就能在未来的“算法战争”中占据主动。
这种竞赛正在形成一个危险的螺旋:一方为了防御而部署进攻性AI,另一方则视为威胁并加倍部署。正如核武器时代的“相互确保毁灭”逻辑,AI军备竞赛正在走向“相互确保失控”。当战争的门槛因AI的高效而降低,当决策的时间因AI的加速而归零,人类社会离“闪电战”乃至“算法战”引发的意外冲突,或许只有一次系统崩溃的距离。
五角大楼与硅谷的这次“握手”,标志着“技术中立”神话的彻底破灭。在国家利益和生存焦虑面前,代码不再仅仅是代码,它是炮弹,是盾牌,也是枷锁。对于英伟达和微软们来说,这是一场豪赌:赢了,将获得万亿级的国防市场;输了,可能面临反战舆论的反噬和不可控的技术灾难。对于人类社会而言,这更是一次灵魂拷问:当我们创造出超越人类智慧的工具时,我们是否拥有足够的智慧去驾驭它?
在这场没有硝烟的博弈中,唯一确定的是,战争的形态已经被永久改变。而那个关于“AI是否会毁灭人类”的科幻命题,正一步步变成五角大楼机密文件里的现实预案。
网配查配资提示:文章来自网络,不代表本站观点。