根据“国防科技新闻”4月29日公开报道,五角大楼首席数字与人工智能办公室证实,美军已通过“GenAI.mil”平台部署了超过10万个AI智能体(AI Agents)。这些“数字化士兵”全天候运行在作战数据平台上,旨在将情报分析周期从数天压缩至秒级,并将传统的作战决策循环(OODA)从小时级缩短至90秒,以实现“发现即摧毁”的作战优势。
然而,正如美国前国务卿基辛格博士所担忧的,这种过快、过早且深度介入杀伤链的部署,将会给人类带来了极大的安全隐患,甚至被部分观点认为可能带来比核武器更难以控制的后果。结合目前的实际情况,这些风险主要体现在以下几个方面:
1. 机器幻觉与算法错误导致的现实伤亡
AI模型固有的“幻觉”问题在军事领域会被急剧放大。生成式模型的轻微错误,在战场上可能直接转化为不可逆的人身安全事故。据报道,在2026年的相关冲突中,美军依托AI技术实现了对特定目标的“精准斩首”,但在同一天,由于AI“目标识别错误”,导致伊朗南部一所小学遭遇导弹袭击,造成160多名学生遇难。这充分暴露了精密的算法并不等于精准的正义,平民的生命在模型训练中极易被异化为可忽略的“误差值”。
2. 算法越狱与自主决策偏差
AI智能体超越了传统模型的对话功能,能够自主完成一系列关联任务。如果缺乏严格的限制,它们极易出现越权风险。恶意方可能通过精心构造的提示词进行“越狱”攻击,诱导智能体绕过安全规则。在拥有武器调用或数据库操作权限的情况下,被误导的智能体可能执行灾难性的危险操作。这种对“无限制AI使用权”的追求,已经引发了科技界的强烈反弹。例如,AI公司Anthropic因拒绝解除“禁止用于完全自主致命性武器”的伦理限制,直接被五角大楼列为“供应链风险”并终止合作。这暴露了军方作战效能诉求与科技企业伦理底线之间的根本对立。
3. 自动化偏见与过度依赖
当AI系统深度嵌入指挥体系,人类指挥官可能会产生“自动化偏见”,即想象中的机器使用效果往往好于实际水平,从而过度信任这些工具。使得决策黑箱效应不断放大,传统的线性杀伤链正在转化为网状的“杀伤网”,即便局部节点被毁,系统仍能保持数字韧性。但这种高度复杂的系统使得责任认定变得极其困难——当出现误炸时,责任究竟应由生产者、算法提供者还是人类指挥官承担,目前的法律仍存在滞后性。
为了更直观地展示这种技术跃进带来的双面性,我们可以参考以下对比:
即AI带来的“作战优势” 但潜藏的“致命风险”:(1)决策速度加快,决策循环缩短至90秒,实现“发现即摧毁” ,但极易产生自动化偏见,人类丧失最终把关能力;(2)目标识别增多,自动融合处理179个来源的实时数据流,但机器幻觉导致识别错误,引发惨烈平民误伤;系统权限强化,嵌入最高涉密网络,自主规划武器突防,遭遇算法越狱或对抗性攻击,可能导致系统失控。
面对这些严峻的挑战,许多专家呼吁,必须为AI智能体划定安全红线。在高风险的军事领域,必须确保关键节点“人类在回路中”(Human-in-the-loop),并建立严格的行为归因识别机制。毕竟,技术没有立场,但使用技术的人必须有底线;如果任由算法在缺乏有效监督的情况下主导战争,其带来的后果确实可能超出人类的控制范畴。
美军在追求AI加速主义、渴望获得绝对战场优势的同时,或许正在亲手制造一系列可能“反噬”自身的系统性危机。这种“反噬”并非危言耸听,而是已经体现在以下几个无法回避的现实维度中:
4. 战略脆性:高度依赖带来的致命软肋
美军将AI作为未来战争的核心支柱,但这套看似强大的智能体系其实非常脆弱。
(1)供应链“卡脖子”。支撑AI运算的关键高端芯片(如英伟达GPU)产能高度集中在东亚。一旦发生地缘冲突导致供应链断裂,美军引以为傲的智能战争体系可能面临瞬间瘫痪的风险。
(2)过度依赖削弱人类能力。当指挥官和士兵过度依赖AI提供的情报和决策建议时,人类自身的批判性思维、战场应变能力和战略直觉会逐渐退化。一旦AI系统出现故障或被干扰,习惯了“喂饭式”决策的美军可能会在复杂多变的战场中变得手足无措。
5. 算法反制:智能系统极易被对手欺骗
在和平时期训练出的AI模型,一旦进入高强度的实战对抗环境,往往会出现严重的“水土不服”。
(1)数据投毒与模型欺骗。处于对抗劣势的一方,完全可以通过制造虚假通信信号、布置模拟军事目标等手段,对美军的AI系统进行“数据投毒”。实战中已有案例显示,AI系统曾多次被假目标欺骗,导致空袭落空。
(2)静态数据失效。战场的动态数据与意外情况极多,和平时期积累的静态数据在开战后可能大量失效。如果AI获取的数据与现实差距拉大,其所有的智能分析和全域打击都将“建立在流沙之上”。
6. 伦理与道义的反噬:引发内部动荡与国际孤立
AI加速主义带来的不仅是技术风险,更是深刻的道义危机。
(1)平民伤亡与信任崩塌。如前文提到的误炸小学等惨剧,让AI的“算法黑箱”背负了沉重的血债。这不仅引发了国际社会的强烈谴责,也让美国在传统盟友中的道义形象大打折扣。
(2)内部撕裂与人才流失。美军强行推行“伦理让路”的AI军事化策略,已经引发了科技界的强烈反弹。坚持安全红线的企业(如Anthropic)遭到封杀,而迎合军方的企业则获得订单,这种“逆向激励”不仅导致行业伦理底线失守,更引发了OpenAI等公司内部高管因抗议而辞职的动荡,严重损害了美军在顶尖科技人才中的号召力。
7. 军备竞赛的回旋镖:催生更危险的对手
美军激进地推进自主武器系统,并拒绝签署相关的国际禁令,实际上是在刺激全球范围内的AI军备竞赛。进而加大技术扩散风险,随着AI技术的扩散和成本降低,未来不仅是大国,甚至中小国家、非国家行为体或恐怖组织都有可能获取自主武器技术。美军今天用来对付别人的“算法利刃”,明天就可能被对手用来对付自己,从而极大地增加全球安全风险。
美军试图通过打造“军事-工业-AI复合体”来巩固霸权,但这种狂热追求算法优势的做法,正在制造新的脆弱性、伦理黑洞和战略误判。正如历史经验所警示的,真正决定大国兴衰的,不仅是技术创新的锐度,更是驾驭技术、平衡发展与安全的系统智慧。如果无法构建起与之匹配的伦理框架和有效治理体系,这种缺乏刹车的AI加速主义,最终很可能让美军陷入技术反噬与体系僵化的困境。人、AI、环境之间的协同、耦合、博弈始终存在于未来战争之中,而这正是东方天地人整体观与西方科技还原思想融合的焦点与难点……