从俄乌冲突到美以伊战火,AI军事化何以成为全球新隐忧?-新华网
新华网 > > 正文
2026 03/16 11:06:49
来源:环球时报

从俄乌冲突到美以伊战火,AI军事化何以成为全球新隐忧?

字体:

  编者的话:在美以伊冲突中,人工智能(AI)工具的使用正引发越来越多的关注与担忧。美国和以色列被爆在此次军事行动中使用AI系统分析情报、制定打击名单、模拟作战场景等。不过,有报道称,AI系统存在的问题可能与伊朗南部一所小学遭遇空袭、导致170余人丧生的惨剧有关。同时,在此次冲突中,西方科技公司在中东的数据中心首次被伊朗当作攻击目标。俄乌冲突曾被称为“第一场AI战争”。从持续至今的俄乌冲突,到暂时停火的加沙战争,再到现在的美以伊冲突,AI的军事化趋势不断出现新特点。同时,AI对战场的深度介入也引发一系列问题,包括“自动化偏见”、监督缺失,以及由此造成的更多平民伤亡等。这些都对战争伦理的底线提出拷问。

  从辅助性向自主性演变

  3月11日,美国中央司令部司令库珀在社交媒体上发布视频称,AI已成为美国选择袭击伊朗目标的重要工具。据《华盛顿邮报》报道,有知情人士透露,在袭击伊朗的“史诗怒火”行动中,美国和以色列都使用了美国帕兰蒂尔公司构建的“梅文智能系统”战场情报平台。该系统嵌入了美国Anthropic公司的AI模型“克劳德”,通过分析来自卫星、监控系统及其他情报渠道的机密数据,为美以在伊朗的军事行动提供实时目标锁定与优先级排序。还有报道称,该系统此前被用于针对委内瑞拉总统马杜罗的行动。

  美国政府已将“梅文智能系统”的使用范围大幅扩展至军方许多部门。截至去年5月,已有超过两万名美国军事人员使用该系统。

  一名了解Anthropic公司与美国国防部合作情况的人士向美国全国广播公司透露,“克劳德”主要用于协助分析师对情报进行分类,并不直接提供打击目标的建议。不过,在“史诗怒火”行动的最初24小时内,美军在AI协助下对伊朗境内超过1000个目标进行了打击。面对每小时需处理42个目标的作战节奏,英国皇家三军研究所研究员西尔维亚等专家表示,这表明袭击目标的确定在很大程度上是自动生成的。

  此前在加沙地带,AI也成为以色列军事行动的核心工具之一。据美国《时代》周刊报道,以军在针对巴勒斯坦伊斯兰抵抗运动(哈马斯)成员的报复行动中,使用了多个AI系统生成打击目标建议。其中,名为“福音”的系统负责识别并建议攻击哈马斯人员可能活动的建筑和设施。“薰衣草”系统则被编程用于识别哈马斯及其他武装组织的疑似成员,以供定点清除。此外,一个被称为“爸爸在哪”的系统通过追踪目标的手机信号来监视其行踪,以便锁定打击窗口。对于AI工具在加沙冲突中发挥的作用,以色列军方此前发布声明称,“福音”和“薰衣草”仅仅是“帮助情报分析师审查和分析现有信息”,它们不构成确定可攻击目标的唯一依据,也不会自主选择攻击目标。

  俄乌冲突被许多媒体和学者评价为“第一场AI战争”。有专家2024年年底时称,AI工具在俄乌战场上主要发挥支持和提供信息的作用,无论是AI驱动的火炮系统还是AI制导的无人机,大多仍在测试阶段,尚未实现完全自主。然而,《时代》周刊今年3月的报道显示,这一局面正在迅速改变,俄乌冲突的方方面面正日益自动化。

  最令人震惊的是自主无人机的大量涌现。这些无人机配备的软件能够将有效载荷导航到数百英里之外,并锁定目标。乌克兰增强型AI四轴飞行器可以在通信失败时,在没有人类参与的情况下自主攻击俄罗斯士兵。计算机视觉使该飞行器能够识别并攻击特定目标,甚至能飞越窗户对个人进行精确打击。如今,乌克兰每天发射的无人机多达9000架,已成为全球各类武器制造商的首要试验场,这些企业正竞相将常规“杀伤链”的部分环节实现自动化、自主化。

  军事专家张军社在接受《环球时报》记者采访时表示,俄乌冲突初期,AI技术主要被用于辅助侦察以及目标识别、情报分析等,AI系统之间的协同比较有限。在目前美国和以色列对伊朗的军事打击中,则实现了AI与联合指挥控制系统的深度融合,在陆海空天电网六个作战领域都实现实时数据共享与协同作战。简单地说,从俄乌冲突到加沙战争,再到目前美以伊冲突,AI技术与工具在战场上的角色正发生深刻演变:从辅助性走向核心性,从局部性走向全域性,从被动性走向自主性。

  AI基础设施首次成为战争打击目标

  在近期美以伊冲突中,一个引人关注的新动向浮出水面——AI基础设施首次成为打击目标。美国亚马逊网络服务公司表示,其位于阿联酋和巴林的3处数据中心遭伊朗无人机袭击。伊朗国家电视台称,伊朗伊斯兰革命卫队发动袭击的目的是“查明这些中心在支持敌方军事和情报活动方面所起的作用”。据卡塔尔半岛电视台报道,伊朗伊斯兰革命卫队日前已公布了一份新打击目标清单,其中包括谷歌、微软、帕兰蒂尔等多家美国科技公司在中东的数据中心和办公场所。

  伊朗对西方科技公司的警惕并非没有理由。长期以来,硅谷科技公司一直与五角大楼保持着深度合作关系。2月28日,美国企业开放人工智能研究中心(OpenAI)宣布,该企业已与美国国防部达成协议,打算将其AI模型部署于美国国防部的机密网络。去年,五角大楼还与谷歌、xAI等美国科技公司分别签订协议,计划充分利用这些企业的技术和人才,加速美国国防部对先进AI技术的采用。

  以谷歌、亚马逊为代表的西方科技公司,一方面为全球多国普通民众提供日常服务,另一方面又与美国军方保持深度合作。这引发了外界对于美国科技公司的民用AI工具及其数据是否会被用于军事领域的担忧。Anthropic公司就因为担心美国政府会使用其AI工具对民众进行大规模监控以及研发自主武器而与白宫发生冲突。

  对于上述问题,中国国际问题研究院世界和平与安全研究所学者张高胜对《环球时报》记者表示,存在极高风险。他解释说,西方商业云存储的海量数据,包括商业卫星图像、通信数据、金融交易记录、社交媒体轨迹等,在战时极易被美国军方通过权限调用或技术手段获取,转化为打击决策的依据。他提醒说,数字主权成为新的战略博弈场,数据中心、算力节点、通信光缆等直接关系国家安全与战争主动权,因此“我们需加速建设自主可控的云基础设施,推动数据本地化存储,并建立备份机制,确保在极端情况下的生存能力”。

  确保人的控制和问责制至关重要

  美国和北约正在加快AI军事化的速度。美国防长赫格塞思近期敦促本国加速采用AI技术,以建立一支“AI优先的作战力量”。据美国乔治敦大学安全与新兴技术中心高级研究员普罗巴斯科介绍,在代号为“猩红之龙”的系列演习中,美国陆军第18空降军使用了帕兰蒂尔公司的软件,其打击目标选择的效率追平了该部队先前在伊拉克创下的纪录。普罗巴斯科指出,得益于AI,该军团仅用20人就实现了这一效果,而在伊拉克战争时,完成同样任务则需2000多人。

  去年与帕兰蒂尔公司签约的北约,在最近的一段视频中将其版本的“梅文智能系统”描绘成能给指挥官带来如同电子游戏一般监督战场的能力。

  虽然AI能给一国军事带来巨大优势,但也引发广泛担忧。从软件无法识别或错误识别人员,到自动驾驶汽车导致的死亡事故,AI工具出问题的例子不胜枚举。对于AI军事化的危害,有专家提到了“自动化偏见”,即默认AI提供的信息是准确可靠的。美国AI专家阿萨罗指出,对于AI给出的袭击建议,在授权打击前人类是否真的逐一审查这些目标是个问题。以色列记者亚伯拉罕曾与6名参与加沙行动的以情报官员对话,以报道以色列对AI工具的使用情况。他援引以目标制定官员的话说,尽管他们知道“薰衣草”系统大约在10%的情况下会给出错误目标建议,但他们仍依赖该系统。一名负责授权发动空袭的以情报官员回忆说,他只花了大约20秒来确认一个目标是否应被袭击,他的具体行动就是核实该目标是否是男性。很多学者和媒体认为,加沙战争之所以造成大量平民伤亡,与以色列使用AI工具有密切关系。

  美国和以色列在打击伊朗时使用AI技术,不仅引发许多道德和法律问题,也使人担忧人类可能正在失去对战争机器的控制。以色列国防军前总参谋长科哈维2023年接受采访时也提出了类似的观点。他说:“令人担忧的不是机器人会控制我们,而是AI会在我们没有意识到的情况下控制我们的思想并取代我们。”

  美国《时代》周刊报道称,约束武装冲突的条约对于实现军事效果所使用的工具并无具体规定。无论使用的武器是弩、坦克,还是基于AI技术的数据库,都适用于相关国际法。不过,包括红十字国际委员会在内的一些机构和学者认为,AI军事化需要新的法律框架来规范,并指出随着AI武器系统变得越来越先进,确保人对这些系统的控制和问责制至关重要。

  中国专家也就AI军事化风险发出警示。张高胜对《环球时报》记者表示,AI军事化速度越来越快,各国日益陷入竞赛当中,但关于AI军事化的监管框架或者共识仍旧没有形成,例如坚持人道主义原则等。与此同时,由于AI军事化的“黑箱”效应,无法关注冲突方是否贯彻相关原则,这对于军备控制来说是一项重大挑战,国际社会需要展开相关军控谈判。

【纠错】 【责任编辑:崔红宗】