昨天2025年12月29日,美国对外关系委员会斯坦顿核安全高级研究员艾琳·D·邓巴赫 (Erin D. Dumbacher) 在《外交事务》杂志发表评论称,深度伪造技术可能导致世界末日: 自核时代伊始,政策制定者和战略家们就一直致力于防止某个国家因误判而部署核武器。但发生事故的可能性仍然像冷战时期一样高。1983年,苏联的早期预警系统错误地显示美国正在对苏联发动核打击;这样的警告本可能引发苏联灾难性的反击。幸好当时值班的指挥官斯坦尼斯拉夫·彼得罗夫判断警报是假的,才避免了悲剧的发生。如果他没有做出正确的判断,苏联领导人就有理由向美国发射世界上最具破坏力的武器。 人工智能的迅速发展加剧了对核稳定的威胁。人们担心的一个问题是,拥有核武器的国家可能会将使用核武器的决定权交给机器。然而,美国已经采取了保障措施,以确保人类仍然拥有是否发动打击的最终决定权。根据2022年《国家防务战略》,在任何使用或停止使用核武器的决定中,人类都将始终“参与其中”。美国总统乔·拜登和中国领导人习近平在两份联合声明中也一致认为,“使用核武器的决定权应由人类掌握”。 然而,人工智能对核安全构成了另一种潜在的风险。它使得创建和传播深度伪造内容变得更加容易——这些逼真篡改的视频、图像或音频被用来制造关于人物或事件的虚假信息。而且这些技术正变得越来越复杂。在俄罗斯2022年入侵乌克兰几周后,一段被广泛传播的深度伪造视频显示乌克兰总统泽连斯基告诉乌克兰人放下武器;2023年,一段深度伪造视频让人们误以为俄罗斯总统普京中断了国家电视台的节目,宣布进行全面动员。在更极端的情况下,一段深度伪造视频可能会让一个拥有核武器国家的领导人相信对手正在发动先发制人的打击,或者一个人工智能支持的情报平台可能会发出关于对手进行动员甚至脏弹袭击的虚假警报。川普政府希望利用人工智能来维护国家安全。7月,该政府发布了一项行动计划,呼吁在国防部“积极”应用人工智能。12月,国防部推出了GenAI.mil平台,为员工提供人工智能工具。但随着政府将人工智能融入国家安全基础设施,政策制定者和系统设计者必须谨慎对待机器在核决策早期阶段所扮演的角色。在工程师能够解决人工智能固有的问题(例如幻觉和欺骗——即大型语言模型预测不准确的模式或事实)之前,美国政府必须确保人类继续控制核预警系统。其他核武器国家也应该这样做。 连锁危机 如今,唐纳德·川普总统使用手机浏览深度伪造视频;他有时会在社交媒体上转发这些视频,他的许多亲密顾问也是如此。随着真实信息和虚假信息之间的界限日益模糊,此类深度伪造视频越来越有可能影响事关重大的国家安全决策,包括核武器决策。 如果虚假信息能够欺骗美国总统哪怕几分钟,都可能给世界带来灾难。根据美国法律,总统无需与任何人协商即可下令使用核武器进行报复性攻击或先发制人打击。美国军方官员随时准备部署携带核弹头的飞机、潜艇和陆基导弹。一枚美国洲际弹道导弹可以在半小时内到达目标——一旦发射,就无法召回。 深度伪造视频可能为战争制造借口。 美国和俄罗斯的核力量都做好了“预警即发射”的准备,这意味着一旦探测到敌方导弹来袭,它们就可以立即部署。这使得领导人只有几分钟的时间来评估敌方是否已经发动核攻击。(根据美国现行政策,总统可以选择推迟决策,直到敌方核武器袭击美国之后。)如果美国早期预警系统探测到对美国的威胁,美国官员将尝试使用机密和非机密来源来核实攻击。他们可能会查看卫星数据,了解已知军事设施的活动,监控外国领导人的最新声明,并查看社交媒体和外国新闻来源,以获取背景信息和实地报道。军事官员、公务员和政治任命官员必须决定将哪些信息向上级汇报以及如何呈现这些信息。 人工智能驱动的虚假信息可能会引发连锁危机。如果人工智能系统被用于解释早期预警数据,它们可能会误判不存在的攻击——使美国官员陷入与四十年前彼得罗夫类似的境地。由于人工智能系统的内部逻辑不透明,人类往往不清楚人工智能得出特定结论的原因。研究表明,对人工智能有一定了解的人往往会默认相信机器的输出结果,而不是检查是否存在偏差或误报,即使在国家安全问题上也是如此。如果没有考虑到人工智能弱点的全面培训、工具和操作流程,白宫决策者的顾问可能会默认假设——或者至少会考虑——人工智能生成的内容是准确的。 在开源媒体上传播的深度伪造视频也同样危险。例如,在观看深度伪造视频后,美国领导人可能会误将俄罗斯的导弹试验解读为进攻性打击的开始,或者误将中国的实弹演习视为对美国盟友的攻击。深度伪造视频可以为战争制造借口,煽动公众对冲突的支持,或制造混乱。 批判性视角 7月,川普政府发布了一项人工智能行动计划,呼吁在国防部(世界上最大的官僚机构)全面部署人工智能工具。事实证明,人工智能在提高军队部分部门的效率方面发挥了作用。机器学习使海军驱逐舰的维护计划更加便捷。嵌入在无人机等自主武器中的人工智能技术可以使士兵远离前线。人工智能翻译工具可以帮助情报人员分析外国数据。人工智能甚至可以帮助完成一些其他标准的情报收集任务,例如识别停放在机场的轰炸机照片在不同日期之间的差异。 在军事系统中实施人工智能并非必须一蹴而就。有些领域应该禁止使用人工智能,包括核预警系统和指挥控制系统,因为在这些领域,人工智能软件可能带来的好处无法抵消其带来的幻觉和欺骗风险。最佳的人工智能系统建立在经过交叉验证的全面数据集之上。核预警系统缺乏这样的数据集,因为自广岛和长崎核袭击以来,还没有发生过任何核攻击。任何人工智能核探测系统都可能需要使用现有的导弹测试和太空跟踪数据以及合成数据进行训练。工程师需要编写程序来防御幻觉或不准确的置信度评估——这将是重大的技术障碍。 用人工智能工具取代训练有素的工作人员的检查,或者使用人工智能整合各种数据源以加快分析速度,这些做法可能很有诱惑力,但移除关键的人工审查环节会导致错误、偏见和误解。正如美国国防部要求对自主无人机进行有意义的人工控制一样,它也应该要求核预警和情报技术的每个环节都达到更高的标准。人工智能数据集成工具不应取代负责报告来袭弹道导弹的人工操作员。确认卫星或雷达数据发出的核发射早期预警的工作应保持部分自动化。参与关键国家安全电话会议的人员应仅考虑经过验证且未经篡改的数据。 2025年7月,美国国防部向国会申请资金,用于为核指挥、控制和通信系统添加新技术。美国政府的最佳做法是将人工智能和自动化集成限制在网络安全、业务流程和分析以及一些简单的任务上,例如确保在需要时启动备用电源。 一项过时的策略 如今,核战争的危险比几十年来任何时候都更加严峻。俄罗斯威胁要在乌克兰使用核武器,中国正在迅速扩大其核武库,朝鲜现在有能力向美国发射洲际弹道导弹,而防止核扩散的政策也摇摇欲坠。在这种背景下,确保由人类而不是由基于糟糕或不完整数据训练的机器来判断对手的行动、意图和目标就显得尤为重要。 情报机构需要更好地追踪人工智能生成信息的来源,并规范向政策制定者传达数据何时被增强或合成的方式。例如,当美国国家地理空间情报局使用人工智能生成情报时,如果内容是机器生成的,它会在报告中添加披露声明。情报分析人员、政策制定者及其工作人员应该接受培训,对无法立即验证的内容保持额外的怀疑态度并进行事实核查,就像许多企业现在警惕网络钓鱼攻击一样。情报机构需要政策制定者的信任,因为政策制定者可能更倾向于相信他们自己的眼睛和设备告诉他们的信息——无论真假——而不是情报评估的结果。 专家和技术人员应该继续努力寻找方法来标记和遏制流经社交媒体的虚假信息、图像和视频,这些信息可能会影响政策制定者。但鉴于监管开源信息的难度,机密信息的准确性就显得尤为重要。 人工智能已经能够欺骗领导人,让他们看到实际上并不存在的攻击。 川普政府在《国家防务战略》中对美国核态势的更新应该防范人工智能可能带来的难以控制的核武器信息风险,重申机器永远不会在没有人类控制的情况下做出核发射决定。作为第一步,所有核武器国家都应该同意只有人类才能做出核武器使用决定。然后,他们应该改进危机沟通渠道。华盛顿和莫斯科之间存在对话热线,但华盛顿和北京之间却没有。 自20世纪80年代以来,美国的核政策和态势几乎没有改变,当时领导人担心苏联会突然发动袭击。当时的政策制定者根本无法想象如今有多少虚假信息会传递到负责核武器的人员的个人设备上。立法和行政部门都应该重新评估为冷战时期制定的核武器态势政策。例如,政策制定者可以要求未来的总统在发动核打击之前与国会领导人协商,或者要求情报专业人员有一段时间来验证决策所依据的信息。由于美国拥有强大的二次打击能力,准确性应该优先于速度。 人工智能已经有可能欺骗关键决策者和核指挥链成员,使他们误以为发生了实际并不存在的攻击。过去,只有真诚的对话和外交才能避免核武器国家之间的误解。政策和措施应该防范可能最终导致世界末日的有害信息风险。
|