昨天2025年12月29日,美國對外關係委員會斯坦頓核安全高級研究員艾琳·D·鄧巴赫 (Erin D. Dumbacher) 在《外交事務》雜誌發表評論稱,深度偽造技術可能導致世界末日: 自核時代伊始,政策制定者和戰略家們就一直致力於防止某個國家因誤判而部署核武器。但發生事故的可能性仍然像冷戰時期一樣高。1983年,蘇聯的早期預警系統錯誤地顯示美國正在對蘇聯發動核打擊;這樣的警告本可能引發蘇聯災難性的反擊。幸好當時值班的指揮官斯坦尼斯拉夫·彼得羅夫判斷警報是假的,才避免了悲劇的發生。如果他沒有做出正確的判斷,蘇聯領導人就有理由向美國發射世界上最具破壞力的武器。 人工智能的迅速發展加劇了對核穩定的威脅。人們擔心的一個問題是,擁有核武器的國家可能會將使用核武器的決定權交給機器。然而,美國已經採取了保障措施,以確保人類仍然擁有是否發動打擊的最終決定權。根據2022年《國家防務戰略》,在任何使用或停止使用核武器的決定中,人類都將始終“參與其中”。美國總統喬·拜登和中國領導人習近平在兩份聯合聲明中也一致認為,“使用核武器的決定權應由人類掌握”。 然而,人工智能對核安全構成了另一種潛在的風險。它使得創建和傳播深度偽造內容變得更加容易——這些逼真篡改的視頻、圖像或音頻被用來製造關於人物或事件的虛假信息。而且這些技術正變得越來越複雜。在俄羅斯2022年入侵烏克蘭幾周后,一段被廣泛傳播的深度偽造視頻顯示烏克蘭總統澤連斯基告訴烏克蘭人放下武器;2023年,一段深度偽造視頻讓人們誤以為俄羅斯總統普京中斷了國家電視台的節目,宣布進行全面動員。在更極端的情況下,一段深度偽造視頻可能會讓一個擁有核武器國家的領導人相信對手正在發動先發制人的打擊,或者一個人工智能支持的情報平台可能會發出關於對手進行動員甚至髒彈襲擊的虛假警報。川普政府希望利用人工智能來維護國家安全。7月,該政府發布了一項行動計劃,呼籲在國防部“積極”應用人工智能。12月,國防部推出了GenAI.mil平台,為員工提供人工智能工具。但隨着政府將人工智能融入國家安全基礎設施,政策制定者和系統設計者必須謹慎對待機器在核決策早期階段所扮演的角色。在工程師能夠解決人工智能固有的問題(例如幻覺和欺騙——即大型語言模型預測不準確的模式或事實)之前,美國政府必須確保人類繼續控制核預警系統。其他核武器國家也應該這樣做。 連鎖危機 如今,唐納德·川普總統使用手機瀏覽深度偽造視頻;他有時會在社交媒體上轉發這些視頻,他的許多親密顧問也是如此。隨着真實信息和虛假信息之間的界限日益模糊,此類深度偽造視頻越來越有可能影響事關重大的國家安全決策,包括核武器決策。 如果虛假信息能夠欺騙美國總統哪怕幾分鐘,都可能給世界帶來災難。根據美國法律,總統無需與任何人協商即可下令使用核武器進行報復性攻擊或先發制人打擊。美國軍方官員隨時準備部署攜帶核彈頭的飛機、潛艇和陸基導彈。一枚美國洲際彈道導彈可以在半小時內到達目標——一旦發射,就無法召回。 深度偽造視頻可能為戰爭製造藉口。 美國和俄羅斯的核力量都做好了“預警即發射”的準備,這意味着一旦探測到敵方導彈來襲,它們就可以立即部署。這使得領導人只有幾分鐘的時間來評估敵方是否已經發動核攻擊。(根據美國現行政策,總統可以選擇推遲決策,直到敵方核武器襲擊美國之後。)如果美國早期預警系統探測到對美國的威脅,美國官員將嘗試使用機密和非機密來源來核實攻擊。他們可能會查看衛星數據,了解已知軍事設施的活動,監控外國領導人的最新聲明,並查看社交媒體和外國新聞來源,以獲取背景信息和實地報道。軍事官員、公務員和政治任命官員必須決定將哪些信息向上級匯報以及如何呈現這些信息。 人工智能驅動的虛假信息可能會引發連鎖危機。如果人工智能系統被用於解釋早期預警數據,它們可能會誤判不存在的攻擊——使美國官員陷入與四十年前彼得羅夫類似的境地。由於人工智能系統的內部邏輯不透明,人類往往不清楚人工智能得出特定結論的原因。研究表明,對人工智能有一定了解的人往往會默認相信機器的輸出結果,而不是檢查是否存在偏差或誤報,即使在國家安全問題上也是如此。如果沒有考慮到人工智能弱點的全面培訓、工具和操作流程,白宮決策者的顧問可能會默認假設——或者至少會考慮——人工智能生成的內容是準確的。 在開源媒體上傳播的深度偽造視頻也同樣危險。例如,在觀看深度偽造視頻後,美國領導人可能會誤將俄羅斯的導彈試驗解讀為進攻性打擊的開始,或者誤將中國的實彈演習視為對美國盟友的攻擊。深度偽造視頻可以為戰爭製造藉口,煽動公眾對衝突的支持,或製造混亂。 批判性視角 7月,川普政府發布了一項人工智能行動計劃,呼籲在國防部(世界上最大的官僚機構)全面部署人工智能工具。事實證明,人工智能在提高軍隊部分部門的效率方面發揮了作用。機器學習使海軍驅逐艦的維護計劃更加便捷。嵌入在無人機等自主武器中的人工智能技術可以使士兵遠離前線。人工智能翻譯工具可以幫助情報人員分析外國數據。人工智能甚至可以幫助完成一些其他標準的情報收集任務,例如識別停放在機場的轟炸機照片在不同日期之間的差異。 在軍事系統中實施人工智能並非必須一蹴而就。有些領域應該禁止使用人工智能,包括核預警系統和指揮控制系統,因為在這些領域,人工智能軟件可能帶來的好處無法抵消其帶來的幻覺和欺騙風險。最佳的人工智能系統建立在經過交叉驗證的全面數據集之上。核預警系統缺乏這樣的數據集,因為自廣島和長崎核襲擊以來,還沒有發生過任何核攻擊。任何人工智能核探測系統都可能需要使用現有的導彈測試和太空跟蹤數據以及合成數據進行訓練。工程師需要編寫程序來防禦幻覺或不準確的置信度評估——這將是重大的技術障礙。 用人工智能工具取代訓練有素的工作人員的檢查,或者使用人工智能整合各種數據源以加快分析速度,這些做法可能很有誘惑力,但移除關鍵的人工審查環節會導致錯誤、偏見和誤解。正如美國國防部要求對自主無人機進行有意義的人工控制一樣,它也應該要求核預警和情報技術的每個環節都達到更高的標準。人工智能數據集成工具不應取代負責報告來襲彈道導彈的人工操作員。確認衛星或雷達數據發出的核發射早期預警的工作應保持部分自動化。參與關鍵國家安全電話會議的人員應僅考慮經過驗證且未經篡改的數據。 2025年7月,美國國防部向國會申請資金,用於為核指揮、控制和通信系統添加新技術。美國政府的最佳做法是將人工智能和自動化集成限制在網絡安全、業務流程和分析以及一些簡單的任務上,例如確保在需要時啟動備用電源。 一項過時的策略 如今,核戰爭的危險比幾十年來任何時候都更加嚴峻。俄羅斯威脅要在烏克蘭使用核武器,中國正在迅速擴大其核武庫,朝鮮現在有能力向美國發射洲際彈道導彈,而防止核擴散的政策也搖搖欲墜。在這種背景下,確保由人類而不是由基於糟糕或不完整數據訓練的機器來判斷對手的行動、意圖和目標就顯得尤為重要。 情報機構需要更好地追蹤人工智能生成信息的來源,並規範向政策制定者傳達數據何時被增強或合成的方式。例如,當美國國家地理空間情報局使用人工智能生成情報時,如果內容是機器生成的,它會在報告中添加披露聲明。情報分析人員、政策制定者及其工作人員應該接受培訓,對無法立即驗證的內容保持額外的懷疑態度並進行事實核查,就像許多企業現在警惕網絡釣魚攻擊一樣。情報機構需要政策制定者的信任,因為政策制定者可能更傾向於相信他們自己的眼睛和設備告訴他們的信息——無論真假——而不是情報評估的結果。 專家和技術人員應該繼續努力尋找方法來標記和遏制流經社交媒體的虛假信息、圖像和視頻,這些信息可能會影響政策制定者。但鑑於監管開源信息的難度,機密信息的準確性就顯得尤為重要。 人工智能已經能夠欺騙領導人,讓他們看到實際上並不存在的攻擊。 川普政府在《國家防務戰略》中對美國核態勢的更新應該防範人工智能可能帶來的難以控制的核武器信息風險,重申機器永遠不會在沒有人類控制的情況下做出核發射決定。作為第一步,所有核武器國家都應該同意只有人類才能做出核武器使用決定。然後,他們應該改進危機溝通渠道。華盛頓和莫斯科之間存在對話熱線,但華盛頓和北京之間卻沒有。 自20世紀80年代以來,美國的核政策和態勢幾乎沒有改變,當時領導人擔心蘇聯會突然發動襲擊。當時的政策制定者根本無法想象如今有多少虛假信息會傳遞到負責核武器的人員的個人設備上。立法和行政部門都應該重新評估為冷戰時期制定的核武器態勢政策。例如,政策制定者可以要求未來的總統在發動核打擊之前與國會領導人協商,或者要求情報專業人員有一段時間來驗證決策所依據的信息。由於美國擁有強大的二次打擊能力,準確性應該優先於速度。 人工智能已經有可能欺騙關鍵決策者和核指揮鏈成員,使他們誤以為發生了實際並不存在的攻擊。過去,只有真誠的對話和外交才能避免核武器國家之間的誤解。政策和措施應該防範可能最終導致世界末日的有害信息風險。
|