人工智能時代:誰來約束技術的權力? ——從一家AI公司的拒絕談起 艾地生
當人工智能技術迅速改變世界時,一個越來越重要的問題正在浮現: 當國家權力與技術倫理發生衝突時,科技公司應該站在哪一邊?
最近,美國人工智能公司 Anthropic 與 Donald Trump 政府之間的一場公開衝突, 使這一問題突然變得具體而現實。
據媒體報道,美國國防系統希望獲得Anthropic的人工智能技術, 用於包括情報分析、監控系統以及軍事應用在內的一系列項目。 然而,在談判過程中,這家公司提出了兩條明確的倫理底線: 其技術不得用於大規模國內監控,也不得用於完全自主的致命武器系統。 如果這些原則無法得到保證,公司將拒絕合作。
對於一家人工智能企業來說,這顯然不是一個輕鬆的決定。 美國政府,尤其是國防系統,一直是高科技產業最重要的客戶之一。 拒絕這樣的合作,意味着放棄巨額合同,也意味着承受政治壓力。 隨後發生的事情似乎證明了這一點: 特朗普政府公開批評該公司,並推動將其列入政府供應鏈的“風險企業名單”, 限制聯邦機構和政府承包商使用其技術。
表面上看,這是一場政府與企業之間的利益衝突。 但實際上,它揭示的是人工智能時代一個更深層的問題: 當關鍵技術掌握在私人企業手中時,誰來決定這些技術可以被用於什麼目的?
在20世紀的大部分時間裡,最重要的軍事技術往往誕生於國家體系內部。 從核武器到導彈系統,大量關鍵技術都來自軍方實驗室或與政府高度綁定的軍工企業。 這種結構被美國總統 Dwight D. Eisenhower 在1961年的告別演說中稱為“軍工複合體”。 在這種體系中,企業的角色往往被視為國家機器的一部分。
然而,人工智能時代改變了這一格局。 今天最先進的算法、大模型以及算力架構,往往來自私人科技公司,而不是國家實驗室。 硅谷企業掌握的技術能力,正在成為影響國家安全和全球政治的重要因素。
這意味着一個新的矛盾開始出現: 國家希望利用這些技術,而企業可能試圖為技術設定倫理邊界。
Anthropic的選擇之所以引發關注,正是因為它在現實利益面前堅持了一條明確的原則。 在當今科技行業,“AI倫理”“負責任的創新”已經成為常見的企業口號, 但真正願意因為倫理問題而拒絕政府合同的例子並不多。 許多科技公司一方面強調技術安全, 另一方面卻積極參與軍事與情報系統的技術合作。
因此,這一事件也被一些評論者視為對科技行業的一次倫理測試。
當然,也有人認為企業不應當限制國家在安全事務上的決策權。 在這種觀點看來, 如果政府認為某項技術對國家安全至關重要,私人公司理應提供支持。 這種邏輯延續了傳統的國家安全優先原則。
但這種邏輯同樣值得反思。 歷史經驗表明, 當技術完全被納入權力結構之中時,倫理邊界往往會迅速消失。 從核武器競賽到全球範圍的大規模監控體系, 科技進步並不自動帶來道德進步。 相反,在缺乏約束的情況下,技術常常被用來擴大權力。
人工智能尤其如此。 與傳統武器相比,AI不僅可能改變戰爭的方式, 也可能改變國家對社會的治理方式。 通過算法分析海量數據、預測行為、識別身份, 人工智能可以極大提高監控系統的效率。 如果沒有明確的限制, 這些技術可能被用於建立前所未有的社會控制體系。
事實上,在一些國家,人工智能已經被系統性地應用於社會治理。 從遍布城市的人臉識別系統,到整合海量數據的智能監控網絡, 再到通過算法評估個人行為風險的管理模式,技術正在成為權力結構的一部分。
這種模式往往以“安全”和“效率”的名義被推廣,但它同時也提出一個令人不安的問題: 當技術極大地提高了監控能力,而制度約束卻沒有同步增長時, 權力是否會變得更加難以被限制?
人工智能的真正風險,也許並不只是自動化武器,而是自動化權力。
正是在這樣的背景下,Anthropic事件才顯得格外值得關注。 它真正提出的問題並不是企業是否“愛國”,而是: 在人工智能時代,誰來為技術劃定道德邊界?
政府顯然不會主動限制自己的技術能力。 國家機器的本能是擴大權力,而不是約束它。 在這種情況下,科技公司在某種程度上也成為倫理邊界的參與者。
當然,企業倫理並不能替代公共治理。 人工智能的風險最終仍然需要通過法律、國際規則以及社會監督來管理。 但在這些制度尚未完全建立之前,企業的選擇仍然具有現實意義。
當一家科技公司決定拒絕某些用途時,它實際上是在提醒社會: 技術的發展不應當完全由權力邏輯決定。
在人工智能時代,科技公司不再只是普通的商業機構。 它們掌握的技術能力,可能影響戰爭、政治乃至社會結構。 正因為如此,企業倫理也逐漸成為公共議題的一部分。
Anthropic的選擇並不一定能夠改變整個行業, 但至少,它讓人們重新思考一個問題: 在技術力量不斷增長的時代,人類是否仍然能夠為技術設定邊界。
當科技公司對權力說“不”的時候,這種聲音或許仍然微弱, 但它至少說明了一件事情—— 技術的未來,並不必然只屬於權力。
|