霍金等千名西方學者聯名警告:
世界將毀於人工智能軍備賽楊夢娜 編譯 2015-07-31 17:26 來自 思想市場

公開信指出,如果沒有法律限制,這些帶人工智能技術的殺人機器將在未來幾年中得到系統部署。 近日,物理學家斯蒂芬•霍金(Stephen Hawking)、哲學家諾姆•喬姆斯基(Noam Chomsky)、技術專家伊隆·馬斯克(Elon Musk)和數千名知識分子在一封聯名公開信中警告:必須取締“機器人殺手”的研發和應用,人工智能方面的軍備競賽可能是人類的災難,它將助長戰爭和恐怖主義,加劇世界動盪局勢。英國《獨立報》(The Independent)進行了跟蹤報道,澎湃新聞對此進行了編譯。 自主性武器已被描述為繼火藥和核武器之後的第三次軍事革命 千餘名機器人專家和人工智能(AI)研究人員 ——包括物理學家斯蒂芬·霍金、技術專家伊隆·馬斯克和哲學家諾姆·喬姆斯基,近日簽署了一封公開信,呼籲禁止使用“具有攻擊性的自主武器”—— “機器人殺手”。簽署該公開信的還有蘋果公司的聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak),以及數以百計的人工智能和機器人技術研究員,他們均來自世界一流大學和實驗室。

物理學家斯蒂芬·霍金就是這封公開信的著名簽署者之一。 這封公開信由未來生活研究所(Future of Life Institute)發起,這個團體致力於緩解“人類面臨的生存風險”,警告人們啟動“人工智能軍備競賽”的危險。這些機器人武器可能包括根據自身程序搜索並殺死特定目標的軍用無人機,這種新一代的無人機可以通過遠程操控對幾千里外的地區發動攻擊。 公開信中談到“人工智能技術已經達到了這樣一個地步:如果沒有法律限制,那麼這種系統的部署在未來幾年中就可以實現,並不需要等待幾十年。”它補充說,自主性武器已被描述為繼火藥和核武器之後的第三次軍事革命。 未來生活所相信人工智能的巨大潛力在很多方面會造福人類,但是機器人武器的發展並不會,它很有可能被恐怖分子、殘酷的獨裁者和那些熱衷種族清洗的人所利用。 這種武器雖然還沒有真正研製出來,但是技術的推進使得他們的誕生並不遙遠。該武器的反對者,就像這封信的簽署者一樣,相信通過消除人類死亡的危險,機器人武器(這項技術在未來幾年內會變得無處不在,價格低廉)將會降低戰爭的門檻,使得戰爭更加頻發。 製造機器人武器,使人擔憂人工智能的濫用

韓國在韓朝邊境使用像這樣的哨兵機器人,但是沒有人工干預,他們並不能開火。 去年,韓國推出了類似的武器——武裝哨兵機器人,它們目前被安裝在朝鮮邊境。通過相機和熱傳感器,它們能夠檢測並自動追蹤人類,但是該機器需要人工操作才能射擊。 公開信警告說,對人工智能的和平使用,將會給人類帶來潛在的益處。但如果用它來製造機器人武器,便會滋長公眾的不滿,削減了人工智能真正的好處。 這種說法聽起來很有未來感,但是在這塊領域技術的確正在以極快的速度推進,與此同時人們對人工智能暴力使用的反對呼聲也越來越強烈。 “阻止機器人殺手”的運動率先呼籲禁止機器人武器 2012年,由一系列非政府組織,其中包括人權觀察(Human Rights Watch)發起的“阻止機器人殺手”運動率先呼籲禁止機器人武器。目前他們正努力在《特定常規武器公約》(Convention of Conventional Weapons)的框架內處理機器人武器的問題,該公約在日內瓦聯合國大會上通過,旨在禁止使用某些常規武器,如地雷和激光武器在1995年已經被禁止使用,這場運動希望自主性武器也可以同樣被禁止。這項運動試圖通過該公約,設立一個以禁止這種武器為目的政府專家小組來處理相關事件。 今年初,英國在聯合國會議上反對禁止機器人殺手,其外交部官員告訴《衛報》(The Guardian),他們並不認為有必要對自主性武器實施禁止,並且聲稱英國並沒有研製類似的武器。
|