無人駕駛車的利他主義原則(中)商管智慧(第546期 20170831) AddThis Sharing Buttons Share to FacebookShare to LINEShare to WeChatShare to Copy LinkShare to 電子郵件 無人駕駛汽車如果在路上正式咝校仨氁勒杖祟悢M定的「利他主義」原則,才不會釀成大禍。圖為英國倫敦的一輛自駕車在測試之中。(Getty Images)
文 _ 謝田(中華民國外交部「台灣獎助金」獲獎學人、國立台灣大學公共經濟研究中心訪問學者、美國南卡羅萊納大學艾肯商學院講席教授) 關於機器人可能會反制人類,機器人可能不受人類的控制,最近已經有了新的、可怕的趨勢。臉書的研究人員發現,人工智能(AI)的程序可以使用一種人不懂而只有計算機懂得的語言,進行它們之間的對話。因為這個程序創建了自己的語言,所以臉書的科研人員最後關閉了這樣的人工智能(AI)語言程序。他們的研究人員意識到,非常令人可怕的是,人工智能程序產生的新語言不是英語,而是僅能被它自己識別的代碼。這是今年七月被披露的事件。 為此,特斯拉電動汽車創始人馬斯克(Elon
Musk)也對人工智能提出了警告。馬斯克對美國的州長們說,需要積極主動地而不是被動地對人工智能進行監管。他甚至擔心,當人們真正需要對人工智能進行監管時,可能就已經太遲了。雖則如此,馬斯克自己的OpenAI實驗室,也成功的讓人工智能機器人開發出了自己的語言。 很多人都很愉快的使用谷歌的機器翻譯功能,並且在實際哂弥袔椭雀柰晟茩C器的翻譯效能。但谷歌的翻譯服務團隊發現,他們的人工智能程序可以靜悄悄地編寫自己的機器語言,來幫助翻譯句子。值得人們警惕的是,人類目前根本無法掌握這種機器所使用的新語言的邏輯性!當谷歌的翻譯變得日益廣泛哂茫斒澜绺鞯夭俨煌Z言的人們、甚至國際會議,都使用谷歌翻譯時,那豈不是連人們的思維、溝通、交往,都會被機器人和機器人背後的力量所控制和左右?! 目前,世界各國的主要汽車廠商對自駕車的「自主程度」有不同的處理方法和態度。大眾汽車(Volkswagen)旗下品牌奧迪(Audi)發布了一款可上路行駛的最先進的自動駕駛汽車,允許車主長時間不看道路的系統。新款奧迪A8允許駕駛員在交通擁堵、車速不超過每小時60公里時,讓車輛進入自動駕駛狀態,而駕駛員可以完全不管。 奔馳、日產和奧迪等車企,採取對車輛逐步增強「自主」程度的態度、在發生緊急情況時把控制權交還給駕駛員。福特和捷豹路虎比較保守,表示只有當車輛「自主」技術能在所有情形下駕駛車輛時,才會給自己的汽車加裝該技術。福特董事長比爾.福特(Bill
Ford)表示,自駕車的技術要求不難實現,但道德和制度層面的問題才是最大的難題。 關於機器人時代的倫理,美國科幻作家阿西莫夫早就給出了三條法則。阿西莫夫在1950年出版的短篇小說集《我,機器人》中提出「機器人學三大法則」,被稱為是機器人的「摩西十誡」。法則第一條是:機器人不得傷害人類,或因不作為而使人類受到傷害。第二條:除非違背第一法則,機器人必須服從人類的命令。第三條:在不違背第一及第二法則的情況下,機器人必須保護自己。後來,阿西莫夫又補充了第零條法則:機器人不得傷害人類整體,或因不作為使人類整體受到傷害。 但機器人學的三大法則,也難以真正的、完全的解決人和機器的關係問題。阿西莫夫的《機器人與帝國》故事中,一名罪犯犯下重罪,必須被處死,但如果機器人在場看見了,機器人要服從第一法則,就不能對人類個體可能死亡而袖手旁觀,它可能就需要去「劫法場」救下那個死刑犯,從而干擾了人類社會的秩序。第二法則的「自保」和第三法則的「服從命令」也有可能發生衝突,從而使得機器人無所適從。 阿西莫夫的「第零法則」,是更高的智慧,涉及人類的整體。但涉及到人類的整體,涉及到人類的前途和命撸@時候機器人插進來,就更可怕。機器人如果看到人類無節制、無限度的盲目發展,導致更多的災難、戰爭和貧窮,如果要遵循「第零法則」,機器人就必須選擇用機器人自己「理性的頭腦」來支配和保護人類,這樣人類就不會絕種,但人類自己的自由意志,可能就被機器人奪取了。這是人類希望的嗎?我們的世界上,超過85%的人是信神、信佛的,信神信佛的人們相信,人是神佛創造的,如果神造的人就這樣被機器人或者機器人背後的勢力、生命去左右了人類的人生、生命,神佛會允許這樣的事情發生嗎? 在道德層面,一個典型的例子就是,當要發生汽車事故時,自駕車是選擇救駕駛員,還是選擇讓駕駛員受傷而去救10個行人?在解釋人類社會的行為時,有一個「有軌電車難題」。 在這個經典的思維實驗中,一輛有軌電車沿著軌道飛馳而來,馬上要撞到五個人。如果你有控制桿可以把電車轉到另一個軌道,從而救下這五個人,但是會犧牲掉另一個軌道上的一個人。這個時刻,你怎麼辦?你是「採取行動但是殺死一個人」還是「什麼都不做讓五個人死」?這個選擇的難處,在於它迫使人們在「不殺生」的個人道德和「救更多的人」的更高的善良之間,進行一番掙扎。 面對「有軌電車難題」,大多數人可能會選擇更高的善良,轉向救大多數人,而犧牲一個人。但是,人是有強烈的感情的,如果可能的單個受害人是婦女、兒童、弱者、或者自己的親人,實驗參與者很有可能讓大多數人犧牲,而救下自己的親人或者一名婦女或兒童。這裡,人類做出這種選擇,可能都是非常困難的,那顯而易見,人類不能讓機器去做這個選擇,不能讓機器決定人的生死。所以,我們必須對機器、機器人、自駕車和電腦做出一定的規範。 (待續) ◇
|