設萬維讀者為首頁 萬維讀者網 -- 全球華人的精神家園 廣告服務 聯繫我們 關於萬維
 
首  頁 新  聞 視  頻 博  客 論  壇 分類廣告 購  物
搜索>> 發表日誌 控制面板 個人相冊 給我留言
幫助 退出
老高的博客  
你未必能看到很喜歡的觀點,但一定會進入挑戰性的視野。  
https://blog.creaders.net/u/3843/ > 複製 > 收藏本頁
網絡日誌正文
迫在眉睫:如何處理人與人工智能的關係 2016-03-10 09:17:49

  關於機器人、人工智能的話題飛速升溫。人工智能超過人的智能的前景不再是科幻小說和電影描寫的虛無縹緲的海市蜃樓,似乎已飛快地逼近眼前。這兩天,由於谷歌的人工智能軟件AlphaGo戰勝圍棋世界冠軍、韓裔李世石,更成為街談巷議的話題


  老高按:去年以來,關於機器人、人工智能的話題飛速升溫。人工智能超過人的智能的前景不再是科幻小說和電影描寫的虛無縹緲的海市蜃樓,似乎已飛快地逼近眼前,人工智能已經開始滲透進我們的家庭日常生活。這兩天,由於谷歌的人工智能軟件AlphaGo戰勝韓裔圍棋世界冠軍李世石,更成為街談巷議的話題——剛剛媒體報道了:AlphaGo已經在五局三勝的比賽中,贏得了第二盤,再贏一盤,“他”就能獲得100萬美元獎金。
  李世石告負後坦言:“昨天輸第一盤我感到意外,今天輸第二盤更加吃驚,我無言以對。”
  關於人工智能飛快崛起,讓人心神不安。去年以來美國各電視頻道上大批量、高重複度地翻出過去三、五十年關於機器人的科幻影片,包括其統治世界、人類反抗的題材,觀眾重新觀看時,別有一番滋味在心頭。這裡我轉貼一組最近各媒體談論人工智能這一問題的報道和文章,供各位思考。我一直是更關注歷史——即過往——話題的,但今天不能不思考這個關乎人類未來的話題了。
  促使我將這一話題作為今天博客的內容,是昨天深夜收到朋友白丁發來的一篇文章,他在明鏡有專欄,在多維有博客。他的文章,我也一併轉載如下。

  對這麼迫在眉睫的挑戰(人工智能超出人類智能,估計就在半代人之內,約15年),有人仍然不以為意,未免過於遲鈍。正如專欄作家徐瑾所說:人工智能在超出人類智能之後,如何控制?這是一個大話題,……嚴肅物理學家如史蒂芬·霍金之類,近年就發出警告,能思考的機器將是人類歷史的大事件,將這一切僅僅視為科幻可能引發“最糟糕的錯誤”


  機器贏了,人類輸了?
  徐瑾(專欄作家),英國FT中文網 2016年03月11日


  李世石再輸一盤,就像三體艦隊即將到來地球,朋友圈炸開了鍋,各種刷屏。
  在身邊突然湧現無數圍棋高手,對圍棋的技戰術暴風驟雨般分析之後,大家終於開始關注一些更為深遠的問題,人工智能會帶來什麼?有人說獨裁、有人說失業、也有人認為從此人類過上幸福的生活。
  作為韓國頂尖九段選手,李世石開賽之前其實更被看好,國內不少了解人工智能的人士也覺得他勝算很大,倒是對圍棋了解不少的《財新》主編王爍一開始就更看好AlphaGo電腦。“人機對戰”有五局,但是無論勝負如何,剩下的戰局已經沒有太多意義。作為Alphabet旗下人工智能產品,AlphaGo已經證明了自己,至少是可以在同一水準上與圍棋頂尖高手對弈中獲勝。更可怕的是,它(或者應該說他)的進步速度是如此驚人,考慮到它在短短幾個月之內可以自己與自己對弈數萬盤,或許短時間之後,已經無人可以再擊敗它。
  早在1989年,IBM研製的計算機“深藍”(Deep Blue)就可以和國際象棋高手對弈,1997年更是擊敗國際象棋世界冠軍。那麼二十年之後,為什麼這一比賽意義還是如此重大?因為圍棋如果不是人類遊戲中最複雜的一種,那麼也是最複雜的之一。從算法難度而言,圍棋的難度比起國際象棋不在一個數量級層面,按照AlphaGo的設計方的話說,圍棋的變化比“宇宙中的原子數量”還多。AlphaGo能夠迅速掌握這一技能,其學習能力以及智能水平確實令人震撼。如果說過去深藍贏得象棋更多依賴計算,而AlphaGo目前已經可以通過大量自我對盤來學習自我評估,通俗地說,深藍是一個專門為計算象棋而生的笨重機器,AlphaGo則是可以學習圍棋以及其他領域的聰明機器人。
  其實在一個多月前,AlphaGo已經證明自己,以五比零的戰績擊敗了歐洲圍棋冠軍,而更早幾年,IBM超級計算機“沃森”(Watson)在智力類節目《危險邊緣》(Jeopardy)擊敗了兩名世界冠軍。這些事件雖然沒有今日李世石之敗那麼贏得關注,但是其中邏輯則是類似,即人工智能技術正在成熟,奇點正進一步臨近。所謂奇點(ingularity),這一概念最早來物理學,數學家與計算機先驅約翰·馮·諾依曼五十年代就提及這一想法,而最為註明的引申來自美國預言家雷·庫茲韋爾(Ray Kurzweil),他認為指數式的進步速度將最終將使得人工智能出現飛躍,在大概2029年左右,機器智能將趕上人類。而到了2045,人和機器將會深度融合,那就是奇點時刻。
  雖然雷·庫茲韋爾以及其追隨者,帶有某種狂熱的宗教色彩,但就某種意義而言,對照計算機芯片性能翻番的摩爾定律,將奇點之類說法視而不見,才會顯得有點瘋狂。那麼,人類水平的人工智能什麼時候能實現呢?在《機器人時代》一書中,在一次針對兩百名人工智能相關領域研究人士調查顯示,有42%的人認為能思考的機器將在2030年前製造出來,甚至有人提議增加一個2020前的選項,只有2%的人認為永遠不會發生。

  AlphaGo贏了,人類則未必輸。未來充滿不確定性,但末日恐慌則未必需要,如何看待這些景象?
  首先,從經濟領域來看,雖然互聯網文化流行顛覆經濟學的思路,但是長期來看,經濟規律在未來仍舊適用。短期的衝擊不會缺席,最為明顯一點是金字塔尖的工作可能會減少,而且中層原有不少白領工作將會遭遇淘汰,機器人從打掃家務下一步將會進化到寫新聞稿審查賬目閱讀法律文件,這一天不會很遙遠。
  但不可否認,人類有樂觀的理由。經濟的歷史揭示,每一次機器的躍升,都會帶來生產力的極大進步,也會創造出更多的工作崗位。無論從紡車還是蒸汽機,最終我們減少了紡織工人,卻收穫了更多的機織精品。人工智能時代的邏輯類似,雖然這一過程的曲折程度或許超過預計。AlphaGo所依據的算法具有極強的通用性,意味着它不經改寫就可以應用於別的遊戲或者工作。這一通用性有可能讓人工智能真正開始具備改寫經濟業態的能力——就如同電腦技術或者互聯網技術改寫經濟業態一樣。我們不難想象,當這一技術與各行各業的需求相結合的時候,更多的創新將會呈現,其結果不僅是效率的提升,而且是人與人互動的方式都可能在機器智能的輔助之下進行,管理方式與商業模式可能再次被改寫。
  另一方面,這也意味着政府在培訓以及補助方面將需要做出更多工作,機器人帶來的失業潮,最早將會從低端開始,中國等人力大國應該儘早做好準備。未來來看,人類比起機器人的比較優勢,可能在於高感性、高創意類。
  其次,從社會來看,這一現象的衝擊將會更為巨大。經濟學家的樂觀基於長期,但是老話說長期來看,我們都會死,對比之下,短期的陣痛則更為現實。這種衝擊不僅僅在於經濟層面,更在於社會層面和倫理層面。以失業為例,白領工作的減少,意味着中產階級賴以生存的基礎遭遇動盪,這對於民主制度也會帶來潛在衝擊。雖然我們抱怨工作,但不少研究也揭示,人們工作時刻其實可能比休息時候更快樂,而且工作帶來尊嚴與社會認同,即使短期失業可以得到經濟補助,但是如何給予人們再就業機會以及減少挫折,這將是社會更值得注意的地方。
  最後,從未來角度如何審視人工智能?更進一步,人工智能在超出人類智能之後,如何控制?這是一個大話題,甚至也涉及倫理之類極容易被忽略但是需要積極注意的話題。嚴肅物理學家如史蒂芬·霍金之類,近年就發出警告,能思考的機器將是人類歷史的大事件,將這一切僅僅視為科幻可能引發“最糟糕的錯誤”。如此來看,圍棋之類的遊戲並非無關緊要,甚至對於人工智能的問題也變成一個有趣的智力測試:你越早意識到機器比人聰明,你可能就越聰明。哲學家尼采曾經說過,我們使用的工具最終會改造我們思想,也許最後時刻,在機器越來越像人的時刻,人可能也越來越像機器。
  目前關於人工智能時代諸多猜想,無論悲觀還是樂觀,大部分都可能是錯誤的,但並不意味着這些意見毫無價值。一個開放社會形成的基礎,正在於容納各種公開討論。也正因此,桑德爾這樣的政治哲學家也積極參與基因工程等討論。人類命運轉折特定時刻,需要不同領域的合作,精英的努力和大眾的理解或許同等重要。
  人工智能時代已在路上,恐慌和無視都不明智。人腦對弈人工智能,輸贏仍舊未定。雖然在所有規則明確的遊戲中機器都正在展示越來越強的優勢,但人類的優勢可能正在於規則不確定之下的應對,換而言之,人類的動物性其實是人類最終能否勝出的關鍵因素。這就仿佛我們在談論AlphaGo之後就迅速遺忘,投入新的一天。對於普通人來說,除了茶餘飯後談資,太陽照樣升起,但是對於少部分人而言,世界已經與昨日不同。


  FT社評:一場發人深省的棋局
  英國《金融時報》社評,譯者:和風,2016年03月10日


03.jpg

  AlphaGo:超越人性的人工智能

  能夠在遊戲中擊敗人類高手的計算機程序有着悠久的發展歷史——從上世紀50年代掌握“井字棋”制勝之道,到1997年“深藍”(Deep Blue;IBM研發的計算機——譯者注)擊敗國際象棋世界冠軍加里·卡斯帕羅夫(Garry Kasparov)。
  然而,近年來進步速度加快了。能夠運算海量數據的設備經常取得以往不可想象的勝利。計算機能夠在智力競賽中取勝,IBM的“沃森”(Watson)在2011年贏得電視節目《危險邊緣》(Jeopardy)就是例證。它們還能以越來越強大的“悟性”模仿人的天賦。例如,機器通過觀察屏幕上物體的運動,就能學會玩街機遊戲。
  即便如此,AlphaGo電腦在古老的中國棋盤遊戲——圍棋的對壘中擊敗韓國九段棋手李世石(Lee Sedol),在五局“人機對戰”中首戰告捷,不僅標誌着電腦榮譽板上的一個新檔次。賽前對勝利信心滿滿的李世石,在落敗後坦承“震驚”。
  圍棋有點像國際象棋的變體,只是複雜程度高得多。的確,其棋局的變數比宇宙中的原子數量還要多。這個挑戰會挫敗傳統的程序。事實上,只有多台計算機組成神經網絡,通過觀察和實踐來“自學”(這些能力仍處於計算機科學的前沿),才能駕馭這種高難度挑戰。
  傑米斯·哈薩比斯(Demis Hassabis)以及他在DeepMind(Alphabet旗下英國人工智能部門)的團隊以如此快的速度掌握圍棋制勝之道,這一點值得讚賞。沒錯,作為一件具有強大能力的信息技術設備,AlphaGo可以被形容為一把計算機化的大錘,其用途是敲開一個消遣的堅果。然而,它的勝利提醒世人,世界正在快速攻克人工智能及其實際部署所面臨的障礙。
  這在很大程度上歸功於美國和中國企業對人工智能研究的巨大投入。這些企業從高校挖走一些最優秀的計算機科學家,並提供資源和工具,讓這些科學家從事內心渴望的研究。
  根據最近的一項調查,全球半數人工智能專家相信,人類水平的機器智能到2040年就能成為現實。這為增進人類福祉開啟巨大可能性——從應對氣候變化、治療疾病,到節省勞動力的設備。這也引發種種道德問題,其深刻性絲毫不亞於遺傳學所構成的道德問題。人工智能專家談到人腦被“逆向工程”的可能性。物理學家史蒂芬·霍金(Stephen Hawking)去年曾警告,除非我們小心,否則棋盤遊戲可能是最無關緊要的問題:人工智能最終可能“比我們所有人更聰明”。
  人們不一定非要相信未來將出現某種科技“敵托邦”才會認為,政府和整個社會應該認真對待這些發展的潛在影響。競相進軍人工智能領域的Google、Facebook等公司指出,他們正在成立倫理小組以考量這些技術的適當用途。這些小組不太可能對商業利益以及研究人員的熱忱無動於衷。
  需要進行一些外部監督,類似於遺傳學領域的英國人類受精和胚胎學管理局(HFEA),以保護公眾免受相關發展的威脅,這些威脅所牽涉的不只是韓國圍棋高手的自尊。當然,目前也許還沒有證據表明計算機有朝一日將踢開他們的人類主人,但我們仍應該對這些發展給予應有的謙卑和審慎。


  即使人類完敗於人工智能AlphaGo……
  白丁,明鏡新聞網 2016年3月10日


  3月9日是要載入史冊的日子,谷歌的人工智能軟件AlphaGo戰勝了圍棋世界冠軍李世石。儘管五番棋才下了一盤,最終的勝負還未決出,但已經有人在擔心人類的完敗,白丁也是這些人中的一員。
  好多人都指責李世石托大,尤其是沒搶先手,走到那步力壓千斤的拐頭。那好,如果我們讓李世石悔棋,或者換一個人,柯潔或朴廷垣,拐到那一步,再接着下,我看AlphaGo還是要贏,因為人類的犯錯誤是不可避免的,你躲過或改正了這一步,還會有後面的錯誤。
  為什麼人類犯錯誤是不可避免的?因為人類不可避免地要追求完美,不可避免地要陷入“什麼是完美”的困惑。AlphaGo就不追求完美,它只求比你的招法好一點點,只求最看得清的招法,它把招法建築在你對完美的追求上,你下得越有思想,它應對的越精彩,水漲船高;但不會讓你得逞,水漫船頭。
  有人說,從3個月前AlphaGo戰勝歐洲冠軍樊麾二段的棋譜看,它水平不怎麼樣。從今天凌晨的棋局看,它也有不盡如人意之處。但是它都贏了,而且我懷疑,它是臭棋臭贏,高棋高贏,如果它肯和我下,它的招法肯定更沒法看。所以AlphaGo的棋力是相對的,像警察執法,只用最低限度可以制服你的武力。它從海量計算中篩選出來的應對,即使不是最好,但有效且不會犯錯,這條無解,你人做不到,世界冠軍也不行。而且人工智能根本無視人類的情緒、意圖,它的世界裡只有隻有數據和計算。
  從這個相對論的角度看,AlphaGo也不是圍棋上帝,因為必須先要有圍棋上帝,AlphaGo和他下,才能成為上帝,這是悖論。而且我們前面說了,AlphaGo不追求完美,不追求成為上帝,只追求比你的招法合理,不犯錯,所以才強大。
  從另一方面看,既然AlphaGo和人類的追求不同,相互競技,有沒有意義?人類不可能不追求完美,不可能只追求從海量的學習中不犯錯。人類能造出這種能力,但自己不會擁有這種能力,這又是一個悖論。你能想象滿世界都是不犯錯的機器人嗎?那就沒有圍棋了。
  既然上帝造人的時候就預設了人的犯錯,那我們就只好在追求完美的過程中繼續犯下去。不管怎麼說,不犯錯的AlphaGo是犯錯的人類造出來的。如果你不會為摔跤摔不倒起重機而沮喪的話,那你就不必為下棋下不過AlphaGo而沮喪了。


  “人工智能和機器人可能釀成大規模失業”
  克萊夫·庫克森,譯者:和風,英國FT中文網,2016年02月15日


  科學家們警告稱,人工智能和機器人技術的快步發展可能釀成大規模失業,影響從司機到性工作者的各行各業勞動者。
  周末在華盛頓舉行的美國科學促進會(AAAS)會議上,資深計算機科學家表示,智能機器很快將在各個經濟部門取代人類勞動者。
  “我們正在接近這樣一個時刻,機器將能夠在幾乎所有任務上超越人類,”德克薩斯州萊斯大學(Rice University)計算機科學教授摩西·瓦迪(Moshe Vardi)表示,“在這個時刻來臨之前,社會需要直面一個問題:如果人類能夠做的工作,機器幾乎都能夠做,那麼人類該做些什麼?
  “一個典型的回答是,我們將自由地從事休閒活動,”瓦迪教授表示,“但是我不覺得只有休閒的人生前景有吸引力。我相信工作對於人類的福祉是不可或缺的。”
  “人工智能正從學術研究快速進入現實世界,”康奈爾大學(Cornell University)計算機科學教授巴特·塞爾曼(Bart Selman)表示,“計算機正開始像人類一樣‘聽’和‘看’……系統可以自主地移動和操作,躋身於人類行列。”他表示,Google、Facebook、IBM以及微軟等公司紛紛加大對人工智能系統的投資,使其達到每年數十億美元。
  瓦迪教授和塞爾曼教授都表示,政府以及整個社會沒有正視人工智能和機器人研究的加速。塞爾曼教授去年曾幫助起草由馬薩諸塞州劍橋的生命未來研究所(Future of Life Institute)發出的一封公開信,敦促政策制定者探察智能含量越來越高的機器所帶來的風險。
  這封公開信有大約1萬人簽名,包括高科技企業家埃隆·馬斯克(Elon Musk),他旗下的特斯拉汽車公司(Tesla Motors)有一個大規模人工智能研究項目,旨在開發自動駕駛汽車。
  塞爾曼教授說,馬斯克將資助康奈爾大學以“確保人工智能造福於人類”為課題的研究。該項目將預測“超級智能”(機器相對於人類智慧的全方位優勢)能否實現?如果答案是肯定的,它將在何時實現?
  據塞爾曼教授介紹,人工智能進展最快的領域之一是機器視覺,尤其是人臉識別。“Facebook識別人臉的能力比任何人類都更好,”他說。機器視覺是自動駕駛汽車的關鍵;科學家們預測,此類車輛將在未來25年陸續上路。瓦迪教授稱,相比容易出錯的人類司機,自動駕駛將減少90%或更多的事故。
  “如果能夠拯救那麼多人命,防止那麼多受傷,反對者在道德上將會很難說得過去,”他說。然而,他補充說,美國10%左右的工作崗位涉及駕駛車輛,“這些工作崗位中的大多數將會消失”。
  瓦迪教授稱,面對日臻完善的機器人技術和人工智能,很難想象有任何工作不會面臨消失風險,就連性工作者也不例外。“你會打賭性機器人不可能盛行嗎?”他問道,“反正我不會。”


  機器人烏托邦:不用勞動,坐領工資?
  Farhad Manjoo,譯者:常青,《紐約時報》中文網,2016年3月3日


  讓我們假設,計算機會取代我們大多數的崗位。這看起來可能不像當下會發生的事;對於自動化會在多大程度上影響未來的職場,計算機科學家和經濟學家都提出了各種不同的大膽設想。
  但為了便於討論,這裡權且假設,在接下來的二三十年裡,我們將逐漸演變為美利堅機器人國。
  在機器人美國,大多數體力勞動者將被力大無比的機器人替代。卡車和出租車司機、快遞員及航空公司飛行員,都將被全能的自動駕駛運載工具取代。醫生、律師、企業管理人員,乃至《紐約時報》的科技專欄作者的地位,也會因無所不知、魅力無限的算法的出現而被削弱。
  當人類成為一種多餘的存在,社會將會如何運轉?技術專家和經濟學家已經和這種擔憂鬥爭了幾十年,但在過去幾年,有一種觀念引起了人們普遍的興趣,包括一些正在建設由機器人主宰的未來的技術專家們。

04.jpg

  波士頓動力公司的阿特拉斯機器人

  這項計劃稱為“全民基本收入”(Universal Basic Income,簡稱UBI),其核心點如下:既然工作機會因人工智能的普及而日益減少,幹嘛不直接給每個人發一份薪酬?
  想象一下,政府給每個成年人每月發放大約1000美元。這些錢基本足夠大多數美國人支付住房、食物、醫療和其他基本需求方面的開支。UBI的目標是緩解由技術進步引發的錯位,但它又不止於此。
  儘管UBI一直被認為和左傾的學術界人士、女權主義者和其他進步派活動人士有關,但它最近被範圍更廣的思想人士所採納,包括一些自由意志論者和保守派。它還得到了紐約和硅谷一撥風險投資人的支持,而這些人最清楚技術改變未來工作狀況的潛力有多大。
  認同UBI的科技業支持者覺得,與其把人工智能看作一場扼殺人類工作機會的災難,不如把它看作賜予這個社會的饋贈:這個國家行了大運,現在它可以給每個公民分發支票了。
  這些支持者認為,機器智能將實現非常之多的經濟盈餘,乃至我們在整體上能讓大部分人類免於勞作和受苦。
  最為理想主義的思考者將這個計劃看作一種手段,認為它可以幫我們實現只在《星際迷航》(Star Trek)等科幻小說領域見識過的類似烏托邦的未來。當計算機包攬了更多工作,我們就都自由了,可以隨自己的意願做藝術家、學者和創業者,或以其他方式將我們的激情投入到這個不再圍繞繁重無聊的日常勞作運轉的社會。
  “我們說的是,讓工作的需要和人們的基本需求不再緊密相連,”合廣投資(Union Square Ventures)風投人艾伯特·文格爾(Albert Wenger)說。他是UBI的倡導者之一,正在撰寫一本有關的著作。“幾百年來,我們的整個世界都是圍繞着工作的需要建造起來的。現在我們要討論的不是經濟上的微調,而是像從農業社會進入工業社會那麼大的根本性轉變。”
  孵化技術創業公司的Y Combinator公司總裁薩姆·奧爾特曼(Sam Altman)最近打算給針對UBI的研究提供一些資助。奧爾特曼表示,公司已經收到數千份研究資金申請;它計劃在幾周內篩選出最終獲得該項目資金的人選。Y Combinator計劃在這項研究上總共投入“數以千萬計”的美元,它們將為在UBI之下生活的一些最基本的問題尋找答案。
  奧爾特曼還表示,這些問題範圍很廣,從最為實際的UBI需要國家花費多少資金,我們能否負擔得起,到更為深刻的有關人們在“後工作”時代生活動力和目標的擔憂。
  當每個人都可以不用工作就獲得收入,他們會如何打發自己的時間?他們會虛度時光,還是努力追求更有意義的東西?他們會更有創業的欲望嗎?UBI會對經濟不平等產生什麼影響?它會如何改變人們的心理和情緒?作為一個物種,我們是需要被受僱做事才能感覺充實,還是說那只是後工業化資本主義遺留的習慣?
  科技人士對於UBI的興趣包含着一種緊迫性。他們認為,人工智能在過去幾十年達到了一個拐點,覺得現在看起來,技術進步註定會改變這個世界大多數領域的運轉方式。
  “人們預測工作會消失已經有很長時間了,現實往往是,它們只是發生了改變,”奧爾特曼說。但即便如此,“在改變發生的時期,情況可能會非常混亂,”而UBI至少能讓這個轉型階段更平穩地過去。
  我們可能已經看到了一些這樣的擾亂。儘管宏觀數據顯示,美國已經從最近的一次經濟衰退中恢復——2015年工作機會增長幅度達到自1990年代以來不曾有過的程度——但有調查問卷顯示,很多美國人覺得自己的工作和財務狀況並不穩固,並為此感到焦慮。
  多疑的人可能會認為,風險投資者對於UBI的興趣,只是因為他們在科技業中參與了一場可能永遠改變全球經濟的運動,如今他們想要做出一些彌補。畢竟,在創建利潤豐厚、雇員極少的企業方面,這些富人既進行了積極的投資,也從中大量獲利。
  但經過和一些對UBI感興趣的科技業人士的交談,我發現他們對這種理念的態度是真摯而成熟的。他們並不以自動化為恥,也不懼怕它,他們不認為UBI只是當下社會秩序的一種防禦。在他們看來,自動化和UBI是最有希望取得更廣泛社會進步的一條路。
  “我認為讓一個人花20年時間開卡車,在美國各地來回跑,是在耽誤一個生命,”文格爾說。“那不是我們作為人類所追求的——它沒有恰當利用人的大腦——自動化和UBI是一種進步,可以讓我們解脫出來,去做很多不可思議的事,去做更符合人類這一身份的事。”


  人類將鬥不過機器?
  盧恰諾·弗洛里迪,譯者:邢嵬,英國FT中文網,2016年02月16日


  (作者為牛津大學信息哲學與倫理學教授)

02.jpg

 
  SpaceX和特斯拉汽車(Tesla Motors)的創始人埃隆·馬斯克(Elon Musk)認為,人工智能“可能比核武器還要危險”。他提出,人類“最大的存亡威脅”是出現像終結者(Terminator)那樣的超級機器智能,這種智能有朝一日將成為人類的主宰。幸運的是,他的看法是錯誤的。
  很多機器可以辦到令人驚奇的事情,經常比人類做得更好。比如,1997年,IBM的“深藍”(Deep Blue)計算機在比賽中擊敗了國際象棋大師加里·卡斯帕羅夫(Garry Kasparov)。2011年,IBM的另一部機器“沃森”(Watson)在一場智力問答比賽《危險邊緣》(Jeopardy)中獲勝,擊敗了兩名人類選手,其中一名選手曾蟬聯74期冠軍。看起來,機器真是無所不能了。
  不過,深藍和沃森只是一種“圖靈機器”——指艾倫·圖靈(Alan Turing)設計的一種規定了計算機能力範圍的數學模型。圖靈機器沒有理解力,沒有意識,沒有直覺——簡言之,沒有任何我們歸之為思維活動的東西。它甚至不具備老鼠那樣的智力。
  相信人工智能時代即將來臨的人不同意這種觀點。史蒂芬·霍金(Stephen Hawking)辯稱,“完全人工智能的發展可能意味着人類的終結”。他是對的——如果天啟四騎士(Four Horsemen of the Apocalypse)的問世也是真的。
  美國發明家、未來學家雷·庫茲韋爾(Ray Kurzweil)曾預測,到2045年,計算技術的發展將使得人工智能超過人類對其進行理解和控制的能力。像庫茲韋爾這樣的設想是由摩爾定律(Moore's law)推導而來的。根據摩爾定律,計算機里的晶體管數量每兩年增加1倍,在成本不斷降低的同時,計算能力越來越強大。
  然而,戈登·摩爾(Gordon Moore)本人——摩爾定律就是以他的名字命名——承認,該定律將越來越不可靠,因為集成電路最多可以容納多少根晶體管,是存在物理極限的。
  無論如何,摩爾定律是衡量計算能力而非智能的標準。我的吸塵清潔機器人Roomba將能夠迅速、低成本地把地面清理乾淨,而且效果會越來越好,但它永遠不會使用我的信用卡為它自己預定一次度假。
  1950年,圖靈設計了如下測試。假設有一位人類考官,他向另一個房間裡的兩名測試者提出書面問題。兩名測試者里,一名是人類,另一個是機器。如果考官在70%的時間內無法分辨出機器的答案與人的答案的差別,那麼就可以說這部機器通過了測試。
  圖靈預計,2000年會有計算機通過測試。他錯了。Google前CEO埃里克·施密特(Eric Schmidt)認為,到2018年,機器將可以通過圖靈測試。我們將拭目以待。到目前為止,還沒有什麼進展。計算機程序仍在試圖以20世紀60年代的手法唬弄考官。
  例如,在2015年的羅布納獎(Loebner Prize)、即年度圖靈測試競賽中,一名考官問道:“汽車沒法停進停車位,因為它太小了。什麼太小了?”贏得當年安慰獎的軟件回答:“我可不是一部行走的百科全書,你知道的。”
  因此,對超級智能機器的焦慮是缺乏科學依據的。現有的“智能”技術並非朝着全面智能邁出一步——就像爬到樹梢並非朝着月球邁出一步,而只是爬到了終點。這些應用當然有可能比我們聰明,比我們能幹,能夠代替我們執行越來越多的任務。然而,這並非因為它們能明智地跟世界打交道,而是因為我們把世界改造得對它們越來越友好。
  以工業機器人為例。我們讓它們來到這個世界上並不是來製造汽車;我們圍繞它們營造了人工環境,以確保它們能夠成功。數十億種智能製造物也是如此,它們不久以後就將在所謂的物聯網中彼此溝通了。
  不會有哥斯拉(Godzilla)那樣的人工智能來奴役我們,所以,我們應當別再為科幻小說中的情景感到擔憂,把精力放到應對人工智能帶來的真正挑戰上去。歸根到底,人類自身才是問題所在,而不是智能機器,這種情形在可以預見的將來也不會改變。
  我們的當務之急,必須是在設計和使用技術時,避免犯下令人痛苦、代價昂貴的錯誤。一個嚴重風險是,我們或許會濫用技術,對物種和這個星球造成損害。
  溫斯頓·丘吉爾(Winston Churchill)曾說:“我們決定建築的樣式,而建築也影響我們。”這個說法也適用於“信息空間”里的智能技術。

  近期圖文:

  價值倫理還是責任倫理?從趙紫陽的選擇說起  
  
回望“文革”——這次從經濟和人口角度  
  
當代鄉愁:比古人的鄉愁更不可救藥  
  
要基本了解中國文化該讀哪些書?  
  
  
  
  
  
  
  
  

瀏覽(2068) (9) 評論(4)
發表評論
文章評論
作者:起碼貨美國工科教授. 留言時間:2016-03-10 18:12:50
這次AlphaGo戰勝韓裔圍棋世界冠軍李世石的棋有作弊的可能!
等貧道放春假時寫博文詳細討論。現在先請同志們對這幾盤圍
棋的勝負不要太激動!
回復 | 0
作者:金陵夢回 留言時間:2016-03-10 14:48:53
人工智能? 其實簡單地講,就是教會或者發明創造出一台機器/計算機,能像人類一樣思考,最起碼接近。這到底離我們有多遠?如果我們能回答這個問題,我們就知道答案了:人類是如何思考的?只有在我們能清楚地知道我們的大腦是如何思考之後,我們才能告訴機器如何像我們一樣去思考。

其實,我們離真正意義的人工智能和/或機器人還有很遠的距離,有很長的路要走。舉個簡單的例子,如何讓那些外形如人的機器能夠像人一樣用兩足行走,就像一個會走路的孩子一樣,可以應付真實生活中的地形,如上坡,下坡,走台階等等。要走穩當還是蠻困難的。

現在,就怕“走火入魔”。如果我們設計的人工智能不是真正的人工智能,有可能會發生臆想不到的結果。正如英國的老霍所擔心的可能真的會發生。
回復 | 0
作者:紫荊棘鳥 留言時間:2016-03-10 12:49:58
老高看科普看入迷了吧?
回復 | 0
作者:馬甲 留言時間:2016-03-10 10:50:55
還是處理好人和人的關係吧。人和機器的關係,目前來說還是人和人的關係的附屬品。
回復 | 0
我的名片
高伐林
註冊日期: 2010-05-22
訪問總量: 18,477,478 次
點擊查看我的個人資料
Calendar
我的公告欄
文章歡迎轉載,請注作者出處
最新發布
· 中國的名校校長們 Vs.美國的名校
· 女孩就在那兒,但是你休想見到她
· 兩位學術巨擘的恩怨爭辯,催生了
· 一本帶笑點的書,展示一個最嚴峻
· 中央下死命令逼李井泉必須往外調
· 重發一篇舊文,緬懷“中國最後一
· 誰吹響了美國民主燈塔的熄燈號?
友好鏈接
· 虎貓:張石的博客
· 姜克實:姜克實的博客
· 壹嘉出版:壹嘉出版的博客
· 旅泉:旅泉的博客
· 懷斯:懷斯的博客
· 雲鄉客:雲鄉客的博客
· 吳言:吳言的博客
· 寡言:寡言的博客
· lone-shepherd:牧人的博客
· 藝萌:藝萌的博客
· 德孤:德孤的小島
· 馬黑:馬黑的博客
· 郭家院子:郭家院子
· 暗夜尋燈:暗夜尋燈的博客
· 史語:史語的博客
· 王清和:《金瓶梅》揭密市井私生
· 晚秋心情:不繫之舟
· 阿妞不牛:阿妞不牛的博客
· 解濱:解濱
· 汪翔:汪 翔
· 星辰的翅膀:星辰的翅膀
· 歐陽峰:歐陽峰的blog
分類目錄
【詩】
· 譯者眼中先天下之憂而憂的作家,
· 《愛是如此憂傷》記錄了我們一代
· 2024這一年經歷了什麼?藉助這篇
· 她的文字,是可以交到嬰兒面前的
· “雖九死其猶未悔”?十死呢,該不
· 一部童話引發圖書界難得一見的翻
· 讀書要讀有趣的書:走這一條捷徑
· 《長安三萬里》藏着大國由盛轉衰
· 世界上沒有任何人是不受瘟疫侵襲
· 推薦三部中國作家描寫瘟疫的優秀
【識】
· 一本帶笑點的書,展示一個最嚴峻
· 是不是可以放下心來,聽憑“糾錯
· 川普治國:美國的自由市場體系正
· 美國精英中左翼思想占上風是競爭
· 一個社會既需要左,也需要右,但
· 川普的異想天開和普京的漫天要價
· 互聯網悖論:“時時刻刻都可參與”
· 偏執狂人士受雙重折磨:受現實世
· 妖魔化中國公民形同自我蒙蔽,只
· 特朗普不能容忍監督白宮的“第四
【史】
· 中央下死命令逼李井泉必須往外調
· 跟着依娃走陝西——讀依娃小說集斷
· 想起電視劇里說的:“你爺爺一失
· 閱兵就閱兵吧,怎好意思說是紀念
· 許倬云:歷史學最動人之處,在於
· 《1984》又被禁了!這次是在美國
· 她的聲音已經停止,卻仍然高過沉
· 解讀有中國特色的權力控制市場邏
· 奇人奇事:他一輩子充當反對派
· 特朗普主義難以預測,最可預測的
【事】
· 女孩就在那兒,但是你休想見到她
· 重發一篇舊文,緬懷“中國最後一
· 美籍華人在紐約市長選舉上的代際
· 請用文明作為政治鬥爭的武器——也
· 這一場白宮晚宴可能影響美國未來
· 訂正一個民間失實之辭也並不是輕
· 愛潑斯坦檔案會讓川普陷入最大的
· 這還是美國?這就是美國——這不是
· 人養金毛犬,我養白眼狼:伊朗從
· 美國的運氣用完了?政治暗殺的魔
【視】
· 好萊塢科幻題材電影大盤點
· 橫跨美國之旅(第17天續):如何
· 橫跨美國之旅(第17天):在“911
· 橫跨美國之旅(第16天):見識了
· 橫跨美國之旅(第15天續):地平
· 橫跨美國之旅(第15天):第一位
· 橫跨美國之旅(第14天續):一所
· 橫跨美國之旅(第14天):不期而
· 橫跨美國之旅(第13天):在造物
· 橫跨美國之旅(第12天):把開胃
【拾】
· 中國的名校校長們 Vs.美國的名校
· 兩位學術巨擘的恩怨爭辯,催生了
· 誰吹響了美國民主燈塔的熄燈號?
· 若書名之外還要個副標題,建議加
· 既是一份告別信,也是一份懺悔錄
· 川普起訴媒體、天價索賠,算不算
· 狂熱分子,極左和極右本是同一種
· 介紹孫立平兩篇短文:瘮人危機前
· 中國的左右之爭與西方的左右之爭
· 釋永信寓言:天下武術皆出少林,
存檔目錄
2025-12-01 - 2025-12-05
2025-11-02 - 2025-11-25
2025-10-08 - 2025-10-29
2025-09-01 - 2025-09-16
2025-08-04 - 2025-08-29
2025-07-01 - 2025-07-31
2025-06-10 - 2025-06-30
2025-05-06 - 2025-05-30
2025-04-01 - 2025-04-28
2025-03-03 - 2025-03-31
2025-02-03 - 2025-02-24
2025-01-02 - 2025-01-27
2024-12-02 - 2024-12-30
2024-11-01 - 2024-11-25
2024-10-07 - 2024-10-31
2024-09-03 - 2024-09-30
2024-08-05 - 2024-08-29
2024-07-08 - 2024-07-29
2024-06-03 - 2024-06-27
2024-05-06 - 2024-05-30
2024-04-29 - 2024-04-29
2024-03-04 - 2024-03-31
2024-02-17 - 2024-02-28
2024-01-02 - 2024-01-02
2023-12-04 - 2023-12-26
2023-11-06 - 2023-11-27
2023-10-02 - 2023-10-30
2023-09-04 - 2023-09-25
2023-08-01 - 2023-08-28
2023-07-03 - 2023-07-28
2023-06-02 - 2023-06-30
2023-05-01 - 2023-05-31
2023-04-03 - 2023-04-28
2023-03-01 - 2023-03-31
2023-02-01 - 2023-02-27
2023-01-02 - 2023-01-30
2022-12-07 - 2022-12-30
2022-10-03 - 2022-10-17
2022-09-02 - 2022-09-30
2022-08-01 - 2022-08-31
2022-07-01 - 2022-07-29
2022-06-01 - 2022-06-29
2022-05-03 - 2022-05-30
2022-04-06 - 2022-04-29
2022-03-01 - 2022-03-31
2022-02-01 - 2022-02-28
2022-01-02 - 2022-01-27
2021-12-02 - 2021-12-31
2021-11-04 - 2021-11-23
2021-10-01 - 2021-10-30
2021-09-04 - 2021-09-30
2021-08-01 - 2021-08-24
2021-07-01 - 2021-07-28
2021-06-02 - 2021-06-28
2021-05-06 - 2021-05-27
2021-04-02 - 2021-04-26
2021-03-01 - 2021-03-31
2021-02-02 - 2021-02-25
2021-01-01 - 2021-01-30
2020-12-01 - 2020-12-30
2020-11-01 - 2020-11-30
2020-10-07 - 2020-10-29
2020-09-02 - 2020-09-30
2020-08-03 - 2020-08-31
2020-07-04 - 2020-07-29
2020-06-02 - 2020-06-24
2020-05-01 - 2020-05-31
2020-04-02 - 2020-04-30
2020-03-01 - 2020-03-30
2020-02-03 - 2020-02-29
2020-01-01 - 2020-01-27
2019-12-05 - 2019-12-27
2019-11-08 - 2019-11-26
2019-10-01 - 2019-10-29
2019-09-02 - 2019-09-27
2019-08-01 - 2019-08-30
2019-07-17 - 2019-07-31
2019-06-01 - 2019-06-29
2019-05-01 - 2019-05-31
2019-04-01 - 2019-04-30
2019-03-01 - 2019-03-29
2019-02-01 - 2019-02-28
2019-01-01 - 2019-01-31
2018-12-01 - 2018-12-31
2018-11-05 - 2018-11-30
2018-10-01 - 2018-10-18
2018-09-03 - 2018-09-28
2018-08-01 - 2018-08-31
2018-07-02 - 2018-07-31
2018-06-01 - 2018-06-29
2018-05-01 - 2018-05-31
2018-04-02 - 2018-04-30
2018-03-01 - 2018-03-30
2018-02-01 - 2018-02-28
2018-01-01 - 2018-01-31
2017-12-01 - 2017-12-29
2017-11-01 - 2017-11-30
2017-10-02 - 2017-10-31
2017-09-01 - 2017-09-28
2017-08-01 - 2017-08-31
2017-07-03 - 2017-07-31
2017-06-01 - 2017-06-30
2017-05-01 - 2017-05-31
2017-04-03 - 2017-04-16
2017-03-01 - 2017-03-30
2017-02-02 - 2017-02-28
2017-01-02 - 2017-01-31
2016-12-03 - 2016-12-31
2016-11-01 - 2016-11-30
2016-10-03 - 2016-10-22
2016-09-01 - 2016-09-30
2016-08-01 - 2016-08-31
2016-07-14 - 2016-07-29
2016-06-01 - 2016-06-22
2016-05-02 - 2016-05-31
2016-04-04 - 2016-04-28
2016-03-01 - 2016-03-31
2016-02-01 - 2016-02-29
2016-01-01 - 2016-01-31
2015-12-01 - 2015-12-31
2015-11-01 - 2015-11-30
2015-10-09 - 2015-10-31
2015-09-01 - 2015-09-28
2015-08-01 - 2015-08-28
2015-07-01 - 2015-07-31
2015-06-01 - 2015-06-30
2015-05-01 - 2015-05-28
2015-04-02 - 2015-04-30
2015-03-02 - 2015-03-31
2015-02-07 - 2015-02-28
2015-01-01 - 2015-01-29
2014-12-01 - 2014-12-23
2014-11-03 - 2014-11-26
2014-10-01 - 2014-10-29
2014-09-01 - 2014-09-30
2014-08-01 - 2014-08-29
2014-07-01 - 2014-07-30
2014-06-03 - 2014-06-30
2014-05-03 - 2014-05-31
2014-04-02 - 2014-04-29
2014-03-02 - 2014-03-31
2014-02-02 - 2014-02-28
2014-01-01 - 2014-01-31
2013-12-01 - 2013-12-30
2013-11-01 - 2013-11-29
2013-10-01 - 2013-10-31
2013-09-02 - 2013-09-30
2013-08-01 - 2013-08-28
2013-07-01 - 2013-07-29
2013-06-02 - 2013-06-28
2013-05-03 - 2013-05-31
2013-04-02 - 2013-04-30
2013-03-04 - 2013-03-31
2013-02-04 - 2013-02-27
2013-01-02 - 2013-01-31
2012-12-02 - 2012-12-31
2012-11-03 - 2012-11-30
2012-10-01 - 2012-10-28
2012-09-10 - 2012-09-27
2012-08-01 - 2012-08-27
2012-07-01 - 2012-07-31
2012-06-01 - 2012-06-29
2012-05-01 - 2012-05-31
2012-04-01 - 2012-04-30
2012-03-02 - 2012-03-29
2012-02-01 - 2012-02-27
2012-01-02 - 2012-01-31
2011-12-01 - 2011-12-31
2011-11-02 - 2011-11-30
2011-10-01 - 2011-10-29
2011-09-01 - 2011-09-29
2011-08-01 - 2011-08-31
2011-07-01 - 2011-07-31
2011-06-01 - 2011-06-30
2011-05-01 - 2011-05-31
2011-04-01 - 2011-04-29
2011-03-02 - 2011-03-31
2011-02-02 - 2011-02-28
2011-01-02 - 2011-01-31
2010-12-01 - 2010-12-30
2010-11-01 - 2010-11-30
2010-10-04 - 2010-10-31
2010-09-03 - 2010-09-30
2010-08-01 - 2010-08-31
2010-07-01 - 2010-07-30
2010-06-01 - 2010-06-30
2010-05-21 - 2010-05-31
 
關於本站 | 廣告服務 | 聯繫我們 | 招聘信息 | 網站導航 | 隱私保護
Copyright (C) 1998-2025. Creaders.NET. All Rights Reserved.