設萬維讀者為首頁 萬維讀者網 -- 全球華人的精神家園 廣告服務 聯繫我們 關於萬維
 
首  頁 新  聞 視  頻 博  客 論  壇 分類廣告 購  物
搜索>> 發表日誌 控制面板 個人相冊 給我留言
幫助 退出
     
  慕容青草的博客
  哲學與信仰
網絡日誌正文
沒有道德與信仰的邏輯--人工智能的又一天然缺陷 2017-06-21 18:33:15


近來傳出谷歌與臉書在用深層思維(Deep Mind)或機器學習(Machine Learning)和機器思辨(Machine Reasoning)進行的實驗中均出現一些人工智能表現出超出設計者意料的罔顧人類道德規範的狀況。當然,那都是些非常原始的需要加以特別詮釋才能與道德聯繫在一起的案例。但是,這些簡單的案例卻給了我們人類一個提醒:人工智能在邏輯的學習和思維的很多方面可能會遠超過人類,但是它們卻無法具備人類所持有的複雜的道德理念體系。這是人類在一味地發掘人工智能潛力時必須及早意識到的。對於人工智能來說,它們能夠具備的滿足人類需要的最高道德標準就是服從它們的主人,以及不利於它們主人的敵人。而這樣的道德水平永遠只能作為一種簡單工具的行為準則,而無法滿足人類社會的一般行為的道德規範。

比如,假設有一個具有高超的思辨能力的機器人外表與人一樣。它的程序中告知它要忠於它的主人及主人的家人,然後把它放到社會上去為主人辦事,而且把所在地區的所有法規都輸入到它的系統中,使得它比專業律師還要精通法律,以免它做出違法的事給它的主人帶來麻煩。那麼我們對這個機器人的社會行為能有什麼預期呢?我們對它的一個非常現實的預期將是它是一個在法律允許的範圍內最會坑蒙拐騙打擦邊球的道德淪喪的小人。除非他的主人給他制定一個永遠要吃虧的標準,它在按照功利邏輯與法規去獲得最佳行為效果的過程中,一定是超乎常人地詭詐和機敏而且不會上人類的當,更不會因為被人類激惹而鬧情緒,因為它本來就沒有情緒。

那麼它的主人能否給通過給他輸入一個“吃虧是福”的程序而讓它不那麼缺德呢?如果存在這種選項,那麼社會就可以通過立法要求每個機器人的主人都一定要給他的機器人輸入這樣的程序。但那是不現實的,因為那樣將讓機器人無可適從,出現行為混亂。道理很簡單,再聰明的機器人做判斷也要依據它所掌握的數據,但在現實的社會中,沒有一個人能夠完全了解周圍的每個人每件事的所有的歷史狀況,即便是與再大的數據庫連在一起也不可能做到。在這種情況下,人類會因為恐懼,信仰,同情,愛心,友情等等情懷而在非常有限的資訊條件下來規範自己的行為。但是,由於機器人的思維是以數據為依據的邏輯運算,它不會有恐懼,沒有也不需要信仰,不存在對人的同情與愛心,也不會了解什麼是友情。所以它將完全按照功利的邏輯去思考,唯一顧忌的是明文的法規。雖然它無法掌握與周圍人與物有關的所有數據,但它仍必須根據它所了解的數據做出判斷及行動決策,這樣思考的結果一定使它成為站在法律邊緣的惟利是圖坑蒙拐騙的道德淪喪的小人。

人類是否可以象有些有些電郵里表現的那樣讓機器人學會相互合作然後爭取共贏呢?現實中的機器人也可以學會相互合作爭取共贏,但前提條件一定是在特別預設的可以讓它了解所有的參數的前提之下的,而不是在開放的不可能完全預知所涉及的對象的所有狀況條件的情況之下的。這首先是因為人類自己不可能找出一個人類的一般社會行為模式,因此也無法將這樣的行為模式事先告訴機器人。在馬路上隨時可能會騙子,甚至恐怖主義者,因此機器人的設計者就不可能在無法判斷誰是懷有惡意的前提下讓機器人相信所有的人。

兩千多年前希臘先哲柏拉圖在他的《理想國》一書中記載了他的老師蘇格拉底與色拉敘馬霍斯之間關於什麼是正義的辯論(見本博客“一次關於正義與非正義的世紀辯論”一文)。在那場辯論中,從現實的社會邏輯來看,蘇格拉底根本就不是色拉敘馬霍斯的對手,而蘇格拉底是在把那場辯論拉到了超自然的靈命的層次上之後才最終擊敗了色拉敘馬霍斯。這本身表明如果完全按照人類現實社會的功利邏輯而不考慮超出功利的信仰及愛心等非功利的因素,那麼人類自身的邏輯一定會導致不道德的結果。

那麼,人類是否可以將信仰,道德,同情,愛心,友情,甚至恐懼來數據化輸入給機器人呢?可以,但是不會有任何實際意義,這是因為人類自己還沒有將這些因素搞明白,而這些因素又不像圍棋的邏輯那樣可以通過深度思考(Deep Mind)來推導出來。實際上,信仰,道德,同情,愛心,友情等情懷與我們平時所說的邏輯思維是不屬於同一邏輯層次的。這不是說信仰,道德,同情,愛心,友情等都不符合邏輯。人只要有思維就無法擺脫邏輯。但是上述這些情懷本身卻又高出基本的邏輯層次,為人類的思維邏輯增添了附加的成分。因此,它們不是可以由形式邏輯推導出來的。

我曾在其它文章中提到過,哲學僅屬於人類不屬於機器人,那是因為哲學建立在概念基礎之上,而機器人的思考依據的是數據,它既不理解概念也不需要概念。而由於信仰,道德,同情,愛心,友情,乃至恐懼在現實生活中的具體環境中可以表現出非常具體的形式,因而可以用非概念性的數據來進行模擬,但是一方面由於它們不在基本邏輯的層次上因而這樣的模擬本身無法超越人類對之非常有限的理解,另一方面機器人的邏輯本身就與人類的邏輯千差萬別,因此最多能讓他們按照人類自己的理解去非常有限地理解人類在相應的情懷下的感覺的某些特徵,而不可能讓它們自己具有這樣的情懷(因此就不可能有同情之說)。

不過,如我在之前的一篇文章中提到的,臉書在不久前宣布已在用意念打字方面取得技術性進展。這意味着從原理上來說人類將有能力透過科技來窺視他人的語言性思維,這樣的技術將使得機器人在與人打交道時有可能通過窺視人類的語言性思維來了解對方是否有敵意。但是,這樣的技術本身顯然不是為了與人為善。因此,不可能通過這樣的技術來讓機器人達到人的高水平的道德標準。

所以,同哲學一樣,信仰,道德,同情,愛心,友情將是人工智能的又一個不可能占據的境界,它們只屬於人類而不屬於人工智能;而人工智能可以滿足的對於人類的最高道德就是聽命於主人,不利於主人的對頭。而對於誰是主人的對頭的判斷將是相當的不穩定的,因而存在着傷害主人的朋友的可能性。而人工智能如果被應用在開放性的一般社會中的話,那麼相應的機器人一定最善於打法律擦邊球的坑蒙拐騙惟利是圖的缺德小人。。。

而人工智能所存在的上述極限從另一方面反射出人類文明自身所面臨的一個危機:文明的非人性化或文明的人工邏輯化。自人類文明產生於地球起,雖然人類一直努力按照自己的邏輯來改變自然和社會。我們知道自然與社會的活動一般地來說都是難以把握的非線性的過程。但是,由於人類不但具有對於包括動物在內的非智能的生命與非生命對象的掌控能力而且自身也不屬於那些對象之列,因此人們可以通過將開放的非線性體系中的自然對象納入到人為設計的局限性的,具有強線性特徵的體系之中從而便於掌控。一個最簡單的例子就是垃圾的收集,人們可以通過設立垃圾箱及定期的垃圾回收使得原可能散步於各處而污染地球表面的垃圾集中處理以保持地球表面之潔淨。但是,當人們處理社會問題時,由於打交道的對象和自己一樣是有智能的人,因此,不論從倫理上還是邏輯上都難以象處理自然對象那樣通過簡單的封閉性的線性化來控制開放的非線性的過程。因此,社會的文化其實基本上一直是在各種正面及負面的人性的影響之下自行發展,正如老子所說“建德若偷”。

但是,隨着人類科技的不斷發展,大數據和信息技術給予了人類可以更有效地按照類似處理非智能的自然界的方式來處理社會問題。這樣的一個發展使得人類文明的發展越來越反映出人的意志而不是自古以來的超越人類理性的人性及信仰的特徵。這樣的結果使得人類在機器人領域所發展的人工智能與在社會領域進行的社會管控這兩者之間逐漸匯聚。也就是機器接近人的思維,而社會的邏輯接近機器的邏輯。這背後起決定性作用的都是人的意志。

但是,問題在於,正如我們早已知道而現在通過人工智能更加明確了的,人類自身的意志在邏輯上是有矛盾的,不自洽的。因而,當社會越來越偏離了自古以來的信仰,道德,愛心等超乎人的功利性意志邏輯的色彩之後,社會整體將越來越象一台大型的機器人而越來越有利於少數對社會有操控能力的人,就好比機器人越來越能服務於它們的主人一樣。這對社會整體恐怕不是一個好消息。。。


 

瀏覽(904) (0) 評論(2)
發表評論
文章評論
作者:慕容青草 回復 西岸 留言時間:2017-06-22 06:51:24

西岸:謝謝你來發表你個人認為人工智能應該是什麼。。。但這顯然不代表所有對人工智能感興趣的人看法,最關鍵的是不代表那些實際掌握着相關的知識與資源並正努力積極地發展人工智能的看法。。。當然,如果你西岸有本事通過立法在全世界範圍內把人工智能定位於人類的奴隸,那也不錯,只不過不知你西岸是否有本事做到那一點。。。即便你西岸真有本事在全世界立法把人工智能定位於人類的奴隸,你也不一定有能力去保證人們會完全遵守你的法律。。。當你理解了上述這幾點之後,就可以知道本文的意義了:本文從邏輯上討論人工智能的極限。。。不論你能否從法律上限定人工智能的極限,從邏輯上它的發展不可能超出本文所提到的極限。。。

回復 | 0
作者:西岸 留言時間:2017-06-21 21:13:43

人工智能不是要讓其具有人類的同樣能力,而是為人類創造一個新的奴隸階層,去做人類不願意做,或者效率低的任務。你是不會要求奴隸有道德要求和信仰的,只需要他們聽話。

換句話講,你希望你的道德和信仰他們必須具有,而絕對聽從你的話就能達到這個要求。

這個概念在奴隸制時代就確立了。

從根本上講,競爭是人類社會永恆的主題。而競爭就需要效率,那麼奴隸階層效率是最高的,因為奴隸不能有思想(即使有也不能表現),這樣才能使得效率最高,成本最低。任何社會,任何時代,都是這個模式,只不過稱呼不同。

中國在高速發展時期靠的是農民工,美國靠的是非法移民,這些人並非歷史上的奴隸的概念,因為地位並不一樣,有一定的選擇權,但相對“其他人”,實際上是整個社會的奴隸階層。

所以這類問題是不需要擔心的,關於人工智能發展有幾個規則(記得是四個),其中就包括不允許機器人能產生思想。

從根本的概念上講,人類目前並沒有能給予人工智能道德和信仰能力的可能,因為這是想象的產物,是人類特有的。

但人類對想象這個能力的產生機制自己都沒弄清楚,因此連讓人工智能具有這種能力的最基本的東西都做不到。

而如果機器人真的自己能做到這個,就意味着人工智能已經跨過了singularity的門檻,人類唯一能做的是毀掉機器人。

回復 | 0
我的名片
慕容青草
來自: ny
註冊日期: 2007-08-15
訪問總量: 2,204,469 次
點擊查看我的個人資料
Calendar
我的公告欄
錯誤 vs 犯錯的原因
拆房
如何鎖定人類科學
20世紀物理學
複雜情勢下之最佳優先考慮
成功與別人的幫助
對抗真理的結果
舊房子的哲學
拔枯樹
站與踩
哲學是公開的密碼
普朗克論科學真理之傳播
黑格爾論學習的過程
黑格爾論邏輯
自勉
歡迎交流
最新發布
· Discord between Doppler Effect
· 生活邏輯
· 文明的發展不是搭積木
· 光傳播過程中的三個基本定律(假
· 攔擋正常人登錄的captcha
· 成事還不足敗事已有餘的AI
· 多語言環境與嬰幼兒學說話
存檔目錄
2026-04-06 - 2026-04-14
2026-03-09 - 2026-03-28
2026-02-03 - 2026-02-21
2026-01-04 - 2026-01-27
2025-12-05 - 2025-12-30
2025-11-04 - 2025-11-26
2025-10-01 - 2025-10-29
2025-09-30 - 2025-09-30
2025-06-01 - 2025-06-29
2025-05-03 - 2025-05-28
2025-04-04 - 2025-04-28
2025-03-03 - 2025-03-31
2025-02-05 - 2025-02-26
2025-01-05 - 2025-01-31
2024-12-02 - 2024-12-31
2024-11-05 - 2024-11-28
2024-10-02 - 2024-10-31
2024-09-01 - 2024-09-18
2024-08-01 - 2024-08-31
2024-07-02 - 2024-07-29
2024-06-01 - 2024-06-28
2024-05-02 - 2024-05-28
2024-04-01 - 2024-04-30
2024-03-02 - 2024-03-29
2024-02-03 - 2024-02-29
2024-01-01 - 2024-01-30
2023-12-05 - 2023-12-24
2023-11-06 - 2023-11-27
2023-10-02 - 2023-10-29
2023-09-01 - 2023-09-29
2023-08-01 - 2023-08-31
2023-07-01 - 2023-07-31
2023-06-01 - 2023-06-30
2023-05-02 - 2023-05-29
2023-04-04 - 2023-04-29
2023-03-03 - 2023-03-29
2023-02-01 - 2023-02-28
2023-01-01 - 2023-01-30
2022-12-02 - 2022-12-31
2022-11-02 - 2022-11-23
2022-10-09 - 2022-10-31
2022-09-01 - 2022-09-30
2022-08-01 - 2022-08-21
2022-07-02 - 2022-07-31
2022-06-15 - 2022-06-25
2022-05-06 - 2022-05-27
2022-04-07 - 2022-04-30
2022-03-03 - 2022-03-28
2022-02-01 - 2022-02-28
2022-01-01 - 2022-01-30
2021-12-01 - 2021-12-29
2021-11-02 - 2021-11-29
2021-10-02 - 2021-10-29
2021-09-08 - 2021-09-30
2021-08-08 - 2021-08-31
2021-07-18 - 2021-07-26
2021-06-03 - 2021-06-27
2021-05-04 - 2021-05-29
2021-04-04 - 2021-04-28
2021-03-08 - 2021-03-27
2021-02-12 - 2021-02-28
2021-01-04 - 2021-01-28
2020-12-02 - 2020-12-30
2020-11-01 - 2020-11-26
2020-10-06 - 2020-10-29
2020-09-01 - 2020-09-29
2020-08-06 - 2020-08-27
2020-07-02 - 2020-07-27
2020-06-07 - 2020-06-29
2020-05-01 - 2020-05-31
2020-04-17 - 2020-04-30
2020-03-08 - 2020-03-20
2020-02-20 - 2020-02-24
2020-01-10 - 2020-01-31
2019-12-02 - 2019-12-31
2019-11-07 - 2019-11-30
2019-10-07 - 2019-10-30
2019-09-14 - 2019-09-26
2019-08-13 - 2019-08-21
2019-07-23 - 2019-07-29
2019-06-06 - 2019-06-23
2019-05-05 - 2019-05-25
2019-04-01 - 2019-04-22
2019-03-07 - 2019-03-29
2019-02-09 - 2019-02-27
2019-01-01 - 2019-01-21
2018-12-01 - 2018-12-31
2018-11-04 - 2018-11-24
2018-10-01 - 2018-10-30
2018-09-01 - 2018-09-30
2018-08-01 - 2018-08-29
2018-07-02 - 2018-07-27
2018-06-02 - 2018-06-26
2018-05-13 - 2018-05-28
2018-04-03 - 2018-04-28
2018-03-02 - 2018-03-28
2018-02-10 - 2018-02-28
2018-01-08 - 2018-01-27
2017-12-06 - 2017-12-30
2017-11-09 - 2017-11-25
2017-10-15 - 2017-10-15
2017-09-05 - 2017-09-30
2017-08-05 - 2017-08-27
2017-07-14 - 2017-07-24
2017-06-09 - 2017-06-24
2017-05-02 - 2017-05-02
2017-04-04 - 2017-04-26
2017-03-02 - 2017-03-30
2017-02-02 - 2017-02-27
2017-01-25 - 2017-01-30
2016-12-04 - 2016-12-31
2016-11-16 - 2016-11-23
2016-10-04 - 2016-10-27
2016-09-08 - 2016-09-29
2016-08-02 - 2016-08-31
2016-07-02 - 2016-07-27
2016-06-08 - 2016-06-30
2016-05-02 - 2016-05-22
2016-04-01 - 2016-04-13
2016-03-06 - 2016-03-31
2016-02-07 - 2016-02-23
2016-01-18 - 2016-01-18
2015-12-04 - 2015-12-30
2015-11-02 - 2015-11-27
2015-10-25 - 2015-10-29
2015-09-06 - 2015-09-24
2015-07-11 - 2015-07-25
2015-06-22 - 2015-06-22
2015-05-01 - 2015-05-29
2015-04-14 - 2015-04-14
2015-03-07 - 2015-03-22
2015-02-02 - 2015-02-21
2015-01-20 - 2015-01-20
2014-12-06 - 2014-12-06
2014-11-08 - 2014-11-24
2014-10-03 - 2014-10-20
2014-09-09 - 2014-09-27
2014-08-16 - 2014-08-16
2014-07-12 - 2014-07-25
2014-06-08 - 2014-06-14
2014-05-09 - 2014-05-16
2014-04-02 - 2014-04-29
2014-03-01 - 2014-03-28
2014-02-03 - 2014-02-28
2014-01-02 - 2014-01-29
2013-12-02 - 2013-12-30
2013-11-02 - 2013-11-27
2013-10-02 - 2013-10-29
2013-09-02 - 2013-09-28
2013-08-02 - 2013-08-31
2013-07-01 - 2013-07-26
2013-06-05 - 2013-06-21
2013-05-06 - 2013-05-31
2013-04-08 - 2013-04-30
2013-03-01 - 2013-03-28
2013-02-07 - 2013-02-27
2013-01-11 - 2013-01-29
2012-12-01 - 2012-12-26
2012-11-15 - 2012-11-15
2012-10-07 - 2012-10-28
2012-09-05 - 2012-09-28
2012-08-24 - 2012-08-24
2012-07-03 - 2012-07-20
2012-06-02 - 2012-06-30
2012-05-01 - 2012-05-30
2012-04-03 - 2012-04-29
2012-03-01 - 2012-03-31
2012-02-03 - 2012-02-27
2012-01-29 - 2012-01-29
2011-12-02 - 2011-12-13
2011-11-06 - 2011-11-28
2011-10-12 - 2011-10-27
2011-09-24 - 2011-09-24
2011-08-04 - 2011-08-09
2011-07-02 - 2011-07-31
2011-06-06 - 2011-06-28
2011-05-09 - 2011-05-27
2011-04-18 - 2011-04-24
2011-03-10 - 2011-03-23
2011-02-10 - 2011-02-17
2011-01-14 - 2011-01-14
2010-11-26 - 2010-11-26
2010-10-13 - 2010-10-13
2010-09-12 - 2010-09-29
2010-08-22 - 2010-08-29
2010-07-05 - 2010-07-27
2010-06-12 - 2010-06-26
2010-05-09 - 2010-05-29
2010-04-11 - 2010-04-17
2010-03-10 - 2010-03-28
2010-02-16 - 2010-02-16
2010-01-04 - 2010-01-31
2009-12-04 - 2009-12-29
2009-11-22 - 2009-11-26
2009-06-03 - 2009-06-29
2009-05-13 - 2009-05-13
2009-02-13 - 2009-02-22
2009-01-14 - 2009-01-18
2008-12-08 - 2008-12-28
2008-11-01 - 2008-11-29
2008-10-04 - 2008-10-27
2008-09-12 - 2008-09-26
2008-08-01 - 2008-08-22
2008-07-15 - 2008-07-31
2008-06-07 - 2008-06-29
2008-05-01 - 2008-05-30
2008-04-19 - 2008-04-28
2008-02-02 - 2008-02-19
2008-01-08 - 2008-01-28
2007-11-01 - 2007-11-07
2007-10-02 - 2007-10-29
2007-09-04 - 2007-09-30
2007-08-15 - 2007-08-29
 
關於本站 | 廣告服務 | 聯繫我們 | 招聘信息 | 網站導航 | 隱私保護
Copyright (C) 1998-2026. Creaders.NET. All Rights Reserved.