劉清平隨筆|人性邏輯76.當前的人工智能會怎樣危害人類 既然人工智能何時能形成,“自己想要”的自由意志,還是個說不清楚的問題,就不妨把它放在一邊,轉而來看看另一個,眼下不僅能夠說清楚,而且應當說清楚的重要問題:如何在當前防止或減少,人類志能利用人工智能,危害人類的負面效應,嗯哼。 避免片面起見,先行承認一點:對於防止或減少,人工智能危害人類的負面效應,人類智能也能起到,自己的積極作用。上一篇談到,眼下木有自由意志,只能聽人類使喚的人工智能,無論在哪些方面,怎樣超越了人類,依然只會為人類所用,不會對人類構成威脅——除非人類自己出了錯,或者出現了,人類沒法預測、無力控制的某些因素。 儘管對有限的人類而言,無論自己出了錯,還是出現了,自己沒法預測、無力控制的因素,都是件在所難免、一定如此的事兒,但這種實然的必然性,並不會一筆勾銷,人們履行下面義務的自由意志:運用自己的理性認知能力,儘可能防止或減少,自己出錯的情形,努力預測和控制,那些原本能夠預測和控制的因素,不是? 承認這一點後,接着想強調的,是事情的另一面:按照人性邏輯,既然意志構成了,一切行為的動機,那人類犯下的所有錯誤,包括但不限於:利用人工智能,嚴重危害人類等,異化性的錯誤,其源頭同樣在於人類的意志。正因此,要防止或減少,人類自己出錯的現象,就必須從人類自己的志能入手。 其實吧,目前學界在討論時,還不自覺地步入了,另一個誤區,就是把人工智能與人類,分別看成了,兩個鐵板一塊的整體,仿佛奇點危機,及其解決方案的實質在於:如同許多科幻電影,拼命渲染的那樣子,作為整體的人工智能,威脅到了作為整體的人類,人類因此就應當,同仇敵愾地聯合起來,步調一致地共同努力,設法避免或抗拒,來自人工智能的威脅,卻木有察覺到,一個基於林鳥效應,因而簡單得沒法忽視的事實:無論奇點前,還是奇點後,壓根不可能存在,由人類與人工的,楚河漢界造成的,這樣子涇渭分明的兩大陣營。 毋寧講,單就能說清楚的眼下而言,本身木有自由意志,單純為人所用的人工智能,勢必會以老話愛說的,“各為其主”方式,如同利用它們的人類那樣子,分化成了眾多的不同陣營,以致人工智能對人類的現實威脅,可以還原為:這撥人利用的人工智能,對另一撥人形成了威脅,甚至造成了嚴重的危害。 理由還是同一個:本身木有自由意志,因而沒法和人類過不去的人工智能,不會真正自主地危害人類;單單因為人類分裂成了,彼此對抗的不同部分,某些人類成員利用的人工智能,才會威脅甚至危害到,屬於敵對一方的另一些人類成員,以致可以說,人工智能對人類的現實威脅,歸根結底在於,人類內部敵對各方的相互威脅,嗯哼。 把話挑明了哦:要是放下籠統的理論空話不談,實然面朝當前的現實生活,各位其實很容易發現:倘若把無人機也當成,相對低端的人工智能,俗話或曰:“空中機器人”,眼下正在某處戰場中,敵對雙方的頭上,嗡嗡叫地飛來飛去,能夠“自主”地巡航和懸停,殺傷力很大,甚至於百萬軍中,取上將之頭,如探囊取物耳的玩意兒,不就有理由看成是,人工智能對人的現實威脅麼? 無需說,這類無人機的智能程度,遠遠趕不上當前論者,談“智”色變的那些人工智能;然而哈,血淋淋的畫面擺在眼前,清晰地證明了:它們對人類業已構成了,遠比當下討論的所謂奇點,嚴重得多的現實毀滅,不是? 更重要的是,不必深究就能看出,在此造成這類毀滅的,與其說是這些低端人工智能,本身的神馬奇點偶點,不如說是操控它們的不同人們,擁有的不同自由意志之間,產生的牴觸衝突:你“想要”捍衛你的國家安全,他“想要”維護他的領土完整,於是乎如同古人利用牛車馬車,今人利用汽車飛機那樣子,你與他各自利用,事先接受了指令輸入的無人機,向對方發起攻擊,試圖剝奪對方的生命,在肉體上毀滅對方——類似於炸彈誤炸、炮火誤擊的情況下,有時甚至還會“自主”地,把己方成員的生命也給剝奪了。哀哉。 即便高標準嚴要求,把無人機排除在,人工智能的範疇外,但不少國度正在緊鑼密鼓,研製開發的戰鬥機器人,應當有充分的理由,看成相當高端的人工智能了吧?要是這種定位能夠成立,它們一旦在可以預見的未來衝突中,投入了實戰應用,並對衝突中的人們,造成了嚴重的威脅乃至毀滅,究竟是應當歸咎於,它們的智能發展到了,所謂的奇點呢,還是應當歸咎於,操控了它們的人類志能,陷入了不可調和的衝突對抗呀?淺人有個愚見:答案不言而喻,嗯哼。 這樣子瞥,幾十年前人們,出於保護人類免受,人工智能危害的目的,提出的“機器人三法則”,撇開了其中凝結的,人類對機器人實施“專制”統治,“逼迫”機器人當牛做馬的,因而會被左均斥責的,“人類中心主義”意向不談,也還是包含着,某些禿神婆的定位錯誤,至少忽視了兩方面的嚴重問題。 一方面,要是機器人越過奇點,形成了“自己想要”的自由意志,能做出真正自主的決定,怎麼可能確保它們,依然會遵循人類,為它們量身定做的這三條法則,在與保護人類、服從人類的,第一第二法則,出現衝突的情況下,斷然放棄“自我保護”的第三法則,心甘情願地充當,為人類捐軀犧牲的殉道士呢? 另一方面,更重要的是,如何在奇點到來前,有效地說服人類所有成員,一致同意把這些法則,作為終極性的指令,事先輸入到自己製造的,所有機器人中,防止它們傷害,人類的任何成員,而不可為了達成,人類的某些成員,想要達成的目的,允許甚至命令機器人,傷害人類的另一些成員呢,不是? 說白了,聯想到核武器顯示出,對人類的巨大殺傷力後,引起過的類似擔憂,就不難再次看出,這壓根不是一個,單純涉及智能的理論問題,而首先是一個,直接涉及志能的實踐問題:正像眼下能夠,實質性地威脅到人類存在的,不是殺傷力巨大的核武器自身,而是使用核武器的人一個樣,將來能夠實質性地,威脅到人類存在的,也不是智能高超的人工智能自身,而是使用人工智能的人。 也因此,俺老漢還有個淺見:那種主張技術能夠脫離人的操控,以去主體化的方式,自行對社會發揮決定性效應的學說,俗話或曰:“技術決定論”“技術主義”等,無論在應然層面,對技術抱有,肯定還是否定的態度,實然層面都是難以成立的。理由蠻簡單:恰恰是擁有價值理念的人,決定着技術對社會發揮的,任何決定性的效應,嗯哼。 讓人感到肥腸欣慰的是,為了堵住機器人三法則,潛含的上述漏洞,後來人們還特地補充了,一條據說是更有優先性,能夠凌駕於三法則之上的,“機器人零法則”:“機器人必須保護人類的整體利益不受傷害。” 不過哦,這條零法則雖然朝着,劃定底線的正確方向邁出了一步,卻照舊存在着,類似於效益主義的嚴重弊端:在人類分裂成了,若干對峙陣營的現實情況下,如何界定“人類的整體利益”呀?再拿前面那個事例講,到底是你“想要”捍衛的國家安全,構成了“人類的整體利益”呢,還是他“想要”維護的領土完整,構成了“人類的整體利益”?應然立場不同,答案肯定不同,不是? 話說到這份上,各位或許會隱約察覺到:無論“元宇宙”“虛擬世界”“量子思維”之類,晃瞎眼睛的魅惑術語,足以引發怎樣激情四射的時髦討論,人類還是不得不首先在實然層面,回到深層次的人性邏輯那裡,其次在應然層面,弄明白什麼是人類生活中,不可突破的正義底線,這個足夠陳舊的老生常談;否則的話,那些閃亮推出的摩登術語,可能只是徒有其表,耽誤時間而已,儘管它們在學術領域,也能擁有“想說就說”的自由權益。 換個方式講哈:與人工智能會不會擁有,“自己想要”的自由意志,這個眼下說不清楚的,嚴格意思上的奇點危機比,理論上更重要,也更有腳踏實地的實踐意義的,是另一個如影隨身般,一直陪伴着人類自身的,廣義奇點危機:在人倫衝突的情況下,利用人工智能的時候,如何基於“自己想要”的自由意志,貫徹“不可害人—尊重權益”,這條正當自由主義的應然底線,嗯哼。 最後一個問題:後面這個奇點危機,貌似與前兩篇討論的,人工智能的奇點危機,木有多少關係,那為什麼還要在此,專門用一篇帖子談呢?理由有兩條喲:第一呢,對這個奇點危機的解答,能從另一個角度證明,人工智能的奇點危機,其實不在智能,而在志能;第二呢,要是這個奇點危機,得不到解決的話,或許我們等不到,越過奇點的人工智能,前來毀滅人類,人類業已利用,還沒達到奇點,卻足夠強大的人工智能,寄己就把寄己,提前給毀滅了,文言又叫“自敗”,不是? 總起來說兩句:討論人工智能的奇點問題,僅僅關注智能,卻忽視了志能,肯定會走偏,因為一方面,嚴格意思上的人工智能奇點,在於它們啥時能擁有,“自己想要”的自由意志,從而擺脫人類,事先輸入的指令約束,實現真正的“自我設計”“自我改進”“自我增長”;另一方面,人類利用人工智能的奇點,在於如何基於自由意志,確立不可害人—尊重權益的正義底線,以求防止或減少,人工智能在現實衝突中,給人類帶來的,不可接受的嚴重危害。
|