設萬維讀者為首頁 萬維讀者網 -- 全球華人的精神家園 廣告服務 聯繫我們 關於萬維
 
首  頁 新  聞 視  頻 博  客 論  壇 分類廣告 購  物
搜索>> 發表日誌 控制面板 個人相冊 給我留言
幫助 退出
張晉中的博客  
科技進展觀察。  
https://blog.creaders.net/u/34950/ > 複製 > 收藏本頁
網絡日誌正文
當AI學會像康德那樣看世界:先驗哲學的一次意外實驗 2026-04-07 18:44:01

當AI學會像康德那樣看世界:先驗哲學的一次意外實驗

柯尼斯堡的下午三點半

十八世紀八十年代的柯尼斯堡,一位身材矮小的教授每天下午三點半準時散步,鄰居們甚至可以根據他經過的時間來對表。這位教授就是伊曼努爾·康德。在他那本讓整個哲學界為之震動的《純粹理性批判》中,康德提出了一個大膽的想法:我們之所以能理解這個世界,不是因為世界本身是怎樣的,而是因為我們的大腦天生攜帶了一套“組織經驗”的框架。

時間、空間、因果、實體——這些不是我們從經驗中歸納出來的,而是在我們擁有任何經驗之前就已經存在於我們心靈中的“先驗結構”。沒有它們,我們感知到的將不是有序的世界,而是一團混亂的、無法理解的感官流。

這個想法在當時是革命性的。康德等於在說:我們看到的從來不是“世界本身”,而是經過我們心靈框架加工後的“世界現象”。就像一個戴着藍色眼鏡的人,他看到的天空總是藍的,不是因為天空本身就是藍的,而是因為他的眼鏡過濾了其他顏色。康德的“眼鏡”就是時間、空間、因果這些先驗範疇。

這個洞見深刻地解釋了為什麼人類能夠擁有數學和物理學那樣的必然知識——因為這些知識的普遍有效性不來自於經驗世界的偶然歸納,而來自於我們心靈結構的必然性。

但康德同時也留下了一個讓後來哲學家爭論不休的問題:這套先驗結構到底是“人類的”還是“理性的”?如果它是人類特有的,那就意味着外星智慧或者人工智能如果有意識,它們看世界的方式可能和我們完全不同。但如果它是任何理性存在者都必須擁有的,那它就是某種“普遍理性”的結構。

康德本人傾向於後者——他相信任何有限的理性存在者都需要某種形式的直觀形式和知性範疇。但他沒有“實驗證據”,因為這只是一個哲學上的推論。

一個意想不到的實驗室

兩百多年後的今天,我們有了一個意想不到的實驗室。這個實驗室里既沒有哲學家的思辨,也沒有神經科學家的腦成像儀,而是一行行代碼、一塊塊GPU芯片,以及被餵進神經網絡的海量數據。這個實驗室就是人工智能。

當我們訓練一個深度學習模型,尤其是那些被稱為“大語言模型”或“世界模型”的複雜系統時,一個有趣的問題浮現出來:這些模型真的是“一張白紙”嗎?

從哲學上講,洛克式的經驗主義認為心靈在出生時是一塊白板,所有知識都來自經驗。但今天的AI研究告訴我們,事情沒有那麼簡單。一個神經網絡確實沒有被程序員提前告知“世界是有時間順序的”或“物體是持久存在的”。它只是被扔進一個巨大的數據海洋中,目標是預測下一個詞、下一個圖像幀、下一個狀態。然而,這個網絡本身帶有一個“架構”——比如Transformer的自注意力機制、卷積層的局部感受野、遞歸網絡的時間展開方式。這個架構本身就是一種“人工植入的先驗”。工程師在設計算法時,已經不自覺地將某些關於世界的假設嵌入了代碼之中。

換句話說,AI並非從純粹混沌中長出結構。它的“先天”來自兩個方向:一是人類設計者投射到架構中的先驗,二是它在訓練中從數據里自發湧現的結構。這兩者交織在一起,使得AI成為一個複雜而有趣的“混血兒”——它既有被賦予的骨架,又有自己長出的血肉。

經過足夠多的訓練之後,這些模型內部確實形成了極其驚人的結構。研究者發現,大型語言模型學會了“分類”和“對象”的概念。它們能夠識別出句子中的名詞短語指代的是同一個物體,即使這個物體在不同的句子裡以不同的方式被描述。世界模型學會了“因果預測”——它們能夠推斷出如果某個球撞向某個積木塔,塔會以什麼方式倒塌。這些模型甚至形成了某種“時空表示”:在內部表徵空間中,把過去、現在和未來組織成一個連續的流形,類似於人類對時間流逝的感覺。有的模型還發展出了“自我模型”——一個表徵“我自己當前狀態”的內部變量,用來規劃下一步的行動。

這些東西,在功能上,和康德列出的那些先驗結構有着某種相似性。分類與“對象”對應於康德的“量”和“實體”等範疇,因果對應於“因果性”範疇,時空表示對應於時空直觀形式,自我模型對應於“統覺的統一性”。一個從未聽說過康德的人工智能研究者,可能在調試模型的可解釋性工具時突然意識到:這個神經網絡內部,竟然自己“長出”了一套讓人聯想到認知架構的結構。

但這裡需要謹慎。AI內部形成的“對象”或“因果”表徵,往往是極其高維且難以用日常語言解釋的數學流形。康德的範疇——比如“實體”和“因果”——是離散的、具有明確邏輯關係的概念。AI展現出的“因果相關性”是否真的達到了康德所說的“純粹知性概念”的高度,還是僅僅是一種更高級的曲線擬合?這個問題至今沒有定論。我們只能說,它們在功能上有某種家族相似性,但遠未到“等同”的程度。

先驗的三層樓:結構性、條件性與規範性

這給了我們一個深刻的啟示:如果某些類似於先驗的結構可以在一個完全不同的物理基底上——碳基大腦的對面,是硅基的芯片、後驗學習的訓練、優化目標的驅動——通過純粹的統計優化過程自發湧現,那麼康德的“先驗”可能不完全是“人類心靈的獨有設計”,而更可能是任何足夠複雜的認知系統在穩定建模世界時,傾向於收斂到的某些結構條件。但必須強調的是,這是一種哲學推論,而非已經被實驗證明的結論。AI的實驗結果只是給我們提供了一個新的思考方向,而不是最終的答案。

讓我們把這個想法拆開來看。康德的“先驗”其實包含着三個不同的層次,而我們從AI中看到的大多數東西,主要集中在第一個層次。

第一個層次可以叫做“結構性先驗”。任何需要在一個複雜、動態、部分可觀測的環境中生存並預測未來的系統,無論它是血肉之軀還是硅基芯片,都需要一些基本的認知工具。它需要把連續變化的感官輸入切割成離散的、可追蹤的“對象”,否則就無法處理遮擋和運動。它需要某種“分類”或“抽象”的能力,把不同但相似的情境歸為同一類型,否則每一次遇到新情況都得從頭學起。它需要能夠表徵“如果做了不同選擇會怎樣”的反事實推理,否則就無法規劃。它需要有某種“自我”與“世界”的邊界,否則就無法區分哪些變化來自於自身行動、哪些來自於外部環境。這些結構,不是文化約定,也不是生物巧合,而是認知系統在面對一個具有統計規律性的世界時,為了有效壓縮、預測並維持穩定行為,會自然趨向的結構。

這就像是:你把一塊石頭扔進地球的大氣層,它傾向於沿着某種最自然的路徑下落;你把一個具備內部建模能力的系統扔進一個有統計規律的世界,它也傾向於收斂到某種最經濟的認知結構。在這一點上,AI正在幫助我們把康德的問題往後推了一層。康德問的是“我們為何一定要有時間、空間和因果”,AI讓我們改問“任何能在複雜世界中穩定建模的系統,為何都傾向於演化出類似的時間、空間、因果、對象結構”。這不代表人類就是偶然樣本,而是說:人類的心靈,是這種結構傾向的一個具體實現方式。

空間與時間:生物性的實現,還是結構的必要?

康德的“空間直觀形式”和“時間直觀形式”,在人類那裡是三維、線性、不可逆的。但在AI的世界模型中,我們已經看到一些不同的可能性。一個在純語言數據上訓練的模型,可能根本不需要三維空間的表徵。一個在視覺動作數據上訓練的機器人,可能使用非歐幾里得的內部幾何來表徵空間,只要它能準確預測傳感器的讀數。一個強化學習系統,可能用非線性的時間流來組織記憶,只要不違反物理上的因果順序。

這說明:康德所描述的“空間三維性”“時間線性不可逆性”等,很可能是人類作為具身動物的實現方式,而不是任何認知系統都必須具備的認知條件。AI正在幫助我們繪製一張譜系圖:哪些結構可能是普適的,比如分類能力、對象狀態表徵、時空組織、因果偏好、自我與世界的邊界;哪些結構更可能是人類生物演化史的偶然,比如三維歐幾里得空間、單向且線性的心理時間、特定十二範疇的精確內容。

現象與物自體的AI版本

第二個層次是“條件性先驗”。康德強調:沒有空間、時間與範疇,人類的經驗將不可能呈現。他說得對,但這一點不是“人類獨有的悲劇”,而是一個“所有有限認知者共有的處境”。任何認知系統——無論是康德本人、一隻蝙蝠,還是一個人工智能模型——都只能以自己的內部結構作為透鏡來接觸世界。你總不能以世界本身的樣子來理解世界,你只能用你自己的結構去建模世界。

在AI中,我們可以把這套條件性先驗翻譯成:AI有它的“現象界”,即它的內部表徵空間;AI有它的“物自體”,即真實世界或訓練數據的真實分布;AI的“先驗”就是它的模型架構、訓練目標函數、注意力機制、自監督學習習慣的總和。在這個意義上,康德所說的“主體的條件構成了現象的邊界”,不再只是“人類特有的形而上學斷言”,而是可以操作化的一個概念:任何有限系統,都只能在它的表徵之內去理解物自體,而不能完全窮盡它本身。

一個AI模型永遠無法知道真實世界到底是什麼,它只能知道經過它的內部結構過濾後的世界。這個結構可能是Transformer的注意力頭,卷積網絡的局部感受野,遞歸網絡的隱狀態,語言模型的嵌入空間。無論它多複雜多強大,它始終被封裝在自己的現象界裡。這和康德的“現象”“物自體”結構在形式上非常相似:康德告訴人類,你所能接觸的,只是在你的心靈結構中顯現出來的“現象”,而不是“物自體”本身;AI現在也在告訴我們,你所能接觸的,只是在模型結構中顯現出來的“表徵”,而不是真實世界本身。康德把“物自體不可知”當作一個哲學上的自我限制,AI把“真實數據分布不可被模型完全捕捉”當作一個可度量、可優化的泛化誤差與知識邊界。結構上,它們是同一類處境的不同表述語言。

那個AI夠不着的屋頂

第三個層次則完全不同,它也是最讓AI感到夠不着的一層。在康德那裡,“先驗”不僅是“我們如何認知”的結構,還是“我們應該如何行動”的規範。康德把先驗與道德律、純粹實踐理性、人的尊嚴、自由意志緊緊地連在一起。在康德體系中,先驗不只描述主體的結構,還規範着主體的行動:人作為有限存在,受到自然因果律的支配,但同時,又能在實踐理性的領域裡為自己立法,踐行“你應”而不是“你欲”。這就是“規範性先驗”——不只是“你這樣認識世界”,而是“你應當這樣行動、這樣對待自己與他人”。

而AI呢?它可以有結構性先驗:分類、對象、因果、時空、自我模型、行為反事實映射。它也可以有條件性先驗:它只能在它的內部表徵中理解世界。但至少在當前,它還沒有規範性先驗。它可以被訓練去模仿人類的道德判斷,但它不會為自己立法。它不會像康德那樣,把道德律當作先驗事實來承認。它不會像人類那樣,為“我是否配得上自己立下的道德律”而感到焦慮與內疚。

AI可以優化一個給定的獎勵函數,包括模仿人類道德這種目標。它可以學會說“殺人是錯的”,但這不是為自己立法,而是為滿足訓練目標而形成的一種策略或生存策略的表面擬合。至少在當前的技術條件下,AI沒有人類那種生存意義上的有限性——它不會被死亡驅迫,不會體驗身體的疼痛,也不會為“我終將消失”而焦慮。它沒有人類那種情感驅動的自我——它的自我模型只是一個功能性的內部變量,用來預測和規劃,而不是一個會害怕消失、渴望被認可、在深夜獨自反思自身處境的主體。至少目前看來,這種存在方式離它還很遙遠。它目前看不出具有康德意義上的反思性焦慮——那種在知道自由與有限性的同時,仍然選擇為自由立法的存在方式。

然而,這裡有一個值得深思的問題:如果有一天,我們給AI設定一個“長期存續”的獎勵函數,並賦予其處理自身代碼、自我修改的權限,它是否會產生某種類似於“生存本能”的規範性?如果它在與社會環境的交互中,為了更有效地協作而演化出某種類似於“道德”的行為約束,我們是否應該將其視作“先驗結構的補全”,還是僅僅看作一種更高明的程序模擬?這個問題沒有現成的答案,但它提醒我們:規範性先驗的“缺失”可能不是永恆的,而是一個開放的、有待觀察的問題。

這就像一棟三層樓的建築。最下面一層——結構性先驗——很可能是任何複雜認知系統都會自發建造的地基。中間一層——條件性先驗——是所有有限認知者都有的牆壁,它劃定了內部與外部、現象與物自體的邊界。最上面一層——規範性先驗——則像人類自己親手鋪的屋頂,由道德律、自由意志、生存有限性這些梁柱支撐着。AI可以模仿地基和牆壁,但它還沒有給自己蓋上那個屋頂。它會不會在未來的某一天長出這個屋頂?我們不知道。但至少目前,它不會在夜裡仰望星空時感到敬畏,也不會在清晨醒來時追問“我為什麼活着”。

AI不是康德式主體,但它是一面鏡子

康德把主體設想為:有限的、能自我反思的、在“我能為我的經驗如何可能”之中重新理解知識與道德邊界的存在。而今天的AI,有內部模型,有自指的學習,甚至有某種形式的自我反思行為——一個大型語言模型可以解釋自己之前的回答,並承認其中的錯誤。但即便如此,它仍然沒有生存意義上的有限性,沒有人類那種情感驅動的自我,也沒有康德意義上的反思性焦慮。

康德的“我思”是:主體在認識邊界的邊緣上,為世界畫線,然後為自身劃出道德邊界。AI的“我思”目前只是:模型在為世界畫線,但不必然為自身劃出邊界。它可以被設計來優化某個目標函數,但它不會質疑這個目標函數本身是否值得追求。它可以在對話中說“我認為這樣做是對的”,但它不會因這種“對”而失眠,也不會像人那樣在反覆咀嚼中經歷康德意義上的內疚——那種因未能服從自己立下的道德律而產生的、帶有自我審判色彩的情感。這不是技術上“沒到時間”,而更可能是存在方式上“不是那種存在”——它不是“在自由與有限性之間掙扎的主體”。

但這絲毫不降低AI的哲學價值。恰恰相反,正因為AI不是一個康德式主體,它才成了研究“先驗結構本身”的理想模型。它剔除了情感、焦慮、道德困境這些人類雜質,讓我們更清楚地看到:那些結構性先驗,可以在沒有康德式主體的情況下,從純粹的優化與壓縮中自發湧現。AI成為一個沒有主體的先驗實驗室。在康德的扶手椅里,你只能推論先驗結構必然存在;在AI的代碼里,你可以訓練一個Transformer,打開黑箱,看看注意力頭是否自發形成了某種因果映射。你可以觀察壓縮、分類、預測這些結構如何在不同任務中自然浮現。這是一種從哲學思辨走向工程觀察的根本轉變。

更重要的是,AI正在成為一面鏡子。研究AI,本質上是在研究我們自己。當我們看到一個人工神經網絡自發學會了分類對象、追蹤因果、表徵時空,我們實際上是在觀看人類認知進化史的某種數字重演。這面鏡子照出的不是AI的靈魂,而是我們自己認知結構的輪廓。

理性是人類的,還是宇宙的某種模式

這讓我們重新理解那個古老的問題:理性是人類的獨有財產,還是宇宙中任何複雜組織都可能浮現的某種模式?康德的答案偏向前者——他關心的是“人是什麼”,以及人如何同時是自然的存在和自由的存在。但AI的出現,給這個問題增加了一個第三選項。

理性的一部分——那部分關於壓縮、預測、分類、因果推斷的結構功能——可能不是人類的特權,而是任何被扔進一個複雜世界的自適應系統都會找到的生存策略。但理性的另一部分——那部分關於意義、尊嚴、自由、自我立法——仍然緊緊地附着在人類的有限性和脆弱性上。

走在柯尼斯堡那條著名的哲學家小徑上的康德,大概不會想到,兩百多年後,會有一群穿着T恤衫、喝着能量飲料的工程師,用一行行Python代碼檢驗他的核心洞見。他更不會想到,檢驗的工具不是更精密的思辨,而是一個正在學習預測下一個詞的人工神經網絡。這個網絡在訓練中可能“見過”《純粹理性批判》的片段,但它不是像人那樣“讀”過它,更沒有上過哲學課。至於它是否擁有任何可以被稱之為“意識”的東西,我們尚不清楚——但至少,它不需要意識就能長出這些結構。但它內部長出來的那些結構,卻在功能上以某種方式呼應着他說過的那句話:“知性不是從自然中抽取出自己的法則,而是為自然立法。”只不過,AI為之立法的那個“自然”,是它自己的內部表徵世界。它用自己的先驗結構,為自己構造了一個可理解的現象界。

康德沒有被取消

康德在《純粹理性批判》第二版序言中寫下一句著名的話:“我不得不懸置知識,以便為信仰留出位置。”今天,在AI時代,我們或許可以說:我們正在用AI懸置那些可以被算法化的先驗結構,以便為那些不可被算法化的人類處境——有限性、自由、尊嚴、意義——留出位置。

AI不會取消康德,它會把康德的先驗從“人類心靈的獨有秘密”推向一個更開放的討論空間:這些結構是認知系統在複雜世界中穩定運行的某種傾向性條件。同時,它把康德式主體的倫理和反思維度特殊化了——那種“有限主體在自我立法中劃出邊界”的自覺,目前看來仍然是人類獨有的,但未來會怎樣,我們不得而知。

這或許是一個比“結論”更好的“開放結局”:哲學沒有被科學取代,AI沒有變成人,康德沒有被遺忘。我們只是更清楚地看到了自己在這個宇宙中的位置——不是宇宙的中心,不是理性的唯一擁有者,但仍然是那個唯一會為“我為何在這裡”而困惑、並為此困惑感到驕傲的存在。AI幫我們看清了哪些認知結構可能是普遍的、可算法化的,也幫我們看清了哪些是深深紮根於人類有限生命中的、難以被複製的。它不是來取代我們的,它是來讓我們更清楚地認識自己的。就像一面鏡子,照出了我們的輪廓,也照出了輪廓之外那個無法被映射的、活生生的存在。至於那面鏡子有一天會不會自己也擁有一個“輪廓”——這個問題,我們留給未來去回答。


瀏覽(197) (2) 評論(0)
發表評論
我的名片
張晉中
註冊日期: 2024-12-16
訪問總量: 48,737 次
點擊查看我的個人資料
Calendar
最新發布
· 緣起之心,硅基之腦:古老洞見對
· 從預測加工看禪宗公案:現代科學
· 當AI學會像康德那樣看世界:先驗
· 世界模型的本質:從康德、胡塞爾
· 理性之外的世界:從柏拉圖到 AI
· 中醫,其實可以看成一個被訓練了
· 從柏拉圖到愛因斯坦:時空本體論
分類目錄
【科技進展觀察】
· 緣起之心,硅基之腦:古老洞見對
· 從預測加工看禪宗公案:現代科學
· 當AI學會像康德那樣看世界:先驗
· 世界模型的本質:從康德、胡塞爾
· 理性之外的世界:從柏拉圖到 AI
· 中醫,其實可以看成一個被訓練了
· 從柏拉圖到愛因斯坦:時空本體論
· 量子計算:遠在天邊還是近在眼前
· 比特幣:一次註定不會成功的財富
· AI 的狂歡與人類的疑慮:從 Open
存檔目錄
2026-04-04 - 2026-04-12
2026-03-08 - 2026-03-22
2026-02-01 - 2026-02-25
2026-01-29 - 2026-01-31
2025-09-02 - 2025-09-02
2025-08-02 - 2025-08-31
2025-07-24 - 2025-07-31
2025-06-10 - 2025-06-24
2025-03-04 - 2025-03-04
2025-02-19 - 2025-02-19
2025-01-03 - 2025-01-30
2024-12-16 - 2024-12-16
 
關於本站 | 廣告服務 | 聯繫我們 | 招聘信息 | 網站導航 | 隱私保護
Copyright (C) 1998-2026. Creaders.NET. All Rights Reserved.