---大模型時代的“破壞性創造”
馬四維 托馬斯·索維爾(Thomas Sowell)在《知識分子與社會》(Intellectuals and Society)里,有一句非常抓人的定義:知識分子是“以觀念為主要工作成果的人”。他們靠生產思想、話語、論證謀生,而不必直接為觀念在現實世界裡的後果負責。在生成式人工智能爆發的當下,這個定義突然多了一層含義。已經出現了一種新的“觀念生產者”——不是教授、作家、評論員,而是大模型,是全天候寫作、編碼、翻譯、分析的人工系統。它們和人類知識分子(Human Intellectuals)勾連在一起,形成一個混合的、半人半機的“人工智識分子”群體(Artificial Intellectuals)。 在很多辦公室里,這個群體已經悄悄接管了寫郵件、做方案、起草合同、寫代碼的大量工作。律師、會計、程序員、諮詢顧問、媒體編輯,都在和它們“協作”,也在被它們取代。麥肯錫在一份報告裡估算,大模型可以影響到全球數億知識工作者的日常任務結構,對高收入白領的衝擊甚至比對藍領更大。這一變化不只是技術新聞里的數字問題。它會衝擊整套“知識分子與社會”的舊結構。索維爾批評的那些毛病——脫離後果的觀念、缺乏約束的影響力、話語和權力之間的暗通——在人工智識分子身上會不會被放大?還是會被重新排布?這個問題,和未來幾十年對中國文化、政治、經濟的理解,都糾纏在一起。 人類知識分子 vs. 人工智識分子 索維爾在書裡反覆強調一點:現代社會把大量權威交到了“觀念工作者”手裡。外交政策、城市規劃、教育改革、司法理念,背後都站着一批作報告、寫社論、寫學術論文的人。他們的成果是文字,是理念,是框架,而不是具體的橋梁、工廠、公司。 在索維爾看來,這群人有幾個結構性的問題:他們對觀念的“美感”和自洽性,比對後果的可檢驗性更敏感。他們的主要反饋來自同行評價和媒體聲望,而不是政策效果本身。他們常常用“道德優越感”覆蓋不確定性,把複雜問題說成簡單的對錯。 這種批評在冷戰、在反越戰運動、在種族議題上,都有具體例子。索維爾的主要擔心其實很樸素:當一群不用為後果買單的人,卻掌握了塑造輿論和政策的巨大權力時,社會會走向偏斜。 按照索維爾的定義,人類知識分子有三個核心特徵:主要工作是處理符號和觀念,而不是直接動手做實物。成果形式是文本、理論、敘事、圖像、代碼。影響力主要通過媒體、教育、出版、政策網絡擴散。 今天,這個邏輯很容易延伸到大模型。因為它們也是“以觀念為成果”的生產者,而且生產速度遠超任何一個人。人工智識分子——以大模型為代表的智能系統——在這三個點上幾乎完全符合:它們不修橋、不種地,只處理語言、圖像和結構化數據。它們的成果是文章、合同草案、法律分析、市場報告、代碼片段。它們通過搜索引擎、辦公軟件、社交平台集成,迅速進入公共空間。 所以在知識生產的意義上,人工智識分子已經是“同類”。但相似之處到這裡就變成分叉。至少有四個關鍵差異: 第一,責任主體不同。人類知識分子至少在理論上要為自己的觀點負責,哪怕只是名譽風險。人工智識分子本身沒有人格,它的“責任”被重新分配給模型開發者、平台公司、監管機構,以及那個按下回車鍵的人。這種責任的拆散,讓“誰該為觀念後果負責”變得更模糊。 第二,經驗來源不同。人類知識分子有個人經驗,有情緒,有偏見,也有成長和反思。人工智識分子的經驗來自訓練數據——書籍、新聞、網頁、代碼庫、社交媒體。它在統計意義上“綜合了世界”,卻沒有親身的疼痛和損失。 第三,規模和速度不同。一個人一天能寫幾篇文章?一個大模型一天能生成多少文本?這種規模差距,意味着人工智識分子可以在短時間裡向社會投放前所未有的觀念量。信息環境會更像一條洪水,而不是一條河。 第四,嵌入方式不同。人類知識分子分布在大學、媒體、智庫、出版社。人工智識分子則嵌在各類平台的底層。它們通過 API 進入政府辦公系統、銀行風控、律所工作流、媒體寫作平台。它們不像一個個具體的人,而像一層看不見的“知識基礎設施”。 這幾條差異,讓“人工智識分子與社會”的問題,比索維爾當年的問題更棘手:不止是“觀念生產者的權力過大”,而是“觀念生產能力本身被技術放大,並且與責任和經驗剝離”。這種硅基生命體的能力放大和人工智識分子與社會責任的剝離,已經對社會造成巨大衝擊。 從“創造性破壞”到“破壞性創造” 過去二十年裡,自動化主要衝擊的是製造業和部分服務業。流水線工人、櫃檯售票員、超市收銀員,都是第一批承受壓力的人。 生成式 AI 出現後,風向明顯變了。麥肯錫、普華永道、德勤等機構的研究都在強調一點:大模型對“非體力、以文本和符號為主”的工作衝擊更大。律師可以用模型起草合同、整理案例。會計可以讓模型先做賬目歸類和風險掃描。記者可以用模型寫快訊、整理數據。程序員可以用模型寫樣板代碼、查 bug。 這類“AI+人”的工作形態,被很多人類學者和科技評論者稱為“半人馬模式”(centaur model):人和機器像半人半馬那樣組合,人負責直覺判斷、倫理底線、複雜協商;機器負責大規模檢索、語言組織、模式識別。 在這種模式里,傳統意義的人類知識分子——學術界、媒體界、智庫界的專業人士——也在被拆開。研究的“文獻整理”和“初稿撰寫”,可能交給模型;論證結構和核心觀點,交給人。新聞寫作的“素材收集”和“摘要”,交給模型;現場採訪和判斷,交給人。 表面看,這是一種輔助。長期看,這是對“誰有資格發言”的重新劃分。因為任何一個懂得提問和修改的人,都可以藉助人工智識分子迅速生成可讀文本。傳統知識分子賴以維持權威的門檻——語言能力、文本生產速度、信息掌握能力——正在被技術壓平。 電商幹掉一部分實體零售,流媒體幹掉錄像帶店,線上廣告擠壓紙媒廣告,這些都是典型案例。如果把人工智識分子的出現放在這個框架里,有一個微妙的變化:這次破壞的,不只是舊行業,而是一整套知識生產和判斷的方式。 熊彼特(Joseph Schumpeter)把資本主義形容成一個不斷“創造性破壞”(creative destruction)的過程:新技術、新企業、新模式不斷出現,在創造價值的同時摧毀舊的行業和崗位。可以說,這更像一種“破壞性創造”(destructive creation):它在創造一個前所未有的知識生產機器,但也在破壞人們對“知識是什麼”的傳統理解。它在創造高效率的文本、代碼和分析,但也在破壞“誰該為這些內容負責”的清晰邊界。它在創造新的協作形式,但也在破壞很多人的自我價值感和職業尊嚴。 過去,創造性破壞依賴企業家、發明家和資本。現在,破壞性創造背後還有平台算法和大模型的黑箱。熊彼特曾經預言,資本主義可能不是死於失敗,而是死於自己的成功:當創造性破壞太強,社會承受不了,反而會尋求穩定和管制。 在人工智識分子的問題上,也可以看到類似趨勢。一方面,社會享受它帶來的效率;另一方面,對失業、謠言、深度偽造、算法偏見的恐懼又在上升。結果是,技術在前面狂奔,而監管、倫理和社會心理在後面追趕。這種追趕的關係,無處不在。《跨文化下的社會認知偏差》作者王野林指出,AI存在着“我不用,別人會用” 的心態,存在着“競爭”,國家之間也會如此。 但到一定的時候,人類總會意識到要共同防止人工智能異化為人的主人。 人工智識分子的創新與破壞 從技術樂觀的角度看,人工智識分子的出現,至少帶來三種新機會。 一是加速。很多瑣碎的知識工作——查資料、做摘要、寫初稿——可以交給模型。研究者、律師、記者、教師可以把更多精力放在真正需要人類判斷的部分。對資源緊張的教育系統、醫療系統,這是一個實在的緩解。 二是擴音。過去,一個普通人很難寫出結構清晰、邏輯完整的長文,更難用多種語言表達自己。大模型可以充當“語言放大器”,讓更多人有機會參與公共討論。有些邊緣群體的經驗,也許因此更容易被整理出來。 三是知識民主化。索維爾批評“主流知識分子”壟斷解釋權。人工智識分子在某種程度上,削弱了這一點。任何人都可以要求模型解釋某個理論、概括某本書、展示不同觀點。知識獲取門檻被拉低。 當然,這種民主化有前提:模型是否開放,還是只在少數機構的私有雲里運行。訓練數據是否多元,還是嚴重偏向某種話語。用戶有沒有足夠的“媒介素養”去辨別輸出的可靠性。 如果這些條件不能滿足,“知識民主化”很容易變成“知識幻覺”:大家以為自己知道得更多,實際只是被算法餵了更多相似的答案。 從技術悲觀的角度看,人工智識分子的破壞性也非常明顯。 一是白領失業和職業降級。高盛等機構估計,生成式 AI 可能影響全球 3 億左右的全職崗位,大部分集中在高技能白領。 很多律師助理、會計助理、編輯、客服、翻譯,面臨被“AI+少數人類”取代的風險。這不只是收入問題,也是身份問題。很多人的自我認同,建立在“我是專業人士”“我是靠腦力吃飯”的基礎上。人工智識分子對這一點的衝擊,比對某些體力崗位的衝擊更傷心理。 二是認知污染。大模型可以生成大量看起來“像那麼回事”的內容。假新聞、偽學術、偽評論、偽數據分析,會在網絡里迅速擴散。對普通讀者來說,真假界線變得更模糊。索維爾擔心知識分子的“觀念脫離後果”,在人工智識分子這裡變成“觀念脫離來源”:很多內容找不到清晰出處,也沒有明確作者,責任變成了一個迷宮。 三是責任失落。當政策建議、判決參考、醫療建議中大量使用模型時,一旦出錯,究竟是誰的錯?是工程師?是使用者?是監管機構?這種責任的稀釋,會削弱一種很重要的文明機制:犯錯者需要對自己言行負責,付出代價,社會才能學習。而在算法系統裡,錯誤和偏見可以被當作“統計噪音”輕描淡寫,受害者卻是真實的人。 對中國來說,這樣的責任問題還會和行政權力疊加:當“智能系統”被掛上“國家工程”的牌子,質疑和糾錯就會更難。 中國語境下的人工智識分子 談知識分子,總會想到中國兩千多年的文人傳統。科舉制度把“會寫文章的人”送進權力結構,讀書人既是道德批評者,又是行政機器的一部分。 在當代,中國的“知識分子”至少有三層:體制內學者和政策顧問,靠研究報告和內部簡報影響決策。大學和媒體裡的公共寫作者,靠專欄、講座和新媒體賬號影響輿論。平台算法篩選出的“網紅講師”和“知識 IP”,用短視頻、直播和圖文輸出觀點。 人工智識分子融入這個結構,有幾個特別的點。第一是國家層面的工程想象。中國提出過“新一代人工智能發展規劃”,把 AI 明確納入國家戰略。 這意味着,大模型不只是一個市場產品,而是被當成“新質生產力”的關鍵基礎設施。教育、醫療、政務、工業,都被鼓勵“+AI”。 第二是強監管下的知識邊界。針對生成式 AI,中國在 2023 年出台了專門的管理辦法,要求算法不得生成“危害國家政權、顛覆社會主義制度、傳播謠言”等內容。 這為人工智識分子設定了比較清晰的政治邊界。這意味着:在歷史敘事上,模型會自然向官方版本收攏。在現實政治上,它不可能成為“異議知識分子”,更可能是“制度內技術顧問”。在文化生產上,它適合作為傳統文化的“翻譯器”和“整理者”,而不適合作為顛覆敘事的發起者。 第三是對傳統文人角色的雙重衝擊。一方面,人工智識分子非常適合做“整理工作”:數字人朗讀古文,模型批量翻譯典籍,AI 生成對聯、寫詩、寫書評。這些能力會推動一個新的“機械文人”階層,搶掉很多入門寫作者的飯碗。另一方面,對真正有獨立判斷、能在夾縫裡說話的知識分子來說,大模型又是一個工具:可以更快查資料,更便宜做初步分析,更容易和普通人溝通複雜問題。 所以在中國,人工智識分子既可能加固體制性的知識邊界,也可能在邊界內部釋放一些創造力。它既是新“士大夫”的秘書,也是他們的替身。人工智識分子不僅改變工作方式,也在重塑人們理解中國的角度。 在文化上,大模型可以把浩如煙海的古籍、地方志、檔案整理出來,以前需要幾十年冷板凳的梳理工作,現在可能在幾個月內完成一個初步框架。對研究者和文化愛好者來說,這是前所未有的工具。 但同樣重要的是,大模型如何“講述中國”。訓練數據決定敘事風格。如果數據來源偏向官方論述,模型就會天然偏向某種語氣;如果加入大量民間材料,模型的聲音就會多皺褶一些。這個選擇,既是技術問題,也是政治問題。 在歷史上,生成式 AI 已經開始進入博物館、紀念館、課堂。講解員的腳本、互動問答,都可能由模型生成或潤色。這意味着,普通人接觸歷史的方式,很大程度上會被“技術話語”過濾過一遍。哪些事件被強調,哪些被淡化,哪些視角不被提起,這些變化是看得見的,也是需要警惕的。 在政治上,人工智識分子一方面會被用作政策工具。政府部門可以用它快速分析文件、起草簡報、總結調研。但另一方面,它又可能成為輿情管理的利器,自動生成正向評論、自動糾偏“錯誤觀點”。在這種場景里,人工智識分子延續了索維爾所說的“觀念影響權力”的傳統,卻讓權力更難被看見。 在經濟上,AI 被視為提高生產率的關鍵技術。中國近年來反覆強調“新質生產力”,AI 是其中的重要支點。金融、製造業、物流、互聯網行業,都在用大模型做優化。 這樣一來,人工智識分子既是“提高效率的工具”,也是“新的生產要素”。誰控制這些要素,誰就掌握新的經濟權力中心。對地方政府、央企、互聯網巨頭和小型創業公司來說,這是一場新的權力再分配。 在“破壞性創造”中為自己設定方向 在“人工智識分子與社會”的框架里,人類知識分子並不是要被時代淘汰的角色。真正需要調整的是他們的“任務描述”。 過去的知識分子,以“知道答案”為核心價值。誰掌握更多文獻,誰能更快寫出厚書,誰就有更強話語權。人工智識分子出現後,“知道答案”這件事的稀缺性在快速下降。 接下來,有幾類能力會變得更重要: 提出好問題的能力。模型擅長在給定問題下生成內容,卻很難自己提出有洞察力的問題。哪些問題值得問,哪些問題不該問,這需要經驗、倫理和對現實的敏感。 設計制度和規則的能力。人工智識分子的輸出怎樣進入司法、醫療、教育等關鍵領域,需要人去設計邊界和流程。哪些可以自動化,哪些必須有人簽字,哪些完全不該交給模型,這些都是制度問題。 守住價值底線的能力。技術可以優化過程,卻無法替人決定目的。平等、尊嚴、自由、公正,這些詞不是算法算出來的,而是長時間歷史鬥爭的產物。有人必須持續提醒社會:效率不是唯一標準。 從這個意義上說,人類知識分子如果願意調整角色,不是被人工智識分子取代,而是有機會藉助它,從“文本工人”變成“問題發明者”和“價值守門人”。 索維爾提醒讀者,要看知識分子的觀念在現實中的後果,而不是只看他們在紙面上的優雅。今天,這個提醒同樣適用於人工智識分子。 大模型可以在一瞬間寫出一篇看起來很漂亮的政策建議,也可以用流暢的語氣為任何立場辯護。關鍵問題是:誰在用這些文本?它們被用來幹什麼?它們造成了什麼長遠後果?這些後果由誰承擔? 在人類文明的長時間尺度上,人工智識分子的出現,確實像一次“破壞性創造”。它創造出一種前所未有的“知識機器”,同時在破壞舊制度、舊職業、舊安全感。人類社會正在被這股力量推着往前走,卻普遍缺乏對終點的清晰想象。 這既是風險,也是機會。如果把人工智識分子當成一股“自然力量”,一切交給技術決定論,那結果很可能是:少數掌握模型和算力的機構,獲得前所未有的知識權力,而大多數人被迫適應一個自己從未參與設計的系統。 如果把它當成一個需要被馴化、被民主化、被反覆質疑的制度性創新,人類知識分子還有很多事可做。可以重寫教育目標,可以重設職業路徑,可以參與制定 AI 治理規則,可以用文學、電影、非虛構寫作不斷提醒公眾:每一套技術系統背後,都有具體的人在受益,也有具體的人在受傷。 人工智識分子不會消失。它已經是新的常量。真正的變量,是社會如何劃分它的權力邊界,人類願不願意為此付出思考和博弈的代價。 在這場“破壞性創造”的浪潮里,那些願意堅持提問、敢於承擔責任、願意為具體的人發聲的知識分子——無論是人類的,還是在人的控制下運行的人工系統——才有可能讓文明在加速中保持方向感。
|