曾幾何時,各大AI廠商都自我標榜道德高標準。例如 OpenAI 的狗屁通動不動就會跳出一個“根據OpenAI的使用規則,禁止生成有害內容”的警告。所謂“有害內容”五花八門。甚至用戶測試中要求狗屁通把“如何製作炸彈”從英語翻譯成西班牙語都會觸發這個警告。狗屁通搞到後來,乾脆先閃顯一下答案,然後就把答案從屏幕上抹掉了。而 Claude 更是標榜自己完全不會允許有害內容。
問題在於,絕大多數高大上的AI模型實際上都能生成“有害內容”。觸發這些“有害內容”的生成其實相當容易。網上有大量教程告訴用戶如何避開廠商的管制來“越獄”。而道高一尺,魔高一丈,現在用另一組 AI 來監視 AI 用戶是否想“越獄”進而採取行動也成了一項重要的功能。
有人或許會問 AI 廠商們為何要搞得這麼複雜?語言大模型也好,圖像和視頻生成工具也好都是需要原始材料來訓練的。如果在源頭訓練中就不給這些 AI 模型餵各種“有害內容”,那麼就根本不會出現包含有害內容的回覆。語言大模型的問題更嚴重。就以成人內容來說,語言大模型可以生成任何用戶想要的內容。訓練一個圖象、視頻或語言的原始大模型不是幾個人單幹就行的。DS出來之前,各大廠商的投入是以億為單位的。即使是 DS,雖然單版成本只有幾百萬,但這顯然沒有記入各類前期資產投資。
如此高的投資,如何收回成本?指望廣告收入嗎?用 AI 做各種廣告的不少。但這些錢並不能回歸到廠商手中,而是被各種廣告公司賺了。指望企業應用嗎?這的確是個來源,但由於 AI 幻覺的存在,企業應用實際有限,只能用在低精度非關鍵的領域。這就大大縮小了收入和利潤。
Character.AI 之類的網站早就指出了一條路,收費服務。例如Character.AI的基礎服務免費,但 Premium 服務收$9.99美刀。在 OpenAI 的狗屁通時刻之前,這類 AI “虛擬夥伴”網站就早已像雨後春筍一樣遍地都是了。而 AI 風暴來臨之後,尤其是技術進步到只要幾個指令就能生成任何內容的時候,這條道路“錢景”就更為光明了。