舒暢:先進的人工智能是雙面刃 xx,你說的對,你轉發給我的視頻中,那位女性不知道從哪裡道聽途說來的,馬斯克並不是計算機方面的專家,從未獲得過圖靈獎。  
圖靈獎是計算機科學領域的最高榮譽,通常被視為計算機科學界的“諾貝爾獎”,頒給那些在計算機基礎理論、核心算法和原創性研究等方面做出根本性貢獻的科學家,而不是馬斯克這樣的企業家。雖然他是非常傑出的企業家,但他不是計算機科學家,也不可能、從未獲得過圖靈獎。 至於他後面提到的大部分內容,雖然不太精準,但仍可作為普及資料,提醒人們人工智能是一把雙刃劍。 作為現代人工智能發展的奠基人物之一,Geoffrey Hinton對AI的未來表達了深切的擔憂。作為神經網絡和機器學習理論的先驅,他不僅獲得了2024年的諾貝爾物理學獎,還明確指出人工智能可能在未來幾十年內達到或超過人類智能水平,但他警告,正因為AI發展迅速,這可能帶來無法預測的風險。他因此選擇離開大型科技公司,以便更自由地討論這些問題。可以說,他是最早呼籲推動更嚴格的全球AI安全研究和治理措施的先驅者。 2025年,很多科學家,包括諾貝爾獎得主和人工智能領域的頂尖研究者,向聯合國表達了對人工智能未來發展的關切。這些關切並非無的放矢,主要集中在以下幾方面: 失控風險:隨着人工智能系統複雜度不斷上升,它們具備自我學習、自我優化能力後,一旦目標設定出現偏差,人類可能不再具備真正的控制能力。這不是科幻,而是複雜系統安全工程中必須正視的問題。 權力集中問題:如果先進的AI技術集中在少數國家、機構或企業手中,這可能導致前所未有的權力不對稱,形成技術壟斷,不僅改變全球政治結構,還可能加劇社會不公平。我個人認為,這一點應該進一步強調:AI技術本身並不邪惡,但它是否會成為邪惡的武器——試想如果AI技術被希特勒這樣的獨裁者推廣和使用,甚至用來監督和鎮壓民眾以維護統治,那麼人工智能就會成為最危險的武器——獨裁者的幫凶!我覺得很奇怪,為什麼科學家們沒有提到這一點,也許這是一個政治問題,太難解決。試想,如果一個獨裁國家掌握先進AI技術,那豈不是讓它可以更加為所欲為? 社會系統破壞風險:人工智能在信息生成、輿論引導、深度偽造等方面的能力,可能系統性削弱社會信任基礎,使真假難辨成為常態,從而衝擊社會運行機制。 軍事化與武器化風險:當人工智能深度嵌入軍事系統、自主武器與戰爭決策鏈條時,算法系統可能獲得部分“生死決策權”,在倫理與安全層面有極其嚴肅的含義。 如果獨裁者那是過去啊掌握了先進的AI技術並且用來鞏固他的統治那這個問題就非常難以解決了(甚至我認為幾乎無法解決)。記得那一年,中國有一個年輕科學家——賀建奎(He Jiankui),宣布利用 CRISPR‑Cas9 基因編輯技術 修改人類胚胎的DNA,據稱創造了世界上首例“基因編輯嬰兒”。這一宣布立即在全球科學界和公眾中引發倫理震盪和強烈批評,因為試驗缺乏充分監管、醫學必要性和倫理審批。所以我最擔心的是,如果在某種制度下的國家,統治者為了自身利益,不重視國際法則,進行違背國際原則的研究,這是最可怕的。
|