您已被授予存取權限,請使用鍵盤繼續閱讀。
客座隨筆

收聽本文 · 8 分 26 秒了解更多
經過加里·馬庫斯
馬庫斯先生是兩家人工智慧公司的創辦人,也是六本關於自然和人工智慧書籍的作者。
OpenAI 最新的人工智慧系統 GPT-5 預計將改變遊戲規則,它是數十億美元投資和近三年研發的結晶。該公司執行長 Sam Altman 暗示,GPT-5 可能相當於通用人工智慧(AGI)——一種與人類專家一樣聰明和靈活的人工智慧。
相反,正如我所寫,該模型未能達到預期。發布後的幾個小時內,批評者就發現了各種令人困惑的錯誤:它無法解答一些簡單的數學問題,無法準確計數,有時還會對一些老謎語給出荒謬的答案。與其前輩一樣,這款人工智慧模型仍然會產生幻覺(儘管發生率較低),其可靠性也備受質疑。儘管有些人對此印象深刻,但很少有人將其視為巨大的飛躍,也沒有人相信它是通用人工智慧 (AGI)。許多用戶要求恢復舊模型。
GPT-5 向前邁進了一步,但距離許多人預期的人工智慧革命還相去甚遠。對於那些在這項技術上投入大量資金的公司和投資人來說,這無疑是個壞消息。這也要求政府重新檢視那些建立在過高預期之上的政策和投資。目前僅追求人工智慧規模擴張的策略在科學、經濟和政治層面都存在嚴重缺陷。從監管到研究策略,許多方面都必須重新思考。其中的關鍵之一或許是以認知科學為靈感,對人工智慧進行訓練和開發。
從根本上來說,像奧特曼先生、Anthropic 首席執行官達裡奧·阿莫迪 (Dario Amodei)以及無數其他科技領袖和投資者這樣的人,過於相信一種名為“擴展”的推測性且未經證實的假設:即認為使用越來越多的數據和越來越多的硬體來訓練人工智能模型,最終將產生通用人工智能 (AGI),甚至是超越人工智能。
然而,正如我在2022年的文章《深度學習正在遭遇瓶頸》中所警告的那樣,所謂的縮放定律並非像引力那樣的宇宙物理定律,而是基於歷史趨勢的假設。 GPT-5等系統所依賴的大型語言模型,只不過是強化版的統計反芻機器,因此它們將繼續在真相、幻覺和推理上遇到問題。縮放並不能讓我們達到通用人工智慧的聖杯。
現在看來我是對的。大型語言模型透過學習大量人類文本資料庫來訓練生成文本,而向其中添加更多資料只能在一定程度上提升它們的表現。即使規模大幅擴大,它們仍然無法完全理解所接觸到的概念——這就是為什麼它們有時會答錯問題,或產生極其錯誤的圖畫。
ChatGPT 真是個好老師。我學到了很多關於汽車的知識。 pic.twitter.com /GBEDIrfeys— Gary Marcus (@GaryMarcus) 2025年8月28日
是的,這次輔導真的非常棒。 pic.twitter.com /aMM03VzJhd— Gary Marcus (@GaryMarcus) 2025年8月28日
擴展一度奏效;前幾代 GPT 模型與前代相比取得了令人矚目的進步。但在過去的一年裡,好運開始耗盡。馬斯克先生於 7 月發布的 AI 系統 Grok 4,其訓練量是 Grok 2 的 100 倍,但只是略勝一籌。 Meta 的巨型 Llama 4 模型比其前代模型大得多,大多數人也將其視為失敗。正如許多人現在所看到的,GPT-5 明確表明,擴展已失去動力。
通用人工智慧 (AGI) 在 2027 年實現的可能性現在看來微乎其微。政府讓人工智慧公司過著幾乎零監管的幸福生活。現在,政府應該制定立法,解決那些不公平地轉嫁給公眾的成本和危害——從虛假資訊到深度偽造、人工智慧低劣內容、網路犯罪、版權侵權、心理健康和能源消耗。
此外, 政府和投資者應大力支持規模化以外的研究投資。認知科學(包括心理學、兒童發展、心靈哲學和語言學)告訴我們,智能不僅僅是統計上的模仿,還提出了三個有前景的思路,用於開發可靠到值得信賴、智能更加豐富的人工智慧。
首先,人類不斷地建構和維護關於世界的內在模型——或者說世界模型——關於他們周圍的人和事物以及事物運作的方式。例如,當你閱讀一本小說時,你會在腦海中形成一種資料庫,記錄每個角色是誰以及他或她代表什麼。這可能包括角色的職業、他們之間的關係、他們的動機和目標等等。在奇幻或科幻小說中,世界模型甚至可能包含新的物理定律。
生成式人工智慧的許多缺陷都可以歸因於未能從訓練資料中提取合適的世界模型。
這解釋了為什麼最新的大型語言模型無法完全理解國際象棋的運作方式。因此,無論經過多少場棋局訓練,它們都傾向於走非法棋步。我們需要的系統不僅僅是模仿人類語言;我們需要能夠理解世界,從而進行更深入推理的系統。如何建構以世界模式為中心的新一代人工智慧系統應該成為研究的重點。谷歌DeepMind和李飛飛的世界實驗室正朝著這個方向邁進。
其次,機器學習領域(它為大型語言模型提供了動力)喜歡讓人工智慧系統透過從網路上抓取數據,從零開始學習所有東西,沒有任何內建機制。
但正如史蒂芬·平克、伊麗莎白·斯佩爾克和我等認知科學家所強調的那樣,人類思維天生就具備一些關於世界的核心知識,這些知識使我們能夠掌握更複雜的概念。
建構時間、空間和因果關係等基本概念,或許能讓系統更好地將遇到的數據組織成更豐富的起點,可能帶來更豐富的結果。 (Verses AI在電子遊戲中對物理和感知理解的研究就是朝著這個方向邁出的一步。)
最後,目前的範式採取了一種「一刀切」的方法,依賴單一的認知機制——大型語言模型——來解決所有問題。
但我們知道,人類思維會使用許多不同的工具來解決不同類型的問題。例如,著名心理學家丹尼爾·卡尼曼認為,人類會使用一種思維系統——這種系統快速、反射性和自動化,主要受經驗統計數據驅動,但比較膚淺且容易出錯——以及另一種系統——這種系統更多地受抽象推理和深思熟慮的驅動,但速度緩慢且費力。大型語言模型與第一種系統有點像,它試圖用單一的統計方法解決所有問題,但結果卻不可靠。
我們需要一種更接近卡尼曼所描述的新方法。這種方法可能以神經符號人工智慧的形式出現,它將統計驅動的神經網路(大型語言模型由此而來)與一些較老的符號人工智慧理念連接起來。符號人工智慧本質上更抽象、更具審議性;它透過從邏輯、代數和電腦程式設計中獲取線索來處理資訊。我一直主張將這兩種傳統結合起來。我們越來越多地看到像亞馬遜和谷歌 DeepMind這樣的公司採用這種混合方法。 (甚至 OpenAI 似乎也在悄悄地做一些這方面的工作。)到 2020 年,神經符號人工智慧很可能會超越純粹的擴展。
大型語言模型確實有其用途,尤其是在編碼、寫作和腦力激盪等人類仍然直接參與的領域。但無論我們將它們建構得多麼龐大,它們都從未值得我們信任。為了建構我們真正值得信賴的人工智慧,並有機會實現通用人工智慧 (AGI),我們必須擺脫規模化的束縛。我們需要新的思路。
回歸認知科學或許是這條旅程的下一個合乎邏輯的階段。
更多關於人工智慧









沒有留言:
張貼留言
注意:只有此網誌的成員可以留言。