[哈佛] 哈佛研究獲實錘!AI不懂因果,AGI神話破滅
我們離人類智能水平的AI還遠嗎?
如果你問OpenAI、Anthropic、Google等頂尖AI公司的CEO,他們肯定是信心滿滿,認為就在眼前。
但現實是,越來越多的人認為,AI的思維方式跟人類完全不同。
研究者們發現,如今的AI模型在底層架構上就存在根本性的局限。
AI本質上是通過學習海量的經驗規則,然後把這些規則套用到它們所接觸到的信息上,進而模擬智能。
這與人類,甚至動物對世界的理解方式大不相同。
生物體會構建一個關於世界是如何運轉的“世界模型”,這裡面會包含因果關系,能讓我們預測未來。
很多AI工程師會宣稱,他們的模型也在其龐大的人工神經網絡中構建出了類似的“世界模型”。
證據是這些模型能夠寫出流暢的文章,並能表現出明顯的推理能力。
尤其是最近推理模型取得的進展,更加讓人相信我們已經走在了通向AGI的正確道路上。
然而,近期的一些研究讓我們可以從內部窺探一些模型的運行機制,結果讓人懷疑我們是否真的在接近AGI。
“關於這些模型到底在幹什麼,以及人們用來描述它們的那些擬人化說法(比如『學習』、『理解』之類的),現在爭議挺大的。”Santa Fe研究所研究AI的教授Melanie Mitchell說。

Melanie Mitchell,Santa Fe研究所教授
一堆經驗法則
Mitchell認為,越來越多的研究表明,這些模型似乎發展出了海量的“經驗法則”,而不是構建更高效的心理模型來理解情境,然後通過推理完成任務。
哈佛大學的AI研究員Keyon Vafa首次聽到“一堆經驗法則”這個提法時表示“感覺一下子點醒了我——這就是我們一直想描述的東西。”
Vafa的研究試圖搞清楚:當AI被輸入數百萬條類似谷歌地圖的逐步導航指令後,會構建出怎樣的認知地圖。他和團隊以曼哈頓錯綜復雜的街道網絡作為測試樣本。
結果呢,AI畫的看起來根本不像曼哈頓的街道地圖。
仔細檢查發現,AI竟然推演出各種離譜路線——比如橫穿中央公園的直線,或者斜著連跨好幾個街區。
但詭異的是,這個模型給出的分步導航指令在99%的情況下居然能用。



分享: |
注: | 在此頁閱讀全文 |