溫哥華Lipont Place力邦藝術港:活動場地租賃,拍攝場地租賃!

[哈佛] 哈佛研究獲實錘!AI不懂因果,AGI神話破滅

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
盡管LLM看似能夠進行流暢推理和問題解答,但它們背後的思維鏈其實只是復雜的統計模式匹配,而非真正的推理能力。AI模型僅僅通過海量數據和經驗法則來生成響應,而不是通過深刻的世界模型和邏輯推理來做決策。

我們離人類智能水平的AI還遠嗎?

如果你問OpenAI、Anthropic、Google等頂尖AI公司的CEO,他們肯定是信心滿滿,認為就在眼前。


但現實是,越來越多的人認為,AI的思維方式跟人類完全不同。

研究者們發現,如今的AI模型在底層架構上就存在根本性的局限。

AI本質上是通過學習海量的經驗規則,然後把這些規則套用到它們所接觸到的信息上,進而模擬智能。

這與人類,甚至動物對世界的理解方式大不相同。

生物體會構建一個關於世界是如何運轉的“世界模型”,這裡面會包含因果關系,能讓我們預測未來。

很多AI工程師會宣稱,他們的模型也在其龐大的人工神經網絡中構建出了類似的“世界模型”。

證據是這些模型能夠寫出流暢的文章,並能表現出明顯的推理能力。

尤其是最近推理模型取得的進展,更加讓人相信我們已經走在了通向AGI的正確道路上。

然而,近期的一些研究讓我們可以從內部窺探一些模型的運行機制,結果讓人懷疑我們是否真的在接近AGI。


“關於這些模型到底在幹什麼,以及人們用來描述它們的那些擬人化說法(比如『學習』、『理解』之類的),現在爭議挺大的。”Santa Fe研究所研究AI的教授Melanie Mitchell說。



Melanie Mitchell,Santa Fe研究所教授

一堆經驗法則


Mitchell認為,越來越多的研究表明,這些模型似乎發展出了海量的“經驗法則”,而不是構建更高效的心理模型來理解情境,然後通過推理完成任務。

哈佛大學的AI研究員Keyon Vafa首次聽到“一堆經驗法則”這個提法時表示“感覺一下子點醒了我——這就是我們一直想描述的東西。”

Vafa的研究試圖搞清楚:當AI被輸入數百萬條類似谷歌地圖的逐步導航指令後,會構建出怎樣的認知地圖。他和團隊以曼哈頓錯綜復雜的街道網絡作為測試樣本。

結果呢,AI畫的看起來根本不像曼哈頓的街道地圖。

仔細檢查發現,AI竟然推演出各種離譜路線——比如橫穿中央公園的直線,或者斜著連跨好幾個街區。

但詭異的是,這個模型給出的分步導航指令在99%的情況下居然能用。


您的點贊是對我們的鼓勵     這條新聞還沒有人評論喔,等著您的高見呢
上一頁123456下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文

    猜您喜歡

    您可能也喜歡

    當前評論

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *:
    安全校驗碼 *:
    請在此處輸入圖片中的數字
    The Captcha image
      (請在此處輸入圖片中的數字)

    Copyright © 加西網, all rights are reserved.

    加西網為北美中文網傳媒集團旗下網站