[哈佛] 哈佛研究獲實錘!AI不懂因果,AGI神話破滅

然而,這些架構的每一個“調整”都是孤立地進行研究的。
可以將這些大型統計模型想象成一個擁有大量全局變量的龐大代碼庫。
從本質上講,對模型的許多這些“改進”可能會在某種程度上互不兼容,因為它們會引入副作用,從而削弱模型在其他領域的表現。

AGI遙遙無期,LLM不過是“一根筋”
這些模型只不過是統計模型。
它們無法判斷什麼是對,什麼是錯。只能通過啟發式方法來判斷什麼可能是對的,什麼可能是錯的。因此,無法通過推理來構建世界的客觀規律。
在追求類人推理機器的道路上,我們已經多次犯錯。我們現在錯了,而且可能還會再錯。
人類的推理遠比統計模型復雜得多。
我們每次都錯了!
——Yann Lecun
Loaded: 69.64%Picture-in-PicturePauseCurrent Time 0:08/Duration 0:48FullscreenMute自動播放
這就是為什麼AI需要海量的例子才能提高其在任何任務上的能力。
AI的任何成就都只是基於歷史數據的總結。沒有推理能力,就必須不斷地進行訓練才能保持相關性。
有些人會說:“但是看看所有這些強大的能力,難道它不是在推動我們更接近AGI嗎?”
不,它正在通過不同的方式實現目標。
這種區別很重要,因為徒有智能表象,而缺乏真正理解的系統,總是會遭受不可預測的失敗,這使得它們不適合用於可信賴的系統。
毫無疑問,大規模擴展統計模型所能做的事情令人印象深刻,它們也有其用途。
高級的模式匹配本質上有點像算法,但它還是靠統計數據堆出來的算法,只能處理訓練數據裡的關聯,永遠沒法在專門的訓練集和測試基准之外表現得特別優秀。
這意味著LLM將繼續改進基准測量和其他抽樣測試,與此同時,“AGI已經到來”的說法會越來越多。
但問題是,這些測試根本反映不了AI在現實中的真實水平。
當LLM實際上並不像我們以為的那樣“理解”世界時,現實環境對它來說,到處都是坑——稍不留神,它就會犯錯。
我們可以繼續擴大它們的規模,而且我們也會這樣做,但這非常低效。


分享: |
注: | 在此頁閱讀全文 |