[哈佛] 哈佛研究獲實錘!AI不懂因果,AGI神話破滅

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
似乎每個問題都已經有了解決方案,而所有這些研究成果被整合到模型中只是時間問題。



然而,這些架構的每一個“調整”都是孤立地進行研究的。


可以將這些大型統計模型想象成一個擁有大量全局變量的龐大代碼庫。

從本質上講,對模型的許多這些“改進”可能會在某種程度上互不兼容,因為它們會引入副作用,從而削弱模型在其他領域的表現。



AGI遙遙無期,LLM不過是“一根筋”

這些模型只不過是統計模型。

它們無法判斷什麼是對,什麼是錯。只能通過啟發式方法來判斷什麼可能是對的,什麼可能是錯的。因此,無法通過推理來構建世界的客觀規律。

在追求類人推理機器的道路上,我們已經多次犯錯。我們現在錯了,而且可能還會再錯。

人類的推理遠比統計模型復雜得多。

我們每次都錯了!

——Yann Lecun


Loaded: 69.64%Picture-in-PicturePauseCurrent Time 0:08/Duration 0:48FullscreenMute自動播放

這就是為什麼AI需要海量的例子才能提高其在任何任務上的能力。

AI的任何成就都只是基於歷史數據的總結。沒有推理能力,就必須不斷地進行訓練才能保持相關性。

有些人會說:“但是看看所有這些強大的能力,難道它不是在推動我們更接近AGI嗎?”


不,它正在通過不同的方式實現目標。

這種區別很重要,因為徒有智能表象,而缺乏真正理解的系統,總是會遭受不可預測的失敗,這使得它們不適合用於可信賴的系統。

毫無疑問,大規模擴展統計模型所能做的事情令人印象深刻,它們也有其用途。

高級的模式匹配本質上有點像算法,但它還是靠統計數據堆出來的算法,只能處理訓練數據裡的關聯,永遠沒法在專門的訓練集和測試基准之外表現得特別優秀。

這意味著LLM將繼續改進基准測量和其他抽樣測試,與此同時,“AGI已經到來”的說法會越來越多。

但問題是,這些測試根本反映不了AI在現實中的真實水平。

當LLM實際上並不像我們以為的那樣“理解”世界時,現實環境對它來說,到處都是坑——稍不留神,它就會犯錯。

我們可以繼續擴大它們的規模,而且我們也會這樣做,但這非常低效。
覺得新聞不錯,請點個贊吧     無評論不新聞,發表一下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文

    猜您喜歡

    您可能也喜歡

    當前評論

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *:
    安全校驗碼 *:
    請在此處輸入圖片中的數字
    The Captcha image
      (請在此處輸入圖片中的數字)

     
    Copyright © 加西網, all rights are reserved.

    加西網為北美中文網傳媒集團旗下網站