| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

人類可以放心了 Meta首席科學家這樣說大模型

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
北京時間5月23日,Meta首席人工智能科學家、深度學習先驅楊立昆(Yann LeCun)表示,ChatGPT等生成式AI產品背後的大語言模型永遠無法實現像人類一樣的推理和規劃能力。相反,他專注於一種激進的替代方法,在機器中創造“超級智能”。


楊立昆表示,大語言模型“對邏輯的理解非常有限……不了解物理世界,沒有持久的記憶,不能以任何合理的術語定義來推理,也無法進行層次化的規劃”。

他在接受英國《金融時報》采訪時表示,不要依靠先進的大語言模型來追求人類水平的智力,因為這些模型只有在獲得正確訓練數據的情況下才能准確回答提示,因此“本質上是不安全的”。


眼下,楊立昆正在努力開發全新一代的AI系統,希望這些系統能夠為機器提供人類水平的智力,盡管他表示這一願景可能需要10年才能實現。他在Meta基礎AI研究實驗室(Fair)領導者著一個大約500人的團隊。他們正致力於創造能夠具備常識,像人一樣學習世界運作方式的AI,這種方法被稱為“世界建模”。

不過,一些專家對於楊立昆的願景表示懷疑。杜蘭大學計算機科學副教授阿隆·庫洛塔(Aron cullotta)表示,長期以來,常識一直是“AI的眼中釘”,教授模型因果關系具有挑戰性,使得它們“容易受到這些意想不到的失敗的影響”。


Meta的一名前AI員工將“世界建模”努力描述為“模糊不清的東西”,“感覺就像宣示領地。”另一名現任員工表示,Fair尚未證明自己是DeepMind等研究機構的真正競爭對手。




圖注:楊立昆Yann LeCun

但是,楊立昆認為,從長遠來看,這項技術將能夠驅動AI代理,後者可以通過可穿戴技術(包括增強現實或智能眼鏡)和肌電“手鏈”等與用戶互動。“AI代理要想真正有用,它們需要具備類似於人類水平的智力。”他表示。
點個贊吧!您的鼓勵讓我們進步     好新聞沒人評論怎麼行,我來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0331 秒 and 8 DB Queries in 0.0025 秒