| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

新闻资讯

论坛

温哥华地产

大温餐馆点评

温哥华汽车

温哥华教育

黄页/二手

旅游

哈佛: 哈佛研究获实锤!AI不懂因果,AGI神话破灭

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
尽管LLM看似能够进行流畅推理和问题解答,但它们背后的思维链其实只是复杂的统计模式匹配,而非真正的推理能力。AI模型仅仅通过海量数据和经验法则来生成响应,而不是通过深刻的世界模型和逻辑推理来做决策。


我们离人类智能水平的AI还远吗?

如果你问OpenAI、Anthropic、Google等顶尖AI公司的CEO,他们肯定是信心满满,认为就在眼前。


但现实是,越来越多的人认为,AI的思维方式跟人类完全不同。

研究者们发现,如今的AI模型在底层架构上就存在根本性的局限。

AI本质上是通过学习海量的经验规则,然后把这些规则套用到它们所接触到的信息上,进而模拟智能。

这与人类,甚至动物对世界的理解方式大不相同。

生物体会构建一个关于世界是如何运转的“世界模型”,这里面会包含因果关系,能让我们预测未来。

很多AI工程师会宣称,他们的模型也在其庞大的人工神经网络中构建出了类似的“世界模型”。

证据是这些模型能够写出流畅的文章,并能表现出明显的推理能力。

尤其是最近推理模型取得的进展,更加让人相信我们已经走在了通向AGI的正确道路上。

然而,近期的一些研究让我们可以从内部窥探一些模型的运行机制,结果让人怀疑我们是否真的在接近AGI。


“关于这些模型到底在干什么,以及人们用来描述它们的那些拟人化说法(比如『学习』、『理解』之类的),现在争议挺大的。”Santa Fe研究所研究AI的教授Melanie Mitchell说。



Melanie Mitchell,Santa Fe研究所教授

一堆经验法则


Mitchell认为,越来越多的研究表明,这些模型似乎发展出了海量的“经验法则”,而不是构建更高效的心理模型来理解情境,然后通过推理完成任务。

哈佛大学的AI研究员Keyon Vafa首次听到“一堆经验法则”这个提法时表示“感觉一下子点醒了我——这就是我们一直想描述的东西。”

Vafa的研究试图搞清楚:当AI被输入数百万条类似谷歌地图的逐步导航指令后,会构建出怎样的认知地图。他和团队以曼哈顿错综复杂的街道网络作为测试样本。

结果呢,AI画的看起来根本不像曼哈顿的街道地图。

仔细检查发现,AI竟然推演出各种离谱路线——比如横穿中央公园的直线,或者斜着连跨好几个街区。

但诡异的是,这个模型给出的分步导航指令在99%的情况下居然能用。


不错的新闻,我要点赞     无评论不新闻,发表一下您的意见吧
上一页123456下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0350 秒 and 3 DB Queries in 0.0010 秒