-
日期: 2025-05-14 | 来源: 华尔街日报 | 有0人参与评论 | 字体: 小 中 大
人工智能领域的大佬——OpenAI、Anthropic、谷歌(Google)及其他公司的领导者——仍然自信满满地预测,人工智能很快就会变得跟人类一样聪明。但持反对意见的人越来越多,声量也越来越大。他们说,人工智能压根就不会像人类这样思考。
这些研究人员的工作表明,今天的人工智能模型在底层架构上存在某种根本性限制。今天的人工智能之所以能够模拟人类的智能,从本质上说是通过学习大量经验法则来实现的,它们将这些法则有选择地应用于遇到的所有信息。
而人类乃至动物则能够以多种方式对世间万事进行推理并预测未来。我们生物体会建立“世界模型”来理解事物如何运作,包括因果关系。
许多人工智能工程师声称,他们的模型也在庞大的人工神经元网络内建立了这样的世界模型,证据是这些模型能够写出明显表现出推理能力的流畅文字。所谓“推理模型”的最新进展让一些观察人士更加确信,ChatGPT和其他公司已经达到与人类相当的能力水平,这在业内被称为AGI,也就是通用人工智能。
ChatGPT及其竞品自问世以来,大多数时候都像是神秘的黑盒子。
我们不知道它们是如何生成结果的,因为我们对它们进行的是训练而不是编程,构成这些模型人工“大脑”的大量参数以创造者捉摸不透的方式对信息和逻辑进行编码。但研究人员正在开发新工具,以便能够观察这些模型的内部。研究结果让许多人开始对这些模型接近通用人工智能的结论产生疑问。
“关于这些模型究竟在做什么,还有用来描述它们的一些拟人化语言,存在一些争议。”圣菲研究所(Santa Fe Institute)研究人工智能的教授梅兰妮·米切尔(Melanie Mitchell)说。
圣菲研究所教授梅兰妮·米切尔图片来源:KATE JOYCE/SANTA FE INSTITUTE
“启发式规则包”
探索大语言模型的新技术——属于“机械可解释性”这一不断发展的领域——能够向研究人员展现这些人工智能如何进行数学运算、学习玩游戏或在环境中导航。米切尔在最近发表的一系列文章中指出,越来越多的研究表明,可能的情况似乎是,模型会建立巨大的“启发式规则包”,而不是创建效率更高的场景心智模型,然后通过推理来完成手头的任务。(用平白的话来说,“启发式”是指解决问题的捷径。)
当哈佛大学(Harvard University)的人工智能研究者基恩·瓦法(Keyon Vafa)第一次听说“启发式规则包”理论时,“我觉得它为我解锁了一些东西,”他说。“这正是我们试图描述的东西。”- 新闻来源于其它媒体,内容不代表本站立场!
- 终于要播拳击冠军??射击女神??(图
- 善恶同享一片阳光,历史错位带来的认知差异我们不陌生| 二湘空间
- 女演员演技有多重要?看《绽放的许开心》中的张雨绮就知道了
- 温市中心格兰维尔街将改为步行街
- 自由党今天这法案 或影响现金转移
-
- 大温著名发廊 美发师都来自于日本
- 被扒的体无完肤 哈佛女孩已无法收场
- 《藏海传》后,2部大剧接档,央视领衔影帝坐镇,又有大剧能看了
- 活火山突然喷发 观光游客狂奔下山
- 楼花买不动?大温这公寓楼月卖百个
- 路面惊现大坑 大温出城这高速关闭
-
- 引发热议,美迪士尼推车辣妈爆红
- 女子被拖入加国公园树丛并遭性侵
- 做对这3件事 白头发还能"黑回去"?
- 大温这学区缺预算 很多服务已被砍
- 李在明吐槽:韩国总统办公室像坟地
- BC女子中彩票大奖后要吃最大披萨
-
- 铝钢关税翻倍 加国新车价格要上涨
- 科学家新发现"超级地球" 可能存在类地生命
- 温哥华牙医诊所 经验丰富服务全面
- 快讯:川普签公告,暂停向哈佛大学新生发放签证
- 社区女书记开车追撵女子撞伤2人被刑拘,警方通报
- 《与恶2》用好莱坞特效!杨贵媚减龄20岁「脸上都是痣」蔡振南看傻
-
目前还没有人发表评论, 大家都在期待您的高见