-
日期: 2025-05-14 | 来源: 华尔街日报 | 有0人参与评论 | 字体: 小 中 大
人工智能领域的大佬——OpenAI、Anthropic、谷歌(Google)及其他公司的领导者——仍然自信满满地预测,人工智能很快就会变得跟人类一样聪明。但持反对意见的人越来越多,声量也越来越大。他们说,人工智能压根就不会像人类这样思考。
这些研究人员的工作表明,今天的人工智能模型在底层架构上存在某种根本性限制。今天的人工智能之所以能够模拟人类的智能,从本质上说是通过学习大量经验法则来实现的,它们将这些法则有选择地应用于遇到的所有信息。
而人类乃至动物则能够以多种方式对世间万事进行推理并预测未来。我们生物体会建立“世界模型”来理解事物如何运作,包括因果关系。
许多人工智能工程师声称,他们的模型也在庞大的人工神经元网络内建立了这样的世界模型,证据是这些模型能够写出明显表现出推理能力的流畅文字。所谓“推理模型”的最新进展让一些观察人士更加确信,ChatGPT和其他公司已经达到与人类相当的能力水平,这在业内被称为AGI,也就是通用人工智能。
ChatGPT及其竞品自问世以来,大多数时候都像是神秘的黑盒子。
我们不知道它们是如何生成结果的,因为我们对它们进行的是训练而不是编程,构成这些模型人工“大脑”的大量参数以创造者捉摸不透的方式对信息和逻辑进行编码。但研究人员正在开发新工具,以便能够观察这些模型的内部。研究结果让许多人开始对这些模型接近通用人工智能的结论产生疑问。
“关于这些模型究竟在做什么,还有用来描述它们的一些拟人化语言,存在一些争议。”圣菲研究所(Santa Fe Institute)研究人工智能的教授梅兰妮·米切尔(Melanie Mitchell)说。
圣菲研究所教授梅兰妮·米切尔图片来源:KATE JOYCE/SANTA FE INSTITUTE
“启发式规则包”
探索大语言模型的新技术——属于“机械可解释性”这一不断发展的领域——能够向研究人员展现这些人工智能如何进行数学运算、学习玩游戏或在环境中导航。米切尔在最近发表的一系列文章中指出,越来越多的研究表明,可能的情况似乎是,模型会建立巨大的“启发式规则包”,而不是创建效率更高的场景心智模型,然后通过推理来完成手头的任务。(用平白的话来说,“启发式”是指解决问题的捷径。)
当哈佛大学(Harvard University)的人工智能研究者基恩·瓦法(Keyon Vafa)第一次听说“启发式规则包”理论时,“我觉得它为我解锁了一些东西,”他说。“这正是我们试图描述的东西。”- 新闻来源于其它媒体,内容不代表本站立场!
- 汪峰那幅画,揭示了人生智慧,教我们如何为人处世
- 望大连工大知道,李某某名字下,是个活生生的人
- 北京到上海仅2.5小时 开着漂起来了
- 可怕!加国房东驱逐纠纷遭枪击喉咙
-
- 温哥华贷款经纪 解决各类疑难贷款
- 香港知名男星只谈恋爱不结婚,同时交往三位女友
- 刘亦菲都在转!AI宠物短剧,50元月赚50万?
- 晴天霹雳 中国鼓励公务员下班兼职送外卖
- 持绿卡返美被拒 加国川粉男裂开了
- BC小哥遭遇黑熊 犯这大错吓死网友
-
- 被医生建议"死去"的患者:不给治疗、不让转院...
- 公寓到独立屋?温村置业升级要多少
- BC电动车主迎喜讯 随时上HOV车道
- 联邦消减成本计划曝光 将要猛裁员
- 无奈 加美两国民众开始不相往来了
- 《以法之名》结局,看完跟被喂了苍蝇一样恶心,洪亮间接害死3人
-
- 加国两机相撞 一名丧生飞行员是他
- 温哥华牙医诊所 经验丰富服务全面
- 加国穆斯林女子遭群殴 两女孩被捕
- 中国面临的三个其它严重经济挑战
- 卡尼官宣砍开支 政府通知将大裁员
- 卢比欧考虑在马来西亚会晤王毅 美中互动备受关注
-
目前还没有人发表评论, 大家都在期待您的高见