| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

新闻资讯

论坛

温哥华地产

大温餐馆点评

温哥华汽车

温哥华教育

黄页/二手

旅游

人类正走进高度不确定未来 AI教父最深层恐惧


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
被誉为“人工智能教父”的辛顿(Geoffrey Hinton),今年稍早接受美国新闻节目 60 Minutes 专访,深入谈论人工智能(AI)的发展原理、潜在风险与他个人的反思。 尽管这场访谈距今已约四个月,但在生成式 AI 能力持续跃进的背景下,相关观点近期再度被频繁引用,也让当时的警告显得更具现实意义。


长期孤军研究,奠定深度学习基础

辛顿在节目中回顾自己自1970年代投入人工神经网络研究的历程。 当年主流学界多半不看好以神经网络模拟人脑运作的方向,但他仍选择长期投入,最终奠定现代深度学习的技术基础。 这项贡献也让他在2019年与其他两位学者共同获得图灵奖,被视为AI发展史上的关键人物。


不是写规则,而是设计学习方式

谈到 AI 的学习方式,辛顿强调,人类并非为机器逐条撰写行为规则,而是设计“学习演算法”,再透过回馈与试错机制,让系统自行调整内部链接。 他形容,这更像是在制定演化的规则,而非编写一份完整的作说明书。 随着模型与大量数据互动,最终形成的神经网络结构高度复杂,甚至连设计者本身,也难以完全理解其内部运作。

AI 是否真的“理解”世界?

对于 AI 是否具备理解与推理能力,辛顿在访谈中表态相当明确。 他认为,近年大型语言模型在多步推理与规划任务上的表现,已超越单纯的文字接龙。 他也以GPT-4解决复杂逻辑问题的案例为例,指出这类系统已展现出某种程度的理解与决策能力。


最大忧虑:AI可能脱离人类控制

不过,辛顿同时也对 AI 的长期风险表达深切忧虑。 他指出,未来若 AI 能自行撰写并修改程式码,甚至优化自身结构,将可能逐步摆脱人类原本设定的控制框架。 此外,AI若全面吸收人类历史中的政治、心理与权术知识,可能在说服与纵人类行为上展现极高效率,进而影响民主制度与社会秩序。

在社会层面,辛顿也点出多项潜在冲击,包括就业结构剧烈变动、假信息扩散、算法偏见,以及自主武器系统进入战场的风险。 他警告,当 AI 在智慧与决策能力上全面超越人类时,带来的将不只是产业调整问题,而是攸关整体人类社会存续的挑战。


没有保证安全的答案

对于未来该如何因应,辛顿坦言,目前看不到一条能保证绝对安全的明确道路。 他呼吁各国政府应更积极介入监管,特别是在军事应用领域,应透过国际条约限制自主武器的发展,并投入更多研究理解AI的行为与风险。

尽管这场专访播出已有数月,但随着 AI 技术持续加速演进,辛顿当时提出的多项警告并未随时间淡化,反而在现实发展中不断被重新检视,也让这场访谈至今仍具高度讨论与参考价值。


点个赞吧!您的鼓励让我们进步     无评论不新闻,发表一下您的意见吧
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0219 秒 and 5 DB Queries in 0.0044 秒