温哥华Lipont Place力邦艺术港:活动场地租赁,拍摄场地租赁!

人工智能有个严重问题:它说不清自己为啥这么牛

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
  我们之前从未开发过连它的创造者都无法完全理解的机器。我们能否与这些无法预测、无法理解的机器展开顺畅的沟通,保持和睦的关系?带着这些问题,我开始研究谷歌、苹果和很多公司的人工智能算法,还找到了一位当今时代最伟大的哲学家。

  医学尝试

  2015年,纽约西奈山医院(Mount Sinai Hopital)决定用深度学习分析该院庞大的病历数据。这个数据集里包含病人的数百个变量,都来自他们的检测结果、医生面诊等环节。由此催生了一个名为Deep Patient的项目,它利用70万病人的数据进行训练,然后对新的病例展开测试:结果显示,它在预测疾病方面表现十分优异。


  在没有任何专家指导的情况下,Deep Patient挖掘了隐藏在医院数据中的各种模式,甚至可以借此了解人们何时有可能患上肝癌等各种疾病。在西奈山医院负责这个项目的乔尔?杜德利(Joel Dudley)表示,有很多方法都很适合通过病例来预测疾病。但他也补充道,“这种方法效果好很多。”

  与此同时,Deep Patient也有些令人疑惑。他在预测精神分裂症等精神疾病方面的表现出奇得好,但由于精神内科医生向来很难预测精神分裂,所以杜德利想知道,这套系统究竟是如何做到的。

  他至今没有找到答案,这套新系统没有透露出任何理由。如果想让Deep Patient真正为医生提供帮助,最理想的情况就是阐述这种预测背后的逻辑,确保整个过程精确且有事实依据----例如,医生给某人开具的处方药物是否发生了某种变化。“我们可以开发这种模型,”杜德利说,“但却并不知道它是如何工作的。”

  人工智能并非总是如此。最初,关于可以理解、可以解释的人工智能应该是什么样子,出现了两派观点。

  很多人认为,最有意义的机器应该根据规则和逻辑做出判断,这样一来,任何愿意了解代码的人都可以理解它的内部工作原理。


  还有人认为,如果机器从生物学领域获得启发,通过观察和经验来学习,就更容易实现智能。这就意味着把编程任务交给机器自己来完成。解决问题时,不再需要程序员编写命令,而是由程序根据样本数据和渴望的输出结果来自主生成算法。已经成为当今最强大人工智能系统的机器学习技术就遵循了后一条道路:本质上是由机器自主编程。

  这种算法起初的实际应用范围非常有限,在1960和1970年代,还仅限于一些边缘领域。之后,很多行业的电脑化普及和大型数据集的涌现重新点燃了人们的兴趣。这也推动了更加强大的机器学习技术的发展,尤其是新一代的人工神经网络。到1990年代末,神经网络已经可以自动对手写字母进行数字化处理。

  但直到这个十年初期,经过了一系列聪明的调整和提炼之后,真正大规模----或者真正“深度”----的神经网络才在自动感知领域实现了重大提升。如今的人工智能爆发都要归功于深度学习,它为计算机赋予了无与伦比的力量,包括实现与人类相似的口语能力,这种技术非常复杂,根本无法通过手动编程来实现。深度学习还改变了计算机视觉,并大幅提升了机器翻译效果。它现在可以用于引导医疗、金融、生产等各个领域的关键决策。


  黑盒效应

  与手动编码的系统相比,机器学习技术的工作方式天生就很模糊,即便是对计算机科学家来说也同样如此。这并不意味着未来的所有人工智能技术都会同样难以理解。但从特性上看,深度学习的确像是一个“黑盒子”。

  你无法通过直接研究深度神经网络来了解它的工作模式。神经网络得出的推论,嵌入在成千上万个模拟神经元的行为之中,它们组成了数十甚至数百个杂乱相连的不同层次。第一层的每个神经元都负责接收输入信息,例如一个图像中某个像素的强度,然后通过计算来输出新的信号。在复杂的网络中,这些输出结果会进一步成为下一层神经元的输入信息,如此往复,直到生成整体输出结果。

  另外,还有一个被称作反向传播的过程,可以通过调整个别神经元的计算让神经网络学会生成期望的输出结果。

  因为深度网络有那么多层,所以可以从不同的抽象层面认识事物。例如,在一套专门为了识别狗而打造的系统中,底层神经元可以识别轮廓或颜色等简单的元素,较高层次的神经元则识别皮毛或眼睛等更加复杂的元素,最顶层则负责识别狗这个整体。简单来说,同样的方法也可以用于处理其他任务,从而让机器实现自学,包括说话时构成语音的声音,在文本中构成句子的字母和单词,或者开车时转动方向盘的动作。
不错的新闻,我要点赞     好新闻没人评论怎么行,我来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文

    猜您喜欢

    您可能也喜欢

    当前评论

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *:
    安全校验码 *:
    请在此处输入图片中的数字
    The Captcha image
      (请在此处输入图片中的数字)

    Copyright © 加西网, all rights are reserved.

    加西网为北美中文网传媒集团旗下网站