温哥华Lipont Place力邦艺术港:活动场地租赁,拍摄场地租赁!

人工智能有个严重问题:它说不清自己为啥这么牛

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
  虽然人工智能可以解决很多问题,但由于这种技术存在“黑盒子”问题,因此没有一个人能够确切知道它的内部运作方式,因而可能引发严重问题。

  

  虽然人工智能可以解决很多问题,但由于这种技术存在“黑盒子”问题,因此没有一个人能够确切知道它的内部运作方式,因而可能引发严重问题。


  去年,一辆古怪的无人驾驶汽车开上了新泽西州蒙茅斯郡宁静的道路。这辆实验用车是由芯片制造商英伟达开发的,它的外观与其他无人驾驶汽车别无二致,但与谷歌(微博)、特斯拉和通用汽车展示的系统不同,这辆汽车证明了人工智能的强大能量。

  它并没有遵循工程师提供的任何指令,而是通过观察人类司机的驾驶方式,完全依赖算法自学成才。

  让一辆汽车自学成才确实令人惊喜,但也带来了一丝不安,因为我们并不完全清楚它是如何制定决策的。车身传感器收集的信息会直接传输到巨大的人工神经网络,在那里处理数据,然后生成相应的指令,引导汽车操纵方向盘、刹车和其他系统。

  最终的结果似乎符合你对一个人类驾驶员的预期。但如果它有朝一日做出什么令人意外的举动,比如撞到路边的树木,或在绿灯前停止不动,那该如何是好?

  以现在的情况来看,可能很难找出背后的原因。人工智能系统十分复杂,就连设计它的工程师都难以分辨某个具体行动背后的逻辑。你又不能直接向它询问原因:目前还没有一种明确的方式可以设计出这样的系统,从而随时解释它每一步行动背后的原因。


  这种汽车的神奇思维引出了人工智能领域的一个若隐若现的问题。这辆汽车的底层采用了名为深度学习的人工智能技术,最近几年的许多研究都表明,这项技术很擅长解决很多问题,而且已经广泛部署在图像说明、语音识别、语言翻译等诸多领域领域。还有人希望用同样的技术诊断恶性疾病,制定数百亿美元的交易策略,甚至通过数不清的其他方式改变一个又一个的行业。

  但除非你找到一种方式,让它的开发者充分理解深度学习技术,并对用户肩负起应负的责任,否则这翻畅想就无法实现----或者说,不应该实现。如若不然,就很难预测何时出现问题----毕竟,按照目前的设计,这些系统肯定会出现问题。但英伟达之所以仍在测试,却有它自己的原因。


  各种各样的数学模型已经可以帮助人们在假释、放贷和招聘领域制定决策。如果你可以评估这些数学模型,那就有可能理解它们背后的逻辑。但银行、军队和雇主现在都把精力转向了更加复杂的机器学习方法,使得自动化决策流程变得完全无法理解。

  作为其中最常见的一种技术,深度学习与以往的计算机编程截然不同。“这个问题已经凸显出来,今后还将越来越受重视。”麻省理工学院机器学习应用教授多米?加考拉(Tommi Jaakkola)说,“无论是投资决策、医疗决策还是军事决策,你肯定都不希望把权力交给一个‘黑盒子’。”

  有人认为,向人工智能系统质问其结论背后的原因是一项合法的基本权利。从2018年夏天开始,欧盟可能就会要求相关企业具备相应的能力,以便向用户解释自动化系统的决策理由。这或许难以实现,即便是对那些表面看来相对简单的系统也同样如此,包括那些使用深度学习技术投放广告和推荐歌曲的应用和网站。

  这些服务所使用的电脑采用了自我编程模式,外界无法理解它们的行为方式。就连负责开发这些应用的工程师也无法解释它们的行为。

  这便引发了许多难以置信的问题。随着科技不断进步,我们可能很快就会跳过某个门槛,到那时,必须要给予人工智能极大的信任才能顺利使用这些系统。诚然,人类很多时候也无法解释我们自己的思维过程----但我们却可以通过各种各样的方式利用直觉来信任或评价他人。但对于这些思维和决策方式都不同于人类的机器来说,有没有可能实现这一点呢?
觉得新闻不错,请点个赞吧     好新闻没人评论怎么行,我来说几句
上一页1234下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文

    猜您喜欢

    您可能也喜欢

    当前评论

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *:
    安全校验码 *:
    请在此处输入图片中的数字
    The Captcha image
      (请在此处输入图片中的数字)

    Copyright © 加西网, all rights are reserved.

    加西网为北美中文网传媒集团旗下网站