| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

新闻资讯

论坛

温哥华地产

大温餐馆点评

温哥华汽车

温哥华教育

黄页/二手

旅游

为什么机器人必须学会拒绝人类?

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
  未来的人工智能机器人必须学会拒绝人类的不当指令。这个观点可能会让很多人感到意外,但是我们不必对此感到不安。因为,如果做不到这一点,那么恶意指令,或是对指令的错误理解可能使得人工智能成为人类真正的威胁。


  在接管了宇宙飞船之后,HAL用冷静的声音拒绝了一名宇航员的指令:“很抱歉,戴夫,我觉得我不能这样做。”

  在近期的科幻惊悚片《机械姬》中,机器人艾娃诱骗一名倒霉的男子协助摧毁自己的制造者纳桑。


  她的诡计证实了纳桑的黑暗预言:“未来某天,人工智能回头看我们的样子就像是我们今天回头看非洲大草原上化石骨骼的样子。我们就像是生活在灰尘中的直立猿人,讲着粗鲁的语言,使用工具,濒临灭绝。”

  

  尽管在流行文化中,关于机器人末日的描绘经久不衰,但我们的研究团队更多地关注人工智能对日常生活有何影响。

  在即将来临的未来中,有用、具备合作能力的机器人会在多种场景中与人类互动。

  基于语音命令的个性化机器人助手的原型产品已经出现,它们可以关联并监控个人电子设备,管理家中的门锁、照明和空调,甚至为入睡前的儿童讲故事。

  能够协助做家务事,照顾老弱病残人群的机器人将随后出现。

  能够完成简单的生产线工作,例如装载、卸货和分拣的人形工业机器人也正在开发中。

  带自动驾驶功能的汽车已在美国的道路上行驶了数百万公里。去年,戴姆勒在内华达州推出了全球第一辆自动驾驶的半挂卡车。


  目前,我们不必担心超级智能机器给人类带来生存的威胁。当务之急在于,如何防止具备人工智能的机器人或机器在不经意间给人员、财产、环境,乃至它们自身造成伤害。

  主要问题在于,机器人的主人并不可靠。人类会犯错,他们可能会发出错误的或不清晰的指令,在有意无意之间尝试欺骗机器人。

  由于人类自身的缺陷,我们需要教会机器人助手和智能机器,在什么情况下,如何去做出拒绝。

  重新评估“阿西莫夫定律”


  许多人可能认为,机器人应当永远按照人类的指令去行动。科幻小说大师伊萨克·阿西莫夫(Isaac Asimov)曾提出了非常有帮助的“机器人定律”。

  然而可以深入思考一下:无论后果如何,永远按照他人的指令去行动是否明智?当然不是。同样的情况也适用于机器,尤其考虑到,机器将会按字面意思去执行人类的指令,而不会主动考虑后果。

  即使阿西莫夫也会给自己的定律,即机器人必须永远遵照主人意愿,设置例外情况。

  例如,如果机器人接收的指令与另一条定律相冲突:“机器人不得伤害人类,或是由于迟钝而允许人类伤害自己。”

  阿西莫夫进一步提出,“机器人必须保护自己的生存”,除非这样做可能导致人类受到伤害,或是直接违背人类的指令。

  随着机器人和智能机器变得越来越复杂,越来越有价值,常识和阿西莫夫定律均表明,它们应当有能力去质疑,可能对自身或周围环境造成破坏,或者说对主人造成伤害的指令是否是错的。

  请想象一下,一台家用机器人被要求从厨房拿一瓶橄榄油到餐桌,并搅拌沙拉。繁忙的主人可能会直接发出指令,让机器人放油,而没有注意到机器人仍然还在厨房里。
不错的新闻,我要点赞     无评论不新闻,发表一下您的意见吧
上一页123下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0326 秒 and 7 DB Queries in 0.0018 秒