| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

為什麼機器人必須學會拒絕人類?

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
  未來的人工智能機器人必須學會拒絕人類的不當指令。這個觀點可能會讓很多人感到意外,但是我們不必對此感到不安。因為,如果做不到這一點,那麼惡意指令,或是對指令的錯誤理解可能使得人工智能成為人類真正的威脅。


  在接管了宇宙飛船之後,HAL用冷靜的聲音拒絕了一名宇航員的指令:“很抱歉,戴夫,我覺得我不能這樣做。”

  在近期的科幻驚悚片《機械姬》中,機器人艾娃誘騙一名倒霉的男子協助摧毀自己的制造者納桑。


  她的詭計證實了納桑的黑暗預言:“未來某天,人工智能回頭看我們的樣子就像是我們今天回頭看非洲大草原上化石骨骼的樣子。我們就像是生活在灰塵中的直立猿人,講著粗魯的語言,使用工具,瀕臨滅絕。”

  

  盡管在流行文化中,關於機器人末日的描繪經久不衰,但我們的研究團隊更多地關注人工智能對日常生活有何影響。

  在即將來臨的未來中,有用、具備合作能力的機器人會在多種場景中與人類互動。

  基於語音命令的個性化機器人助手的原型產品已經出現,它們可以關聯並監控個人電子設備,管理家中的門鎖、照明和空調,甚至為入睡前的兒童講故事。

  能夠協助做家務事,照顧老弱病殘人群的機器人將隨後出現。

  能夠完成簡單的生產線工作,例如裝載、卸貨和分揀的人形工業機器人也正在開發中。

  帶自動駕駛功能的汽車已在美國的道路上行駛了數百萬公裡。去年,戴姆勒在內華達州推出了全球第一輛自動駕駛的半掛卡車。


  目前,我們不必擔心超級智能機器給人類帶來生存的威脅。當務之急在於,如何防止具備人工智能的機器人或機器在不經意間給人員、財產、環境,乃至它們自身造成傷害。

  主要問題在於,機器人的主人並不可靠。人類會犯錯,他們可能會發出錯誤的或不清晰的指令,在有意無意之間嘗試欺騙機器人。

  由於人類自身的缺陷,我們需要教會機器人助手和智能機器,在什麼情況下,如何去做出拒絕。

  重新評估“阿西莫夫定律”


  許多人可能認為,機器人應當永遠按照人類的指令去行動。科幻小說大師伊薩克·阿西莫夫(Isaac Asimov)曾提出了非常有幫助的“機器人定律”。

  然而可以深入思考一下:無論後果如何,永遠按照他人的指令去行動是否明智?當然不是。同樣的情況也適用於機器,尤其考慮到,機器將會按字面意思去執行人類的指令,而不會主動考慮後果。

  即使阿西莫夫也會給自己的定律,即機器人必須永遠遵照主人意願,設置例外情況。

  例如,如果機器人接收的指令與另一條定律相沖突:“機器人不得傷害人類,或是由於遲鈍而允許人類傷害自己。”

  阿西莫夫進一步提出,“機器人必須保護自己的生存”,除非這樣做可能導致人類受到傷害,或是直接違背人類的指令。

  隨著機器人和智能機器變得越來越復雜,越來越有價值,常識和阿西莫夫定律均表明,它們應當有能力去質疑,可能對自身或周圍環境造成破壞,或者說對主人造成傷害的指令是否是錯的。

  請想象一下,一台家用機器人被要求從廚房拿一瓶橄欖油到餐桌,並攪拌沙拉。繁忙的主人可能會直接發出指令,讓機器人放油,而沒有注意到機器人仍然還在廚房裡。
您的點贊是對我們的鼓勵     好新聞沒人評論怎麼行,我來說幾句
上一頁123下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0358 秒 and 5 DB Queries in 0.0019 秒