溫哥華Lipont Place力邦藝術港:活動場地租賃,拍攝場地租賃!

人工智能有個嚴重問題:它說不清自己為啥這麼牛

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
  雖然人工智能可以解決很多問題,但由於這種技術存在“黑盒子”問題,因此沒有一個人能夠確切知道它的內部運作方式,因而可能引發嚴重問題。

  

  雖然人工智能可以解決很多問題,但由於這種技術存在“黑盒子”問題,因此沒有一個人能夠確切知道它的內部運作方式,因而可能引發嚴重問題。


  去年,一輛古怪的無人駕駛汽車開上了新澤西州蒙茅斯郡寧靜的道路。這輛實驗用車是由芯片制造商英偉達開發的,它的外觀與其他無人駕駛汽車別無二致,但與谷歌(微博)、特斯拉和通用汽車展示的系統不同,這輛汽車證明了人工智能的強大能量。

  它並沒有遵循工程師提供的任何指令,而是通過觀察人類司機的駕駛方式,完全依賴算法自學成才。

  讓一輛汽車自學成才確實令人驚喜,但也帶來了一絲不安,因為我們並不完全清楚它是如何制定決策的。車身傳感器收集的信息會直接傳輸到巨大的人工神經網絡,在那裡處理數據,然後生成相應的指令,引導汽車操縱方向盤、刹車和其他系統。

  最終的結果似乎符合你對一個人類駕駛員的預期。但如果它有朝一日做出什麼令人意外的舉動,比如撞到路邊的樹木,或在綠燈前停止不動,那該如何是好?

  以現在的情況來看,可能很難找出背後的原因。人工智能系統十分復雜,就連設計它的工程師都難以分辨某個具體行動背後的邏輯。你又不能直接向它詢問原因:目前還沒有一種明確的方式可以設計出這樣的系統,從而隨時解釋它每一步行動背後的原因。


  這種汽車的神奇思維引出了人工智能領域的一個若隱若現的問題。這輛汽車的底層采用了名為深度學習的人工智能技術,最近幾年的許多研究都表明,這項技術很擅長解決很多問題,而且已經廣泛部署在圖像說明、語音識別、語言翻譯等諸多領域領域。還有人希望用同樣的技術診斷惡性疾病,制定數百億美元的交易策略,甚至通過數不清的其他方式改變一個又一個的行業。

  但除非你找到一種方式,讓它的開發者充分理解深度學習技術,並對用戶肩負起應負的責任,否則這翻暢想就無法實現----或者說,不應該實現。如若不然,就很難預測何時出現問題----畢竟,按照目前的設計,這些系統肯定會出現問題。但英偉達之所以仍在測試,卻有它自己的原因。


  各種各樣的數學模型已經可以幫助人們在假釋、放貸和招聘領域制定決策。如果你可以評估這些數學模型,那就有可能理解它們背後的邏輯。但銀行、軍隊和雇主現在都把精力轉向了更加復雜的機器學習方法,使得自動化決策流程變得完全無法理解。

  作為其中最常見的一種技術,深度學習與以往的計算機編程截然不同。“這個問題已經凸顯出來,今後還將越來越受重視。”麻省理工學院機器學習應用教授多米?加考拉(Tommi Jaakkola)說,“無論是投資決策、醫療決策還是軍事決策,你肯定都不希望把權力交給一個‘黑盒子’。”

  有人認為,向人工智能系統質問其結論背後的原因是一項合法的基本權利。從2018年夏天開始,歐盟可能就會要求相關企業具備相應的能力,以便向用戶解釋自動化系統的決策理由。這或許難以實現,即便是對那些表面看來相對簡單的系統也同樣如此,包括那些使用深度學習技術投放廣告和推薦歌曲的應用和網站。

  這些服務所使用的電腦采用了自我編程模式,外界無法理解它們的行為方式。就連負責開發這些應用的工程師也無法解釋它們的行為。

  這便引發了許多難以置信的問題。隨著科技不斷進步,我們可能很快就會跳過某個門檻,到那時,必須要給予人工智能極大的信任才能順利使用這些系統。誠然,人類很多時候也無法解釋我們自己的思維過程----但我們卻可以通過各種各樣的方式利用直覺來信任或評價他人。但對於這些思維和決策方式都不同於人類的機器來說,有沒有可能實現這一點呢?
點個贊吧!您的鼓勵讓我們進步     這條新聞還沒有人評論喔,等著您的高見呢
上一頁1234下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文

    猜您喜歡

    您可能也喜歡

    當前評論

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *:
    安全校驗碼 *:
    請在此處輸入圖片中的數字
    The Captcha image
      (請在此處輸入圖片中的數字)

    Copyright © 加西網, all rights are reserved.

    加西網為北美中文網傳媒集團旗下網站