人工智能有個嚴重問題:它說不清自己為啥這麼牛
雖然人工智能可以解決很多問題,但由於這種技術存在“黑盒子”問題,因此沒有一個人能夠確切知道它的內部運作方式,因而可能引發嚴重問題。
去年,一輛古怪的無人駕駛汽車開上了新澤西州蒙茅斯郡寧靜的道路。這輛實驗用車是由芯片制造商英偉達開發的,它的外觀與其他無人駕駛汽車別無二致,但與谷歌(微博)、特斯拉和通用汽車展示的系統不同,這輛汽車證明了人工智能的強大能量。
它並沒有遵循工程師提供的任何指令,而是通過觀察人類司機的駕駛方式,完全依賴算法自學成才。
讓一輛汽車自學成才確實令人驚喜,但也帶來了一絲不安,因為我們並不完全清楚它是如何制定決策的。車身傳感器收集的信息會直接傳輸到巨大的人工神經網絡,在那裡處理數據,然後生成相應的指令,引導汽車操縱方向盤、刹車和其他系統。
最終的結果似乎符合你對一個人類駕駛員的預期。但如果它有朝一日做出什麼令人意外的舉動,比如撞到路邊的樹木,或在綠燈前停止不動,那該如何是好?
以現在的情況來看,可能很難找出背後的原因。人工智能系統十分復雜,就連設計它的工程師都難以分辨某個具體行動背後的邏輯。你又不能直接向它詢問原因:目前還沒有一種明確的方式可以設計出這樣的系統,從而隨時解釋它每一步行動背後的原因。
這種汽車的神奇思維引出了人工智能領域的一個若隱若現的問題。這輛汽車的底層采用了名為深度學習的人工智能技術,最近幾年的許多研究都表明,這項技術很擅長解決很多問題,而且已經廣泛部署在圖像說明、語音識別、語言翻譯等諸多領域領域。還有人希望用同樣的技術診斷惡性疾病,制定數百億美元的交易策略,甚至通過數不清的其他方式改變一個又一個的行業。
但除非你找到一種方式,讓它的開發者充分理解深度學習技術,並對用戶肩負起應負的責任,否則這翻暢想就無法實現----或者說,不應該實現。如若不然,就很難預測何時出現問題----畢竟,按照目前的設計,這些系統肯定會出現問題。但英偉達之所以仍在測試,卻有它自己的原因。
各種各樣的數學模型已經可以幫助人們在假釋、放貸和招聘領域制定決策。如果你可以評估這些數學模型,那就有可能理解它們背後的邏輯。但銀行、軍隊和雇主現在都把精力轉向了更加復雜的機器學習方法,使得自動化決策流程變得完全無法理解。
作為其中最常見的一種技術,深度學習與以往的計算機編程截然不同。“這個問題已經凸顯出來,今後還將越來越受重視。”麻省理工學院機器學習應用教授多米?加考拉(Tommi Jaakkola)說,“無論是投資決策、醫療決策還是軍事決策,你肯定都不希望把權力交給一個‘黑盒子’。”
有人認為,向人工智能系統質問其結論背後的原因是一項合法的基本權利。從2018年夏天開始,歐盟可能就會要求相關企業具備相應的能力,以便向用戶解釋自動化系統的決策理由。這或許難以實現,即便是對那些表面看來相對簡單的系統也同樣如此,包括那些使用深度學習技術投放廣告和推薦歌曲的應用和網站。
這些服務所使用的電腦采用了自我編程模式,外界無法理解它們的行為方式。就連負責開發這些應用的工程師也無法解釋它們的行為。
這便引發了許多難以置信的問題。隨著科技不斷進步,我們可能很快就會跳過某個門檻,到那時,必須要給予人工智能極大的信任才能順利使用這些系統。誠然,人類很多時候也無法解釋我們自己的思維過程----但我們卻可以通過各種各樣的方式利用直覺來信任或評價他人。但對於這些思維和決策方式都不同於人類的機器來說,有沒有可能實現這一點呢?
分享: |
注: | 在此頁閱讀全文 |