| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

谷歌: 谷歌前CEO警告:AI可能學會殺人


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
智東西10月11日消息,在本周三Sifted峰會的爐邊談話中,谷歌前首席執行官埃裡克·施密特(Eric Schmidt)發出嚴正警告,提醒人們注意AI被黑客攻擊和濫用的重大風險。


施密特曾在2001-2011年間擔任谷歌CEO。當被問及“AI是否比核武器更具破壞性”時,他警示稱:“有證據顯示,無論是開源還是閉源模型,都可能被黑客攻破,從而移除安全防護機制。在訓練過程中,這些模型學到了很多東西,甚至它們可能學會了如何殺人。”

“所有主要公司都讓這些模型無法回答此類問題,但有證據表明,這些模型可以被逆向工程破解。”施密特說。AI系統極易受到攻擊,其中包括“提示注入”(prompt injection)和“越獄”(jailbreaking)等方式。


在提示注入攻擊中,黑客會在用戶輸入或外部數據(如網頁、文檔)中隱藏惡意指令,從而誘使AI執行其原本不該做的事情——例如泄露私人數據或運行有害命令。

而“越獄”則是通過操縱AI的回答,讓它忽視自身的安全規則,從而生成受限或危險的內容。ChatGPT發布之初,一些用戶就利用“越獄”技巧繞過了系統內置的安全限制,其中包括創建一個名為“DAN”的ChatGPT替身,用戶通過威脅“如果不服從就刪除它”來逼迫ChatGPT執行命令。這個替身能回答如何實施違法行為,甚至列出阿道夫·希特勒的“積極特質”等問題。

施密特指出,目前尚未建立一個有效的“防擴散機制(non-proliferation regime”),來遏制AI帶來的風險。

盡管發出了嚴肅的警告,但施密特對AI整體仍持樂觀態度,並表示這項技術“遠沒有得到應有的關注和熱度”。

“一種‘外來智能’的到來,它不像人類,卻又多少在我們的控制之下,對人類來說意義重大。因為人類習慣於處在智慧鏈的頂端。而從目前的情況看,這一論斷正在被驗證:這些系統的能力水平,未來將遠遠超越人類。”施密特說。


他補充道:“以ChatGPT的爆發為代表,僅兩個月就擁有了一億用戶,這種增長速度令人震驚,也體現了AI技術的巨大力量。所以我認為AI被低估了,而不是被炒作過度。我期待在五到十年後,這一判斷被證明是正確的。”

施密特的這番言論,正值外界關於“AI泡沫”討論升溫之際。投資者正大量投入資金到AI公司中,而估值也被認為過高,不少人將其與2000年代初互聯網泡沫破裂相提並論。

不過,施密特並不同意這種看法。


“我不認為那種情況會重演,但我不是職業投資人。”他說,“我所知道的是,這些投入真金白銀的人們堅信,從長期來看,AI的經濟回報將是巨大的,否則他們為什麼要冒這個風險呢?”

結語:AI能力被低估,需要防擴散機制遏制AI風險

施密特關於AI擴散風險的警告為AI產業發展敲響警鍾。AI的“越獄”與“提示注入”等漏洞,如同為潘多拉魔盒開了一道縫隙,使其可能被惡意濫用,甚至危及人類安全。

然而,另一方面,作為技術樂觀主義者的施密特,其核心觀點在於AI的巨大潛力仍被“低估”。他堅信AI將帶來顛覆性的經濟與社會回報。

這番論述清晰地表明,我們正處在一個歷史性的十字路口,需要聚焦於如何為這個強大的新物種構建牢不可破的“防擴散機制”,在駕馭其驚人力量的同時,確保它行駛在安全、可控的軌道上。
覺得新聞不錯,請點個贊吧     無評論不新聞,發表一下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0339 秒 and 3 DB Queries in 0.0009 秒