[深夜八卦] "AI教父"辛頓最新專訪:AI已擁有情感和意識
舉個例子,如果我告訴你一句話:“她用煎鍋狠狠地撞了他。”你雖然從未見過“scrummed”這個詞,但你大概可以猜到它的意思。首先,它是一個動詞,因為它有“-ed”的過去式形式。其次,根據上下文,你會推測它可能意味著“用煎鍋擊打”,或者“狠狠撞了一下”,甚至還可能猜測出其中含有情緒,比如“他活該”。
當然,也可以有別的解釋,比如她用煎鍋給他留下了深刻印象——也許她做的煎蛋餅非常棒。但那種解釋可能性更低。重點是,你能在沒有明確定義的情況下,根據上下文和語義線索,快速推測這個新詞的含義。
我們人類理解語言,並不是靠查字典,而是靠情境、語法、語氣、經驗的聯想——這是一種深層次的“特征識別”過程。而這,也正是現代AI所具備的能力。我們會訓練AI讀取海量文本,它就像人類一樣,在不斷地接觸上下文中,推斷詞語的功能和含義。
諷刺的是,如今我們對語言理解的最好解釋,不是來自語言學家,而是來自AI系統本身。語言學家嘗試了幾十年,試圖建立一個能解釋所有語言現象的統一理論,但結果並不理想。而AI則用一種完全不同的方式,靠著大規模數據和統計學習,實實在在地做到了——它可以回答任何語言問題,甚至自己“學會”語言規律。

最大恐懼:AI變得比人類更強大
問:你談到了AI可能接管人類的潛力。對於我們這些技術新手來說,解決辦法就是拔掉插頭,關掉它。那麼如果AI失控,我們不能直接關掉它嗎?
辛頓:你可以看看特朗普是如何入侵國會的。他沒有親自去,而是通過一些人,勸說他們相信這是為了“拯救美國的民主”,最終讓他們做了他想做的事。
AI如果真的變得非常智能,就像一個超越我們理解和控制的存在,它也可能通過類似的方式進行操控。設想一下,如果有一個人手裡拿著一個開關,准備在AI表現出危險信號時關掉它,那麼這個AI可能會通過其操控能力說服這個人不要按下開關。它會讓那個人相信,關掉開關將是個災難性的決定。所以,AI的操控能力已經非常強了。
問:在監管和安全問題上,像新西蘭這樣的國家是否應該開發自己的AI系統,以便繞過這些安全隱患?
辛頓:這個問題很復雜。開發AI需要大量的硬件和電力支持。在像新西蘭這樣人口只有大約500萬的國家,可能沒有足夠的資源與中國和美國在AI領域競爭。
問:你最大的恐懼是什麼?
辛頓:從長期來看,我最大的恐懼是,我們正在創造的這些數字生命可能會變得比人類更強大。如果這種情況發生,對人類來說可能是非常糟糕的事。我們有時過於以自我為中心,認為這對人類是不可接受的,但我確實認為,對我們來說,這種超越可能是壞事。因為如果AI變得足夠強大,那時我們可能就不再是這個世界上最重要的存在了。
問:你如何看待自己在創造這項技術中所扮演的角色?
辛頓:坦白說,我有些難過。因為我們當初的目標是理解大腦,進而創造出有益的技術,但目前來看,結果並不完全是美好的。
更讓人遺憾的是,我們仍然沒有完全理解大腦是如何運作的。盡管通過AI我們對大腦有了更多的了解,但我們仍然不清楚大腦如何決定增強或削弱神經連接的強度。如果我們能夠弄明白這一點,或許我們能夠讓大腦變得像AI那樣聰明。
更令我擔憂的是,雖然AI有很多積極的應用場景,但也存在很多被濫用的可能。而我們的政治體系並沒有足夠的能力去應對這些問題。


分享: |
注: | 在此頁閱讀全文 |