| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

恐致人類滅絕?科學家聯署限制AI

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
圖像來源,GETTY IMAGES ,山姆·阿爾特曼


在參議院聽證會上,阿爾特曼表示,隨著人工智能的發展,政府對他的行業進行監管是“非常重要的”。

生命未來研究所的公共政策研究員古鐵雷斯(Carlos Ignacio Gutiérrez)對BBC解釋,人工智能帶來的巨大挑戰之一是,“沒有一個由專家組成的聯合機構來決定如何監管它,就像政府間氣候變化專門委員會(IPCC)那樣。”


這就把我們帶到了人工智能的第三個也是最後一個階段。

3. 超人工智能



圖像來源,GETTY IMAGES

這是一種理論,當我們到達第二階段時,我們將很快進入最後階段:“超人工智能”。當人工智能超過人類智能時,就會出現這種情況。

牛津大學哲學家、人工智能專家博斯特羅姆(Nick Bostrom)將超智能定義為“在幾乎所有領域,包括科學創造力、一般智慧和社交技能,都遠遠超過最優秀的人類大腦的智能”。

“人類要成為工程師、護士或律師,必須學習很長時間。通用人工智能的問題在於……它可以在我們做不到的時候不斷改進自己,”古鐵雷斯解釋說。


科幻小說。

這個概念讓人想起了電影《終結者》的情節,在這部電影中,機器發動了一場毀滅人類的核戰爭。




圖像來源,GETTY IMAGES ,施瓦辛格曾出演《終結者》。

普林斯頓大學的計算機科學家納拉亞南(Arvind Narayanan)此前曾告訴BBC,科幻般的災難場景是不現實的:“目前的人工智能還遠遠不足以讓這些風險成為現實。最後,它分散了人們對人工智能短期危害的注意力。”

雖然對於機器是否真的能獲得人類擁有的那種廣泛的智能,尤其是在情商方面,存在很多爭論,但這是那些認為我們即將實現通用人工智能的人最擔心的事情之一。

最近,所謂的“人工智能教父”傑弗裡·欣頓(Geoffrey Hinton)警告,我們可能即將達到這一裡程碑。欣頓是教授機器從經驗中學習的先驅。

“我認為,現在(機器)並不比我們聰明。但我認為他們可能很快就會這樣,”他剛剛從谷歌退休,今年75歲。


覺得新聞不錯,請點個贊吧     無評論不新聞,發表一下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0310 秒 and 4 DB Queries in 0.0017 秒