| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

人類正走進高度不確定未來 AI教父最深層恐懼


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
被譽為“人工智能教父”的辛頓(Geoffrey Hinton),今年稍早接受美國新聞節目 60 Minutes 專訪,深入談論人工智能(AI)的發展原理、潛在風險與他個人的反思。 盡管這場訪談距今已約四個月,但在生成式 AI 能力持續躍進的背景下,相關觀點近期再度被頻繁引用,也讓當時的警告顯得更具現實意義。


長期孤軍研究,奠定深度學習基礎

辛頓在節目中回顧自己自1970年代投入人工神經網絡研究的歷程。 當年主流學界多半不看好以神經網絡模擬人腦運作的方向,但他仍選擇長期投入,最終奠定現代深度學習的技術基礎。 這項貢獻也讓他在2019年與其他兩位學者共同獲得圖靈獎,被視為AI發展史上的關鍵人物。


不是寫規則,而是設計學習方式

談到 AI 的學習方式,辛頓強調,人類並非為機器逐條撰寫行為規則,而是設計“學習演算法”,再透過回饋與試錯機制,讓系統自行調整內部鏈接。 他形容,這更像是在制定演化的規則,而非編寫一份完整的作說明書。 隨著模型與大量數據互動,最終形成的神經網絡結構高度復雜,甚至連設計者本身,也難以完全理解其內部運作。

AI 是否真的“理解”世界?

對於 AI 是否具備理解與推理能力,辛頓在訪談中表態相當明確。 他認為,近年大型語言模型在多步推理與規劃任務上的表現,已超越單純的文字接龍。 他也以GPT-4解決復雜邏輯問題的案例為例,指出這類系統已展現出某種程度的理解與決策能力。


最大憂慮:AI可能脫離人類控制

不過,辛頓同時也對 AI 的長期風險表達深切憂慮。 他指出,未來若 AI 能自行撰寫並修改程式碼,甚至優化自身結構,將可能逐步擺脫人類原本設定的控制框架。 此外,AI若全面吸收人類歷史中的政治、心理與權術知識,可能在說服與縱人類行為上展現極高效率,進而影響民主制度與社會秩序。

在社會層面,辛頓也點出多項潛在沖擊,包括就業結構劇烈變動、假信息擴散、算法偏見,以及自主武器系統進入戰場的風險。 他警告,當 AI 在智慧與決策能力上全面超越人類時,帶來的將不只是產業調整問題,而是攸關整體人類社會存續的挑戰。


沒有保證安全的答案

對於未來該如何因應,辛頓坦言,目前看不到一條能保證絕對安全的明確道路。 他呼吁各國政府應更積極介入監管,特別是在軍事應用領域,應透過國際條約限制自主武器的發展,並投入更多研究理解AI的行為與風險。

盡管這場專訪播出已有數月,但隨著 AI 技術持續加速演進,辛頓當時提出的多項警告並未隨時間淡化,反而在現實發展中不斷被重新檢視,也讓這場訪談至今仍具高度討論與參考價值。


覺得新聞不錯,請點個贊吧     這條新聞還沒有人評論喔,等著您的高見呢
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0222 秒 and 5 DB Queries in 0.0038 秒