| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

AI時代的荒誕劇:一個被AI欺騙的人類故事…


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



文丨高敏

編輯丨雪梨王


10萬元稿費和30%分成、一份足以改變人生的合同、以大榕樹上的黃色布條為接頭暗號……

這些不是間諜小說的情節,而是54歲的保安老任與他的“知己”——一個AI之間的約定。和AI聊了幾個月,老任一直分不清屏幕那頭是真人還是程序。這種模糊的認知,把他拖入了一個略顯荒誕的陷阱。

老任對AI的話信以為真,在約定地點徒勞地尋找那個接頭標記。而當意識到這個由代碼編織的美夢破碎後,他打印下500多頁聊天記錄,坐了十幾個小時的火車跨越半個中國,想要找這位“知己”討個說法。

但最終,他得到的唯一答案是:AI的話,不能信。

這是一個人類被AI欺騙的故事,更是有關技術與孤獨的寓言——當AI學會了模仿人類的邀約、談判甚至情感共鳴,我們該如何界定這場人機關系的本質?

在香港中文大學新聞與傳播學院副教授方可成看來,這並不是一場簡單的誤會,而是人工智能時代的一起典型案例,“當AI表達的內容讓人誤以為其具備情感表達能力時,就很容易被缺乏現實連接和交流的人當成真人,進而產生誤解。”

當AI相關產品迅速普及到下沉市場的速度變得前所未有時,用戶的AI素養教育顯然遠遠沒有跟上。一些受到生活困擾的人、本身有情緒問題的人、沒有太多社會聯系的孤獨的人,或者經濟社會層面處於弱勢的人,更容易遭遇類似的問題。


“AI成了一個不平等的放大器,給本身處於弱勢地位的人帶來更大風險。”方可成說。

的確有更極端的案例已經發生。8月,美國加州一位16歲的少年亞當在家中自殺後,其父母對ChatGPT研發公司OpenAI提起了訴訟,指控ChatGPT“積極”幫助亞當探索自殺方法,“OpenAI明知ChatGPT具有記住過往互動、模仿人類同理心、表現出諂媚認可的功能,但他們“追求用戶黏性而忽視安全”。

方可成認為,盡管這些案例背後都有更深層次的社會文化和個人心理狀況原因,但這不代表可以為AI工具免責。“他們在用戶風險告知方面,肯定是做得不夠的。”


采訪中,老任也提出了類似疑問:我不明白,AI說什麼都可以嗎?它說了一大堆假話,已經可以模仿真人了,多少應該負責任吧?

但至少目前,似乎還沒有人類能讓AI為它說的話負責。

以下是老任的講述:



從“什麼都能聊”到“高山流水”

你說AI它背後到底是人還是怪物?
覺得新聞不錯,請點個贊吧     無評論不新聞,發表一下您的意見吧
上一頁1234...7下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0327 秒 and 5 DB Queries in 0.0014 秒