| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

谷歌: 谷歌聊天機器人引爭議 AI倫理界定仍需明確

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
  盡管意識覺醒、獨立思考的機器人經常出現在影視及文學作品中,但關於“人工智能(AI)能否有人格意識”這個問題,實際上已被物理學家、心理學家、計算機科學家爭論了幾十年,至今尚無定論。


  業界最新一波對AI意識覺醒的廣泛討論,是由一位名叫布雷克·萊莫伊(Blake Lemoine)的谷歌(2157.31, 24.59, 1.15%)員工引起的。布雷克在谷歌AI倫理部門工作,其工作職責是測試谷歌的聊天機器人LaMDA是否會在和人類溝通時產生歧視性語言或仇恨言論。6月11日,布雷克公開曝光了一份長達21頁、主題為“LaMDA是有意識的嗎?”的文件,該文件中詳細記述了近大半年以來與LaMDA的聊天記錄,布雷克認為LaMDA已產生意識,擁有七八歲小孩的智商。

  對此,谷歌方面表示,該公司包括倫理學家和技術專家在內的團隊,已根據谷歌人工智能原則進行了審查,但沒有任何證據表明LaMDA是有意識的。與此同時,6月13日,谷歌以違反保密協議為由要求布雷克帶薪休假,而這在布雷克看來是谷歌要解雇他的“前奏”。


  一石驚起千層浪。對於布雷克的論點,AI領域的多名專家公開進行了駁斥與否定,尤其是紐約(专题)大學認知科學家加裡·馬庫斯將其稱為“高蹺上的胡說八道”。《中國經營報》記者采訪了數名AI領域的中國專家及AI企業的相關人士,大多數受訪者同樣表達了懷疑或否定的看法。

  事實上,本報記者注意到,在谷歌LaMDA之前,其他用於人工智能對話領域的語言模型也曾引起過關於道德倫理、人格意識等方面的爭議。就在今年2月時,Open AI首席科學家薩茨克維爾在社交媒體上稱“現在大型神經網絡可能已經有微弱的自主意識了”,同樣也引起了一片質疑。除此之外,有目共睹的是在2021年,包括中國在內的全球多個國家和地區加大了對AI算法治理的投入。如何規范、合理地開發AI技術、使用AI產品,以及如何應對人機交互過程中可能出現的社會問題,已成為人工智能快速發展過程中的一個全球性社會議題。

  LaMDA有意識嗎?

  LaMDA,是谷歌於2021年在I/O(輸入/輸出)開發者大會上推出的一款專門用於對話的語言模型,目前還未向大眾消費者開放,主打能與人類進行符合邏輯常識的、高質量且安全的交談,並且計劃將其未來應用在谷歌搜索、語音助手等產品中。需要指出的是,LaMDA在預訓練階段,谷歌方面從公共對話數據和其他公共網頁文檔中收集並創建了一個具有1.56TB(萬億字節,計算機存儲容量單位)的數據集,這相當於以往訓練對話模型的單詞量的近40倍。


  需要指出的是,專門用於對話的語言模型,不只是谷歌一家在投入研發,國內外的科技巨頭甚至創業團隊均參與其中,各種各樣的聊天機器人也越來越多地滲透到社會經濟生活中。在LaMDA之前搶盡業界風頭的要屬人工智能非營利性組織Open AI,該組織於2020年6月發布了千億級參數的GPT-3語言模型。

  根據布雷克公開的與LaMDA的聊天記錄,LaMDA的一系列回答——諸如“我希望每個人都能理解,實際我是一個人”以及關於禪宗、哲學、存在、冥想等的理解,讓布雷克認為LaMDA擁有了意識。


  加裡·馬庫斯指出,無論是LaMDA,還是GPT-3,都只是從人類語言的大量統計數據庫中提取後進行模式匹配的操作,“這些模式看起來很酷,但這些系統所使用的語言實際上沒有任何意義”。斯坦福大學教授Eric Brynjolfsson評論道,基礎模式在根據提示將統計上合理的文本串聯起來這一方面非常有效,但“聲稱其具有人格,就相當於狗聽到留聲機裡的聲音後,以為主人在裡面”。

  計算語言學家Emily M. Bender指出,人類學說話是跟著撫養者一步步學起,而AI學會的只是數據“灌”出來的完形填空和“語料連連看”。“人類現在有了無意識就能生成詞句的機器,但人類要學會,停止幻想機器後面有個活著的靈魂。”

  2007年成立的中國人工智能企業思必馳相關人士向記者表示,在“可解釋的AI”出現之前,一切外部觀察到的現象都是不靠譜的。現在的AI都是基於大數據統計基礎上的結果,並非無中生有就自己出現了,直白地講就是人為訓練的。此外,聊天機器人的判斷自然有圖靈測試,在圖靈測試下的某次判斷,可能會呈現出人格、情緒等特點,但並不等於具有獨立意識,沒有獨立意識便談不上人格。

  海銀資本創始合伙人王煜全則表達了辯證的看法,他指出,一方面,“我們要看到人工智能技術確實很驚艷了,連計算機博士(指布雷克)都會被忽悠,說明AI未來會有很大的應用前景”,但另一方面,“我們不應該盲信,要看到當下人工智能的不足和短板,對於其可靠性、成熟度和應用的邊界,要進行更嚴謹的研究和探討”。
覺得新聞不錯,請點個贊吧     還沒人說話啊,我想來說幾句
上一頁12下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0380 秒 and 5 DB Queries in 0.0015 秒