| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

千萬別信ChatGPT給出的癌症治療方案

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



OpenAI 的聊天機器人 ChatGPT 雖然風靡全球,但一項新的研究表明,它在一個關鍵領域還遠不能取代人類專家。美國哈佛醫學院附屬的布裡格姆婦女醫院的研究人員發現,ChatGPT 生成的癌症治療方案充滿了錯誤。

這項研究發表在《美國醫學會腫瘤學雜志》上,研究人員向 ChatGPT 提出了各種癌症病例的治療方案,結果發現三分之一的回答中包含了不正確的信息。研究還指出,ChatGPT 傾向於將正確和錯誤的信息混合在一起,因此很難識別哪些信息是准確的。


該研究的合著者 Danielle Bitterman 博士稱,他們“對錯誤信息與正確信息混合在一起的程度感到震驚,這使得即使是專家也很難發現錯誤。”她補充說,“大型語言模型經過訓練可以提供聽起來非常有說服力的回答,但它們並不是為了提供准確的醫療建議而設計的。錯誤率和回答的不穩定性是臨床領域需要解決的關鍵安全問題。”


ChatGPT 於 2022 年 11 月推出後一夜成名,兩個月後就達到了 1 億活躍用戶。盡管 ChatGPT 取得了成功,但生成型人工智能模型仍然容易出現“幻覺”,即自信地給出誤導性或完全錯誤的信息。

IT之家注意到,將人工智能融入醫療領域的努力已經在進行中,主要是為了簡化管理任務。本月早些時候,一項重大研究發現,使用人工智能篩查乳腺癌是安全的,並且可能將放射科醫生的工作量減少近一半。哈佛大學的一位計算機科學家最近發現,最新版本的模型 GPT-4 可以輕松通過美國醫學執照考試,並暗示它比一些醫生具有更好的臨床判斷力。


盡管如此,由於 ChatGPT 等生成型模型存在准確性問題,它們不太可能在近期取代醫生。《美國醫學會腫瘤學雜志》上的研究發現,ChatGPT 的回答中有 12.5% 是“幻覺”,並且在被問及晚期疾病的局部治療或免疫療法時,最有可能給出錯誤的信息。

OpenAI 已經承認 ChatGPT 可能不可靠,該公司的使用條款警告說,他們的模型並非旨在提供醫療信息,也不應該用於“為嚴重的醫療狀況提供診斷或治療服務”。
不錯的新聞,我要點贊     還沒人說話啊,我想來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0317 秒 and 4 DB Queries in 0.0021 秒