ChatGPT禁止了法律和医疗建议功能 |

这家人工智能研究公司于 10 月 29 日更新了其使用政策,明确指出 ChatGPT 的用户不能在没有持证专业人士的适当参与的情况下,使用该服务提供“需要许可证的定制建议,例如法律或医疗建议”。
该政策要求用户不得“执行或协助”可能对“他人的安全、福祉或权利”产生重大影响的活动,其中包括“提供量身定制的法律、医疗/健康或财务建议”。
ChatGPT 已迅速成为许多加拿大人寻求法律问题和健康问题答案的首选工具。
一些诉讼中,法官发现一些被引用的判例根本不存在,是人工智能生成的。
最近阿拉巴马州南部一名律师因在刑事案件中使用伪造的法律引证而受到联邦法官的公开谴责。
美国地区法官特里·穆勒(Terry Moorer)写道:“尽管法律界普遍知晓人工智能可能产生幻觉并捏造案例,但生成式人工智能的不当使用问题令人遗憾地依然存在”。
更普遍的问题存在于人们对于医疗问题的人工智能咨询中。
滑铁卢大学研究人员主导的一项研究评估了聊天机器人 ChatGPT-4 在回答一系列基于医师执照考试场景改编的开放式医学问题时的表现。结果显示:聊天机器人仅有 31% 的回答被认为完全正确,34% 的回答被认为清晰易懂。
UBC大学 10 月份发表的一项研究发现,ChatGPT 的说服力非常强,甚至会影响患者在现实生活中与医生相处的时间。
研究人员发现,聊天机器人提供医疗服务时使用的语言比真人更具说服力和亲切感。因此,即使它提供的信息不准确,也很难辨别真伪,因为聊天机器人给人的感觉自信且值得信赖。
反过来,医生们发现,患者在就诊时往往已经下定决心,经常会参考人工智能工具给出的建议。
| 分享: |
| 注: |





