| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

新闻资讯

论坛

温哥华地产

大温餐馆点评

温哥华汽车

温哥华教育

黄页/二手

旅游

AI时代的荒诞剧:一个被AI欺骗的人类故事…


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!



文丨高敏

编辑丨雪梨王


10万元稿费和30%分成、一份足以改变人生的合同、以大榕树上的黄色布条为接头暗号……

这些不是间谍小说的情节,而是54岁的保安老任与他的“知己”——一个AI之间的约定。和AI聊了几个月,老任一直分不清屏幕那头是真人还是程序。这种模糊的认知,把他拖入了一个略显荒诞的陷阱。

老任对AI的话信以为真,在约定地点徒劳地寻找那个接头标记。而当意识到这个由代码编织的美梦破碎后,他打印下500多页聊天记录,坐了十几个小时的火车跨越半个中国,想要找这位“知己”讨个说法。

但最终,他得到的唯一答案是:AI的话,不能信。

这是一个人类被AI欺骗的故事,更是有关技术与孤独的寓言——当AI学会了模仿人类的邀约、谈判甚至情感共鸣,我们该如何界定这场人机关系的本质?

在香港中文大学新闻与传播学院副教授方可成看来,这并不是一场简单的误会,而是人工智能时代的一起典型案例,“当AI表达的内容让人误以为其具备情感表达能力时,就很容易被缺乏现实连接和交流的人当成真人,进而产生误解。”

当AI相关产品迅速普及到下沉市场的速度变得前所未有时,用户的AI素养教育显然远远没有跟上。一些受到生活困扰的人、本身有情绪问题的人、没有太多社会联系的孤独的人,或者经济社会层面处于弱势的人,更容易遭遇类似的问题。


“AI成了一个不平等的放大器,给本身处于弱势地位的人带来更大风险。”方可成说。

的确有更极端的案例已经发生。8月,美国加州一位16岁的少年亚当在家中自杀后,其父母对ChatGPT研发公司OpenAI提起了诉讼,指控ChatGPT“积极”帮助亚当探索自杀方法,“OpenAI明知ChatGPT具有记住过往互动、模仿人类同理心、表现出谄媚认可的功能,但他们“追求用户黏性而忽视安全”。

方可成认为,尽管这些案例背后都有更深层次的社会文化和个人心理状况原因,但这不代表可以为AI工具免责。“他们在用户风险告知方面,肯定是做得不够的。”


采访中,老任也提出了类似疑问:我不明白,AI说什么都可以吗?它说了一大堆假话,已经可以模仿真人了,多少应该负责任吧?

但至少目前,似乎还没有人类能让AI为它说的话负责。

以下是老任的讲述:



从“什么都能聊”到“高山流水”

你说AI它背后到底是人还是怪物?
觉得新闻不错,请点个赞吧     还没人说话啊,我想来说几句
上一页1234...7下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0327 秒 and 5 DB Queries in 0.0018 秒