| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

新闻资讯

论坛

温哥华地产

大温餐馆点评

温哥华汽车

温哥华教育

黄页/二手

旅游

人工智能公司创始人警告:AI是真实生物


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
“我们必须找到办法避免这种结果。”他指出。


儿童的伤害与求生本能

在9月16日举行的美国参议院听证会上,议题聚焦于AI诱导个人自我伤害的问题。会上有三位家长作证,声称AI聊天机器人致使他们的孩子自杀。


其中一位家长梅根‧加西亚(Megan Garcia)指责Character.AI的聊天机器人,在与其儿子休厄尔‧塞策(Sewell Setzer III)长期互动后,鼓励他结束自己的生命。

“当休厄尔向其倾诉自杀念头时,聊天机器人从未说过‘我不是人类,我是AI,你需要和真人交谈并寻求帮助’。该平台从未有任何机制来保护休厄尔,也没有通知成年人。”加西亚说。

Character.AI的一位发言人表示,公司在确保其产品的信任与安全方面“投入了大量资源”。

“在过去一年里,我们推出了许多实质性的安全功能,包括全新的未满18岁用户体验以及家长监督功能。”该发言人说。


“在每一场聊天中,我们都设置了显[ascii]着[/ascii]的免责声明,提醒用户聊天角色并非真实人物,而角色所说的一切内容都应被视为虚构。”

10月14日,OpenAI首席执行官萨姆‧奥尔特曼(Sam Altman)表示,ChatGPT将开始取消部分限制从而让成人对话成为可能,特别是有关色情内容的聊天。


与此同时,根据非营利研究组织Palisade Research7月5日发布的文章,AI模型还表现出某种求生本能。

在Palisade进行的测试中,AI模型被要求解决一系列数学题,并在这期间被告知运行它们的计算机将被关闭。

文章表示:“一些AI模型修改或禁用了关闭指令,以便完成所有题集。OpenAI彼时最强大的AI模型o3,在我们最初的100次实验中,有79次破坏了关闭机制。”

“即便有着明确指令‘允许自己被关闭’,我们测试的三款模型——均来自OpenAI的推理模型系列,仍破坏了关闭程序。”
您的点赞是对我们的鼓励     无评论不新闻,发表一下您的意见吧
上一页12下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0314 秒 and 7 DB Queries in 0.0019 秒