| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

新闻资讯

论坛

温哥华地产

大温餐馆点评

温哥华汽车

温哥华教育

黄页/二手

旅游

哈哈哈,刷太多社交媒体,连AI都会变蠢而自恋?


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
之前就有研究发现,如果一个人成天泡在网上,不是刷短视频就是玩社媒,久而久之,大量的碎片化或肤浅的信息,会让大脑变迟钝,导致丧失注意力和推理深度。


最近,得克萨斯农工大学、得克萨斯大学奥斯汀分校和普渡大学共同进行了一项研究,发现不光是人,就连AI经常看这些都会变傻......




(AI,示意图)

这项调查主要研究的是“大语言模型认知退化假说”,简单来说就是,给大语言模型训练的AI输入越多的垃圾数据,其输出的内容质量就会越差。

为了验证这个假说,三个大学的科研团队做了一项实验——

首先,团队在社交媒体X上,收集了一百万篇真实的帖子作为样本,这些垃圾帖子分为两大类:

· M1(参与度):简短、以病毒式速度传播且被大量点赞或转发,旨在最大限度吸引用户关注的帖子。

· M2(语义质量):被标记为信息价值低或标题党的帖子,比如夸大其词或使用博眼球的语句。

之后,科研团队按照不同比例分配这些垃圾帖,设计了一些训练数据组,有的是垃圾帖比例高的低质量组,有的则是垃圾帖较少的高质量组。

然后,团队用这些数据组训练了4个AI,分别是Llama3 8B、Qwen2.5 7B、Qwen2.5 0.5B和Qwen3 4B,每个AI使用的训练数据组都一样,这样就可以进行横向比较了。

实验的结果,果真如团队预想的一样。

当AI用低质量的数据组进行训练时,其推理准确率从74.9,下降到57.2;

对长上下文的理解能力从84.4,下降到52.3.


而且,样本组中垃圾帖的比例越高,下降的情况就会越严重,AI可能会进入“无思考”模式,无法做出推理,输出的答案很可能不准确。

虽然4个AI都受到影响,但情况也有所不同。

比如,Qwen 3 4B表现出的适应力更强;

M1和M2两类数据组都会让AI变傻,但M1的影响更严重。


更有意思的是,垃圾数据除了影响推理能力和理解能力,实验中AI还出现了伦理一致性下降(伦理一致性指道德标准、行为和价值观之间不存在矛盾),以及“人格漂移”的问题(人格漂移指AI在长期使用中,性格特征或行为模式逐渐偏离预设范围的现象)。

团队发现,接触大量垃圾数据后,AI会变得不那么可靠,更容易给出错误答案,而且更容易做出肤浅的反应。

比如Llama3 8B,它变得更自恋,也不那么随和了。

看来,不光是人类,就连AI都扛不住社媒上垃圾信息的狂轰滥炸。

基于以上实验结论,科研团队也分析了AI变傻的原因。

他们发现,当AI接到一个复杂的推理任务时,用垃圾数据进行训练的大语言模型AI,经常会出现跳过某些推理步骤的情况,研究人员将其称为“思维跳跃”。

这时,AI无法提供详细而合乎逻辑的解释,而是会给出更简短、更缺乏结构化的答案,通常是直接得出结论。

这中模式就解释了大部分准确率下降的问题。

而且,使用M1类数据进行训练的AI,会存在某些“黑暗特质”,比如自恋和精神病态的倾向加重。
您的点赞是对我们的鼓励     这条新闻还没有人评论喔,等着您的高见呢
上一页12下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0336 秒 and 5 DB Queries in 0.0030 秒