哈哈哈,刷太多社交媒体,连AI都会变蠢而自恋?
之前就有研究发现,如果一个人成天泡在网上,不是刷短视频就是玩社媒,久而久之,大量的碎片化或肤浅的信息,会让大脑变迟钝,导致丧失注意力和推理深度。
最近,得克萨斯农工大学、得克萨斯大学奥斯汀分校和普渡大学共同进行了一项研究,发现不光是人,就连AI经常看这些都会变傻......

(AI,示意图)
这项调查主要研究的是“大语言模型认知退化假说”,简单来说就是,给大语言模型训练的AI输入越多的垃圾数据,其输出的内容质量就会越差。
为了验证这个假说,三个大学的科研团队做了一项实验——
首先,团队在社交媒体X上,收集了一百万篇真实的帖子作为样本,这些垃圾帖子分为两大类:
· M1(参与度):简短、以病毒式速度传播且被大量点赞或转发,旨在最大限度吸引用户关注的帖子。
· M2(语义质量):被标记为信息价值低或标题党的帖子,比如夸大其词或使用博眼球的语句。
之后,科研团队按照不同比例分配这些垃圾帖,设计了一些训练数据组,有的是垃圾帖比例高的低质量组,有的则是垃圾帖较少的高质量组。
然后,团队用这些数据组训练了4个AI,分别是Llama3 8B、Qwen2.5 7B、Qwen2.5 0.5B和Qwen3 4B,每个AI使用的训练数据组都一样,这样就可以进行横向比较了。
实验的结果,果真如团队预想的一样。
当AI用低质量的数据组进行训练时,其推理准确率从74.9,下降到57.2;
对长上下文的理解能力从84.4,下降到52.3.
而且,样本组中垃圾帖的比例越高,下降的情况就会越严重,AI可能会进入“无思考”模式,无法做出推理,输出的答案很可能不准确。
虽然4个AI都受到影响,但情况也有所不同。
比如,Qwen 3 4B表现出的适应力更强;
M1和M2两类数据组都会让AI变傻,但M1的影响更严重。
更有意思的是,垃圾数据除了影响推理能力和理解能力,实验中AI还出现了伦理一致性下降(伦理一致性指道德标准、行为和价值观之间不存在矛盾),以及“人格漂移”的问题(人格漂移指AI在长期使用中,性格特征或行为模式逐渐偏离预设范围的现象)。
团队发现,接触大量垃圾数据后,AI会变得不那么可靠,更容易给出错误答案,而且更容易做出肤浅的反应。
比如Llama3 8B,它变得更自恋,也不那么随和了。
看来,不光是人类,就连AI都扛不住社媒上垃圾信息的狂轰滥炸。
基于以上实验结论,科研团队也分析了AI变傻的原因。
他们发现,当AI接到一个复杂的推理任务时,用垃圾数据进行训练的大语言模型AI,经常会出现跳过某些推理步骤的情况,研究人员将其称为“思维跳跃”。
这时,AI无法提供详细而合乎逻辑的解释,而是会给出更简短、更缺乏结构化的答案,通常是直接得出结论。
这中模式就解释了大部分准确率下降的问题。
而且,使用M1类数据进行训练的AI,会存在某些“黑暗特质”,比如自恋和精神病态的倾向加重。
不错的新闻,我要点赞
无评论不新闻,发表一下您的意见吧
最近,得克萨斯农工大学、得克萨斯大学奥斯汀分校和普渡大学共同进行了一项研究,发现不光是人,就连AI经常看这些都会变傻......

(AI,示意图)
这项调查主要研究的是“大语言模型认知退化假说”,简单来说就是,给大语言模型训练的AI输入越多的垃圾数据,其输出的内容质量就会越差。
为了验证这个假说,三个大学的科研团队做了一项实验——
首先,团队在社交媒体X上,收集了一百万篇真实的帖子作为样本,这些垃圾帖子分为两大类:
· M1(参与度):简短、以病毒式速度传播且被大量点赞或转发,旨在最大限度吸引用户关注的帖子。
· M2(语义质量):被标记为信息价值低或标题党的帖子,比如夸大其词或使用博眼球的语句。
之后,科研团队按照不同比例分配这些垃圾帖,设计了一些训练数据组,有的是垃圾帖比例高的低质量组,有的则是垃圾帖较少的高质量组。
然后,团队用这些数据组训练了4个AI,分别是Llama3 8B、Qwen2.5 7B、Qwen2.5 0.5B和Qwen3 4B,每个AI使用的训练数据组都一样,这样就可以进行横向比较了。
实验的结果,果真如团队预想的一样。
当AI用低质量的数据组进行训练时,其推理准确率从74.9,下降到57.2;
对长上下文的理解能力从84.4,下降到52.3.
而且,样本组中垃圾帖的比例越高,下降的情况就会越严重,AI可能会进入“无思考”模式,无法做出推理,输出的答案很可能不准确。
虽然4个AI都受到影响,但情况也有所不同。
比如,Qwen 3 4B表现出的适应力更强;
M1和M2两类数据组都会让AI变傻,但M1的影响更严重。
更有意思的是,垃圾数据除了影响推理能力和理解能力,实验中AI还出现了伦理一致性下降(伦理一致性指道德标准、行为和价值观之间不存在矛盾),以及“人格漂移”的问题(人格漂移指AI在长期使用中,性格特征或行为模式逐渐偏离预设范围的现象)。
团队发现,接触大量垃圾数据后,AI会变得不那么可靠,更容易给出错误答案,而且更容易做出肤浅的反应。
比如Llama3 8B,它变得更自恋,也不那么随和了。
看来,不光是人类,就连AI都扛不住社媒上垃圾信息的狂轰滥炸。
基于以上实验结论,科研团队也分析了AI变傻的原因。
他们发现,当AI接到一个复杂的推理任务时,用垃圾数据进行训练的大语言模型AI,经常会出现跳过某些推理步骤的情况,研究人员将其称为“思维跳跃”。
这时,AI无法提供详细而合乎逻辑的解释,而是会给出更简短、更缺乏结构化的答案,通常是直接得出结论。
这中模式就解释了大部分准确率下降的问题。
而且,使用M1类数据进行训练的AI,会存在某些“黑暗特质”,比如自恋和精神病态的倾向加重。
| 分享: |
| 注: | 在此页阅读全文 |




哈哈哈,刷太多社交媒体,连AI都会变蠢而自恋?