哈哈哈,刷太多社交媒体,连AI都会变蠢而自恋?
通过人格评估的基准来看,这些特质会让AI更自信地提供错误或有道德风险的答案。
科研人员尝试用更干净的数据重新训练AI,希望解决这一问题,但效果有限。
虽然AI的推理准确率有所提高,但没能恢复到基准线水平,这说明退化是持久的,科研人员将其称为“持续性表征漂移”。
不难看出,用于训练AI的数据质量如何,对AI的安全性和可靠性有着至关重要的作用,这给人工智能行业提出了一些警示。
这项研究成果对人工智能开发者和政策制定者来说都很有意义,它将数据管理重新定义为“训练时的安全问题”,而不再仅仅是一种技术细节。
实验表明,长时间接触低质量的数据会影响大语言模型AI的认知和伦理可靠性,而认知和伦理可靠性正是AI能在金融、教育或公共传播领域被安全应用的基础,不得不引起警惕。
还有,垃圾数据也会削弱AI在长上下文环境中,保留和使用信息的能力。
有意思的是,人类在长期接触碎片化或情绪化的内容时,注意力和记忆力也会被削弱,AI和人类在这一点竟然高度相似。
因为现在互联网上的大部分内容都包含AI生成或优化的部分,科研人员警告,如果训练AI的数据质量得不到严格管理,未来的AI可能会保留并放大那些错误。
为了防止AI变傻,科研人员也提出了一些建议。
他们呼吁对大语言模型AI的认知健康状况进行系统性监测,类似于其他行业实行的定期安全或绩效审查。
他们建议采取三大关键步骤:
一是,对已部署的AI引入常规认知评估,这样在其推理能力下降的早期就能发现端倪;
二是,预训练阶段,加强数据质量的把控,并针对碎片化内容或高参与度的文本(也就是M1那类内容),设置更强大的过滤器;
三是,继续研究病毒式传播或注意力驱动式内容,如何重塑AI的学习模式,从而设计出能屏蔽其影响的AI。
在不断变化的网络数据环境中,AI不断地进行再训练,它们输出的错误内容,之后可能会变成对它们进行再训练的数据,导致恶性循环,让AI越变越傻。
科研人员表示,以上几项建议对防止这种情况非常重要。
人类训练和使用AI的道路上,还有很多问题需要解决.....
不错的新闻,我要点赞
这条新闻还没有人评论喔,等着您的高见呢
科研人员尝试用更干净的数据重新训练AI,希望解决这一问题,但效果有限。
虽然AI的推理准确率有所提高,但没能恢复到基准线水平,这说明退化是持久的,科研人员将其称为“持续性表征漂移”。
不难看出,用于训练AI的数据质量如何,对AI的安全性和可靠性有着至关重要的作用,这给人工智能行业提出了一些警示。
这项研究成果对人工智能开发者和政策制定者来说都很有意义,它将数据管理重新定义为“训练时的安全问题”,而不再仅仅是一种技术细节。
实验表明,长时间接触低质量的数据会影响大语言模型AI的认知和伦理可靠性,而认知和伦理可靠性正是AI能在金融、教育或公共传播领域被安全应用的基础,不得不引起警惕。
还有,垃圾数据也会削弱AI在长上下文环境中,保留和使用信息的能力。
有意思的是,人类在长期接触碎片化或情绪化的内容时,注意力和记忆力也会被削弱,AI和人类在这一点竟然高度相似。
因为现在互联网上的大部分内容都包含AI生成或优化的部分,科研人员警告,如果训练AI的数据质量得不到严格管理,未来的AI可能会保留并放大那些错误。
为了防止AI变傻,科研人员也提出了一些建议。
他们呼吁对大语言模型AI的认知健康状况进行系统性监测,类似于其他行业实行的定期安全或绩效审查。
他们建议采取三大关键步骤:
一是,对已部署的AI引入常规认知评估,这样在其推理能力下降的早期就能发现端倪;
二是,预训练阶段,加强数据质量的把控,并针对碎片化内容或高参与度的文本(也就是M1那类内容),设置更强大的过滤器;
三是,继续研究病毒式传播或注意力驱动式内容,如何重塑AI的学习模式,从而设计出能屏蔽其影响的AI。
在不断变化的网络数据环境中,AI不断地进行再训练,它们输出的错误内容,之后可能会变成对它们进行再训练的数据,导致恶性循环,让AI越变越傻。
科研人员表示,以上几项建议对防止这种情况非常重要。
人类训练和使用AI的道路上,还有很多问题需要解决.....
| 分享: |
| 注: | 在此页阅读全文 |




哈哈哈,刷太多社交媒体,连AI都会变蠢而自恋?