GPT-5只会更笨!斯坦福莱斯研究警告,AI训AI超过5次,模型反噬,性能大减

创建时间:2023-07-25 11:04
转自:新智元
编辑:桃子 Lumina
【导读】AI训AI会让模型性能变差。最新来自斯坦福的研究揭露,使用AI生成的数据训练次数超过5次,模型就会出现崩溃。

用AI生成的数据训练AI,不会有魔法,只会被反噬。
近日,莱斯大学和斯坦福团队发现,将AI生成的内容喂给模型,只会导致性能下降。
研究人员对此给出一种解释,叫做「模型自噬障碍」(MAD)。

论文地址:https://arxiv.org/abs/2307.01850
研究发现在使用AI数据,经过第5次迭代训练后,模型就会患上MAD。

在合成数据上训练AI模型会逐渐放大伪影
换句话说,如果不能给模型提供「新鲜的数据」,即由人类标注的数据,其输出质量将会受到严重影响。

拒绝模型「内耗」

目前,MAD尚未确认会影响所有AI模型,不过研究人员已经对自编码器、高斯混合模型、大语言模型进行了验证。
作者写道,「世界正在奔向一个未来,生成式AI的爆发,导致了互联网上的合成数据,很快就会超过真实数据。」
因此,当前的AI模型,正在不知不觉中接受越来越多的人工智能合成数据的训练。
比如,目前已知且开源的最大规模多模态数据集LAION-5B,已经用于训练当前最先进的文本-图像模型,包括Stable Diffusion。
这个数据集就包含了,从早期生成模型中采样的合成图像。
合成数据受欢迎的主要原因在于4点:

- 合成训练数据比获取真实世界的样本更容易、更快、更便宜

- 某种情况下,合成数据增强可以提高AI系统的性能

- 可以在医学成像或医疗记录等敏感应用中保护隐私

- 最重要一点,随着深度学习模型参数越来越庞大,现几乎没有真实数据可用了
为了获取更多真实数据,就连OpenAI近日与美联社签订协议,双方将共享部分新闻内容和技术。
但是,不管是有意,还是无意使用合成数据,已经背离了标准的AI训练实践:
一代又一代地重复这一过程形成了一个自噬循环(autophagous loop),也就是自耗(self-consuming)。
不同的自噬环变化取决于,现有的真实数据和合成数据如何组合到未来的训练集中。
然而,根据合成数据的生成方式,还会出现其他变化。
比如,研究者或算法通常会通过手动「挑选」合成数据来引入采样偏差,以权衡感知质量(即图像/文本看起来来不错)与多样性(不同类型图像/文本)。
研究者介绍,「质量」和「多样性」两个非正式概念,分别与精确度和召回率的统计指标密切相关。
如果合成数据已经存在于我们今天的训练数据集中,那么自噬循环在未来几乎是不可避免的。
那么影响究竟有多大?
研究人员表示,无论训练集的组成,或采样方法如何,自噬循环对生成模型的属性和性能的潜在影响仍知之甚少。
而有一点可以确定的是,使用合成数据重复训练可能会,逐渐放大任何生成模型中存在的偏差和伪影。
总之,这项研究有三个重要贡献:
1. 自噬循环的真实模型
团队研究了自噬循环的3种变体:完全合成循环,其中生成模型仅在前几代的合成样本上进行训练;合成增强循环,其中训练集还包括一组固定的真实数据;新数据循环,其中训练集还包括每一代的一组新的真实数据。
所有这3种自噬循环模型的底线是,如果每一代没有足够的新鲜真实数据,未来的生成模型注定会MAD。
2. 采样偏差在自噬循环中起着关键作用
模型实践者倾向于手动挑选合成数据,更喜欢高质量的样本,并删除低质量的样本。此外,最先进的生成模型通常具有可控参数,可以以牺牲多样性为代价来提高合成质量。
研究证明,通过这种质量多样性(精确召回)权衡引起的采样偏差,对自噬训练循环的行为有重大影响。
具体来讲,在没有采样偏差的情况下,自噬会导致质量和多样性的快速下降,而在采样偏差的情况下,质量可以保持,但多样性下降得更快。
3. 自噬循环行为适用于各种生成模型和数据集
除了对简单多元高斯和高斯混合模型的分析和实证研究之外,团队还在正文和附录中,证明了主要结论适用于各种生成模型。
部分实验结果
在没有采样偏差的全合成循环中,完全使用合成数据训练生成模型,其合成数据的质量和多样性都会逐代下降。

在全合成循环中,生成的合成FFHQ和MNIST图像的FID、精度和多样性(召回率)
研究者给出了MNIST的真实数据和合成数据的t-SNE图,这些数据来自没有采样偏差的全合成环路(λ = 1)。
可以看到,生成的模式逐渐合并,相互之间失去了分离。到第10代,生成的样本几乎无法辨认。

在没有采样偏差的情况下,合成数据模型会偏离真实模型并合并
研究还发现,提高合成质量会损害合成多样性。

在高质量合成数据上训练生成模型总是会导致合成质量或合成多样性的损失
由于采样偏差,合成数据模型会围绕单个(高质量)图像偏移和崩溃,而不是合并。

给生成数据打水印

所有这些会出现MAD症状的模型都已经广泛应用,并运行一段时间了:
自编码器可以处理诸如流行预测(例如社交媒体应用程序的算法)、图像压缩、图像去噪和图像生成等任务;
高斯混合模型用于密度估计、聚类和图像分割等目的,在统计学和数据科学中特别有用。
如今流行的 ChatBot, 其应用的大型语言模型(如ChatGPT,和Anthropic的Claude)使用自己生成的内容进行训练时,也容易在训练中出现MAD现象。
同时,这些也强调了这些AI系统在我们生活中的重要性:算法人工智能模型在企业和公共领域都得到了广泛应用。
这项研究提供了一种窥探「AI技术黑箱」的方法。
但也粉碎了我们从某些AI模型中制造一个「仓鼠轮」的希望:将数据输入模型,然后将其自身生成的数据再次输入模型,产生更多的数据再反馈进模型的过程。
反而这种训练方式会对当前存在的模型,以及这些模型的应用造成威胁。
如果一个已经商业化使用的模型事实上是通过对其自身的输出进行训练的,那么该模型很可能已经向其平均值回归(记住,这需要大约5个输入输出周期才能显现)。

模型崩溃过程示意图
如果该模型向其平均值回归,那么它在某种程度上已经存在着偏见,因为它没有考虑到本应属于少数派的数据。这也可以称之为算法上的偏见。
研究结果中得出的另一个重要观点是对数据来源的关注。现在更加重要的是能够将「原始」数据与「人工」数据区分开来。
如果无法确定哪些数据是由LLM或生成图像应用程序创建的,可能会不小心将其包含在下一代产品的训练数据中。
不幸的是,这个问题很可能已经无法挽回:这些类型的网络已经产生了大量未标记的数据,并被纳入其他系统中。
即使我们在ChatGPT或Midjourney的爆发之前拥有整个互联网的快照,但长期以来AI生成的数据每天都在大量涌入全球网络,更别说它们运行时产生的巨量数据。

模型崩溃成因的示意图
但即便如此,至少我们已经知道了这一点。
知道这一点,意味着寻找一种可以识别AI生成内容的水印(这是绝对正确的)已经成为一项更为重要和更有利可图的工作,标记AI生成数据的责任也变得更为严肃。
除此之外,还有其他方法可以弥补这些偏差。
其中一种方法是简单改变模型的权重:增加分布尾部的结果的相关性或频率,它们将自然地沿着钟形曲线移动,靠近均值。这意味着它们就不太容易被修剪掉,从而避免了自动生成训练中的数据丧失。
模型仍然会丢失曲线边缘的数据,但这些数据不再是唯一的数据来源了。
但是,权重是如何决定的?权重应该如何调整?频率应该增加多少?
此外,我们也有责任了解模型微调的影响、以及这些影响的后果如何影响模型最终的生成内容。
以上每个问题的回答都会引发一系列其他问题的关注:
与模型回答背后的真实性相关的问题(其中偏差被称为幻觉);
模型是否存在偏见,以及这种偏见的根源(如果是来自训练数据本身或用于创建网络的权重过程,现在我们也从MAD过程中了解到了);
当模型训练自己的数据时会发生什么.....但如我们所看到的,最后结果并不理想。
同样地,这个问题也是不可忽视的:
就像不接触新知识的人会越来越固步自封和偏执。这与「模型在自己生成的内容上训练时,它会崩溃」是相同的道理。

参考资料:

https://www.tomshardware.com/news/generative-ai-goes-mad-when-trained-on-artificial-data-over-five-times

https://arxiv.org/pdf/2307.01850.pdf

https://futurism.com/ai-trained-ai-generated-data

https://www.tweaktown.com/news/92328/scientists-make-ai-go-crazy-by-feeding-it-generated-content/index.html

浏览量:0

推荐文章

  • 宽恒科技:RTX PRO 5000 Blackwell 引领专业算力,英伟达显卡总代赋能产业升级

    2026 年,AI 大模型推理、专业可视化与创意设计需求持续高涨,高端专业显卡作为核心算力支撑,迎来市场爆发期。英伟达 RTX PRO 5000 Blackwell 作为新一代专业旗舰显卡,基于 Blackwell 架构打造,融合 AI 计算、图形渲染与高效能特性,成为专业领域算力新标杆。宽恒科技作为英伟达NPN Elite 精英级合作伙伴,深耕专业显卡领域多年,依托原厂授权与技术实力,为客户提供 RTX PRO 5000 Blackwell 全系产品、方案定制与技术支持服务,助力专业用户高效落地 AI 与创意应用,赋能产业升级。

    0 2026-05-12
  • 宽恒科技:DGX Spark 重构桌面算力,英伟达桌面 AI 超算开启普惠 AI 时代

    2026 年,AI 大模型应用向轻量化、本地化快速演进,千亿参数模型的本地部署与调试需求激增,传统大型算力集群成本高、部署难,桌面级 AI 超算成为产业新焦点。NVIDIA DGX Spark 作为英伟达首款桌面 AI 超级计算机,将数据中心级算力浓缩于桌面尺寸,以极致性能与便携形态,重构个人与中小企业 AI 开发范式。宽恒科技作为英伟达 NPN Elite 精英级合作伙伴,率先引入 DGX Spark 桌面超算,提供销售、部署、技术支持一站式服务,助力 AI 开发者与企业高效落地本地大模型应用,开启普惠 AI 新时代。

    0 2026-05-12
  • 宽恒科技:VR 产业爆发期,PICO 与 HTC VIVE 旗舰设备构建沉浸式生态

    2026 年,元宇宙、虚拟办公、数字孪生产业加速落地,VR 设备作为沉浸式交互核心,迎来需求爆发期。PICO 与 HTC VIVE 作为全球 VR 领域两大领军品牌,推出 PICO NEO3、PICO 4 Ultra、HTC VIVE Focus Vision、HTC VIVE Cosmos 四款旗舰设备,覆盖消费级、专业级、企业级全场景需求。宽恒科技深耕 XR 领域多年,整合两大品牌全系旗舰产品,为客户提供设备销售、方案定制、技术支持一站式服务,助力教育、医疗、工业、娱乐等行业高效落地 VR 应用。

    0 2026-05-12
  • 宽恒科技:深耕英伟达顶级代理体系,以 NPN Elite 资质赋能 AI 产业

    在全球 AI 算力竞争白热化的 2026 年,英伟达凭借技术垄断地位主导高端算力市场,其严格的代理授权体系成为保障产品质量与服务标准的核心。英伟达 NPN 合作伙伴网络、NVAIE 认证、NVIDIA AI Enterprise 软件授权、数据中心解决方案授权及 Elite 精英级别代理,构成完整的生态壁垒。宽恒科技作为英伟达 NPN Elite 精英级合作伙伴,深耕代理体系多年,凭借顶级资质与技术实力,为客户提供原厂级产品、方案与服务,成为连接英伟达与企业客户的核心桥梁。

    0 2026-05-12
  • 宽恒科技:算力浪潮下,英伟达全栈算力构建 AI 新基建

    2026 年,生成式 AI 与大模型训练进入爆发期,算力需求呈指数级增长,算力租赁、GPU 集群与 AI 服务器成为产业核心,英伟达凭借技术壁垒主导全球高端算力市场,SuperPOD 更是成为大规模算力部署的标杆方案。宽恒科技深耕算力领域多年,依托英伟达全栈产品与技术,为企业提供从算力租赁到集群部署的一站式服务,助力各行业高效落地 AI 应用。

    0 2026-05-12
  • Blackwell架构加持,RTX PRO 5000领衔专业算力,宽恒科技(英伟达npn)保驾护航

    RTX PRO 5000系列显卡的推出,进一步巩固了英伟达在专业GPU领域的领先地位,而宽恒科技作为英伟达npn,将持续依托官方授权、专业技术与完善服务,为客户提供正版、优质、高效的RTX PRO 5000产品与解决方案,助力各行业用户释放专业算力价值,在AI与数字创意产业浪潮中实现高质量发展。

    2 2026-05-11