Experimental evidence of progressive ChatGPT models self-convergence

📄 arXiv: 2603.12683v1 📥 PDF

作者: Konstantinos F. Xylogiannopoulos, Petros Xanthopoulos, Panagiotis Karampelas, Georgios A. Bakamitsos

分类: cs.CL, cs.AI

发布日期: 2026-03-13


💡 一句话要点

实验证据表明,ChatGPT模型存在因递归训练导致的自收敛现象

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 模型自收敛 递归训练 文本多样性 ChatGPT 模型崩溃 纵向研究

📋 核心要点

  1. 现有研究缺乏对LLM递归训练导致模型退化的长期纵向评估,难以量化模型质量随时间的变化。
  2. 该研究通过文本相似性度量,评估不同版本ChatGPT生成文本的多样性,揭示模型自收敛现象。
  3. 实验结果表明,即使在高温设置下,新版ChatGPT生成文本的多样性也显著降低,验证了模型自收敛的假设。

📝 摘要(中文)

大型语言模型(LLM)在合成数据上进行递归训练时,容易出现模型崩溃,表现为生成无意义的输出。现有研究主要从理论或经验角度探讨此问题,通常关注单个模型递归训练自身输出的情况。尽管先前的研究警告了在这种条件下LLM输出质量可能下降,但尚未进行纵向研究来评估这种影响随时间的变化。本研究采用文本相似性度量来评估不同ChatGPT模型生成多样化文本输出的能力。研究结果表明,即使明确提示(将温度参数设置为1),最近发布的ChatGPT版本生成多样化文本的能力也明显下降。观察到的输出多样性降低可能归因于训练数据集中合成数据量的影响,这是由于LLM生成的数据渗透到互联网中造成的。这种现象被定义为模型自收敛,因为不同ChatGPT版本生成的文本之间的相似性逐渐增加。

🔬 方法详解

问题定义:论文旨在研究大型语言模型(LLM)在递归训练过程中,由于训练数据中包含大量自身生成的数据,是否会发生模型崩溃或性能退化的问题。现有方法主要关注单个模型的递归训练,缺乏对不同版本模型随时间变化的纵向研究,无法有效评估模型自收敛现象。

核心思路:论文的核心思路是通过比较不同版本的ChatGPT模型生成文本的多样性,来评估模型是否发生了自收敛。如果模型在递归训练过程中逐渐倾向于生成相似的文本,那么其输出的多样性将会降低,从而可以推断出模型发生了自收敛。

技术框架:该研究的技术框架主要包括以下几个步骤:1) 选择不同版本的ChatGPT模型;2) 使用相同的提示词,让这些模型生成文本;3) 使用文本相似性度量方法(具体方法未知)计算不同模型生成文本之间的相似度;4) 分析相似度随时间的变化趋势,从而判断模型是否发生了自收敛。

关键创新:该研究的关键创新在于对不同版本的ChatGPT模型进行了纵向比较,从而能够更全面地评估模型自收敛现象。此外,该研究还提出了使用文本相似性度量来量化模型输出多样性的方法,为评估LLM的性能退化提供了一种新的思路。

关键设计:论文的关键设计包括:1) 选择具有代表性的ChatGPT版本;2) 设计能够有效激发模型生成多样化文本的提示词;3) 选择合适的文本相似性度量方法,例如余弦相似度或编辑距离等(具体方法未知);4) 设置合适的温度参数,以控制模型生成文本的随机性(温度参数设置为1)。

📊 实验亮点

实验结果表明,即使将温度参数设置为1,最近发布的ChatGPT版本生成多样化文本的能力也明显下降。这表明,随着时间的推移,ChatGPT模型可能由于递归训练和互联网上LLM生成数据的渗透而发生自收敛,导致输出多样性降低。该研究为LLM的长期稳定性和可靠性问题提供了重要的实验证据。

🎯 应用场景

该研究结果对LLM的训练和部署具有重要意义。理解模型自收敛现象有助于开发更有效的训练策略,避免模型性能退化。此外,该研究也为评估LLM的长期稳定性和可靠性提供了参考,有助于提高LLM在实际应用中的可信度,例如在对话系统、内容生成和信息检索等领域。

📄 摘要(原文)

Large Language Models (LLMs) that undergo recursive training on synthetically generated data are susceptible to model collapse, a phenomenon marked by the generation of meaningless output. Existing research has examined this issue from either theoretical or empirical perspectives, often focusing on a single model trained recursively on its own outputs. While prior studies have cautioned against the potential degradation of LLM output quality under such conditions, no longitudinal investigation has yet been conducted to assess this effect over time. In this study, we employ a text similarity metric to evaluate different ChatGPT models' capacity to generate diverse textual outputs. Our findings indicate a measurable decline of recent ChatGPT releases' ability to produce varied text, even when explicitly prompted to do so, by setting the temperature parameter to one. The observed reduction in output diversity may be attributed to the influence of the amounts of synthetic data incorporated within their training datasets as the result of internet infiltration by LLM generated data. The phenomenon is defined as model self-convergence because of the gradual increase of similarities of produced texts among different ChatGPT versions.