新研究揭示:AI自生成内容的循环使用可能导致“模型崩溃”

据《福布斯》9月4日报道,牛津大学的伊利亚·舒梅洛夫博士及其团队在《自然》杂志上发表的一项研究中指出,当AI系统仅依赖于由自身生成的内容进行训练时,其输出质量会迅速下降。

据《福布斯》9月4日报道,牛津大学的伊利亚·舒梅洛夫博士及其团队在《自然》杂志上发表的一项研究中指出,当AI系统仅依赖于由自身生成的内容进行训练时,其输出质量会迅速下降。

这种现象被称为“模型崩溃”,即AI在不断使用自身生成的数据进行训练后,其输出内容逐渐失去准确性和实用性。

研究显示,在经过五次连续的自我生成内容训练后,AI的输出质量显著下降;到了第九次,输出内容已经退化为毫无意义的文本。

舒梅洛夫博士指出,模型崩溃的发生速度之快和难以察觉的程度令人惊讶。最初,它可能只影响少数数据,但随后会逐渐侵蚀输出的多样性,最终导致整体质量的严重下降。

为了验证这一现象,研究人员采用了一种方法:他们使用了一个预训练的AI系统,该系统能够驱动一个维基百科的版本,并让AI基于自己生成的内容进行更新。结果发现,随着受污染数据的累积,原

猜你喜欢

转载自blog.csdn.net/leyang0910/article/details/142032115