LLMs 难道最终会自我训练?输出会逐渐下降..
发布: (2026年1月8日 GMT+8 09:06)
1 min read
原文: Dev.to
Source: Dev.to
TL;DR
LLMs 在文档、GitHub 仓库、StackOverflow 和 Reddit 等内容上进行训练。但随着我们不断使用 LLM,自己的输出也会进入这些平台。这就意味着……它们迟早会在自己的输出上进行训练。每一次,质量可能 下降 0.1 %。这种下降会累积,呈指数增长。
LLMs 确实能产生高质量的输出。这是因为它们是基于人类数据训练的。你可以察觉到 AI 的输出有时会 稍微 差一点,有时甚至差很多。
有点像“传声筒游戏”……信息会慢慢被稀释。每一次的下降可能很小,比如 0.0001 %。但随后会呈指数恶化。0.1 % 的 0.1 %。