LLMs 难道最终会自我训练?输出会逐渐下降..

发布: (2026年1月8日 GMT+8 09:06)
1 min read
原文: Dev.to

Source: Dev.to

TL;DR

LLMs 在文档、GitHub 仓库、StackOverflow 和 Reddit 等内容上进行训练。但随着我们不断使用 LLM,自己的输出也会进入这些平台。这就意味着……它们迟早会在自己的输出上进行训练。每一次,质量可能 下降 0.1 %。这种下降会累积,呈指数增长。

LLMs 确实能产生高质量的输出。这是因为它们是基于人类数据训练的。你可以察觉到 AI 的输出有时会 稍微 差一点,有时甚至差很多。

有点像“传声筒游戏”……信息会慢慢被稀释。每一次的下降可能很小,比如 0.0001 %。但随后会呈指数恶化。0.1 % 的 0.1 %

Back to Blog

相关文章

阅读更多 »

指令不是控制

封面图片:Instructions Are Not Control https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-u...