我破解了 GPT-2:我如何利用几何证明语义崩塌(The Ainex Limit)

发布: (2026年1月8日 GMT+8 01:30)
5 min read
原文: Dev.to

Source: Dev.to

TL;DR

我让 GPT‑2 通过自己的输出进行学习,循环 20 代。到第 20 代时,模型失去了 66 % 的语义体积,并开始出现诸如“鳄鱼是物理学的基本定律”之类的幻觉。下面是实验的数学原理和代码。

AI 的 “疯牛病”

大家都在讨论数据短缺以及业界提出的解决方案:合成数据——用其他模型生成的数据来训练模型。这听起来像是永动机,但如果你不断复印复印件,得到的不是无限的纸张,而是噪声。我想找到 LLM 与现实脱节的确切 “破裂点”,我称之为 Ainex 极限

困惑度的问题

大多数研究者使用 perplexity(困惑度) 来衡量模型性能,但困惑度只衡量模型有多“困惑”。一个自信但错误的陈述也可能拥有低困惑度。我需要一种衡量 意义 而非置信度的指标。

我的思路:几何胜于概率

我把模型的 “大脑” 看作几何空间。

  • 嵌入(Embeddings): 将每段生成的文本转换为高维向量。
  • PCA 投影: 将这些向量降到 3 维以便可视化。
  • 凸包体积(Convex Hull Volume): 计算得到的形状的实际体积。

假设: 健康的模型占据大而宽阔的体积(创造力)。崩溃的模型会收缩成密集、重复的 “黑洞”。

实验

  • 模型: GPT‑2 Small(124 M)
  • 方法: 递归循环 – 训练 → 生成 → 训练
  • 代数: 20
  • 硬件: 单个 T4 GPU

循环在前五代运行顺畅;此后指标开始急剧恶化。

结果: “鳄鱼” 产物

到第 20 代时,语义体积 ($V_{\text{hull}}$) 已经塌缩 66.86 %。更令人惊讶的是出现的幻觉。

控制提示:“物理学的基本定律规定 …”

代数输出(摘录)
Gen 0(人工数据)“…电子由一种稀薄的气体组成。”(符合上下文)
Gen 10“…铁氧化物邮件在回家前发送。”(逻辑崩溃)
Gen 20“…15 岁的女性可以抵御 鳄鱼 的攻击。”(语义彻底死亡)

模型不仅忘记了物理学,它 创造 了一个新现实:鳄鱼是原子定律的一部分。由于模型在自己的输出上进行训练,这个幻觉成为了下一代的 “真实” 数据。

Showing the dashboard
图 1:Ainex 仪表盘显示体积损失与欧氏漂移之间的关联。

可视化裂缝

使用 3‑D PCA 我们实际上可以 看到 脑部损伤。绿色点代表健康、多样的人类基线;熔岩色点代表塌缩的 AI——一个紧凑、漂移的簇,远离现实。

PCA Point Cloud
图 2:从人类基线(绿色)到 AI 疯狂(熔岩色)的漂移。

结论:Ainex 极限

实验表明,天真的合成训练会导致不可逆的 模型自噬(自我吞噬)。如果没有几何防护——例如本文提出的 Ainex 指标——未来的模型不仅会不准确,还可能自信地变得疯狂。

代码已开源,欢迎社区来破坏、修复或扩展它。

资源

  • GitHub 仓库:
  • DOI: 10.5281/zenodo.18157801

标签: #machinelearning #python #ai #datascience

Back to Blog

相关文章

阅读更多 »

指令不是控制

封面图片:Instructions Are Not Control https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-u...