GGML 与 llama.cpp 加入 HF,确保本地 AI 的长期进展
发布: (2026年2月20日 GMT+8 08:00)
3 分钟阅读
Source: Hugging Face Blog
我们非常高兴地宣布,GGML(llama.cpp 的创建者)加入 Hugging Face,以保持未来 AI 的开放性。🔥
Georgi Gerganov 及其团队加入 Hugging Face,目标是随着本地 AI 在未来几年实现指数级进步,扩大并支持 ggml 和 llama.cpp 背后的社区。
我们已经与 Georgi 和团队合作了相当长的时间(我们团队中甚至已经有了像 Son 和 Alek 这样的优秀核心贡献者),因此这是一件非常自然的事。
llama.cpp 是本地推理的基础构件,而 transformers 是模型定义的基础构件,这简直是天作之合。❤️

对 llama.cpp、开源项目和社区会有什么变化?
变化不大——Georgi 和团队将继续全力(100 %)维护 llama.cpp,并保持对其技术方向和社区的完全自主与领导。
Hugging Face 为该项目提供长期可持续的资源,提升项目成长和繁荣的可能性。该项目将继续保持 100 % 开源和社区驱动的状态。
技术重点
- 无缝集成 – 我们将致力于让从 transformers 库(作为模型定义的“真理来源”)向 llama.cpp 推送新模型尽可能简单(几乎是“一键”完成)。
- 打包与用户体验 – 随着本地推理成为云推理的有意义且具竞争力的替代方案,我们将改进并简化普通用户部署和使用本地模型的方式。我们的目标是让 llama.cpp 随处可见、随时可用。
我们的长期愿景
我们的共同目标是为社区提供构建块,使开源超级智能在未来几年内能够惠及全球。
我们将与日益壮大的本地 AI 社区一起实现这一目标,继续打造在设备上尽可能高效运行的终极推理栈。