Ggml.ai 加入 Hugging Face,确保本地 AI 的长期进展
看起来您只提供了来源链接,而没有要翻译的正文内容。请提供需要翻译的文本,我会按照要求进行翻译并保留原始的格式和代码块。
公告
我们很高兴宣布,ggml.ai(llama.cpp 的创始团队)加入 Hugging Face,以确保未来的 AI 真正保持开放。
Georgi 和团队加入 HF,目标是随着本地 AI 在未来几年实现指数级进展,扩大并支持 ggml/llama.cpp 社区。
摘要 / 关键点
- The ggml‑org projects remain open and community‑driven as always.
- The ggml team continues to lead, maintain, and support full‑time the
ggmlandllama.cpplibraries and related open‑source projects. - The new partnership ensures long‑term sustainability of the projects and will help foster new opportunities for users and contributors.
- Additional focus will be dedicated to improving user experience and integration with the Hugging Face transformers library for better model support.
为什么要进行此更改?
自 2023 年成立以来,ggml.ai 的核心使命始终是支持 ggml 机器学习库的开发与采用。过去三年里,公司背后的小团队壮大了开源开发者社区,并帮助将 ggml 打造成高效本地 AI 推理的权威标准。这一成就得益于与个人贡献者的紧密合作、与模型提供商的伙伴关系以及独立硬件厂商的支持。因此,如今 llama.cpp 已成为无数项目和产品的基础构件,使得在消费级硬件上实现私有且易于获取的 AI 成为可能。
在此发展过程中,Hugging Face 脱颖而出,成为最强大且最支持的合作伙伴。在过去的几年里,HF 的工程师(尤其是 @ngxson 和 @allozaur):
- 为
ggml和llama.cpp贡献了多项核心功能。 - 构建了一个界面精致的稳固推理服务器。
- 为
llama.cpp引入了多模态支持。 - 将
llama.cpp集成到 Hugging Face 推理端点中。 - 改进了 GGUF 文件格式与 Hugging Face 平台的兼容性。
- 在
llama.cpp中实现了多种模型架构。 - 为
ggml项目提供了通用维护、PR 审核等帮助。
我们的团队之间的合作一直顺畅高效。双方以及社区都从这些联合努力中受益。将这种合作正式化是有意义的,以便在未来进一步加强合作。
对 ggml/llama.cpp、开源项目和社区会有什么变化?
并不会有太大变化——Georgi 和团队将继续把 100 % 的时间投入到维护 ggml/llama.cpp。社区将保持完全自治,继续像往常一样做出技术和架构决策。Hugging Face 为该项目提供了长期可持续的资源,提升了项目成长和繁荣的可能性。该项目将保持 100 % 开源和社区驱动。期待在模型发布后,你最喜欢的量化方式能够更快得到支持。
Technical focus
与 transformers 库的无缝“一键式”集成
transformers 框架已成为 AI 模型定义的“权威来源”。提升 transformers 与 ggml 生态系统之间的兼容性,对于扩大模型支持范围和实现质量控制至关重要。
改进基于 ggml 的软件包装和用户体验
随着本地推理成为云推理的有竞争力的替代方案,简化普通用户部署和访问本地模型的方式变得尤为关键。我们将致力于让 llama.cpp 无处不在、随时可用,同时继续与下游项目合作。
长期愿景
我们的共同目标是提供构建模块,使开源超级智能在未来几年内对全世界可及。与日益壮大的本地 AI 社区携手,我们将打造在设备上尽可能高效运行的终极推理栈。