我构建了一个开源 AI 工具,可将任何代码库转换为深度工程文档(100% 本地运行)
Source: Dev.to
Introducing KT Studio
KT Studio 是一个开源、优先本地运行的网页应用,它会扫描你的代码仓库并使用本地 Ollama 模型生成深度、结构化的工程文档。
- 无云服务
- 无代码上传
- 无外部 API
所有操作全部在你的机器上完成。
GitHub:
What It Actually Does
KT Studio 会分析你的项目并生成结构化的文档站点,内容包括:
- ✅ 架构概览(带 Mermaid 图表)
- ✅ 快速入门指南(直接使用仓库中的真实安装命令)
- ✅ API 参考(从路由解析)
- ✅ 数据库层说明
- ✅ 环境变量拆解
- ✅ CI/CD 与部署说明
- ✅ AI 集成检测(OpenAI、Ollama、LangChain 等)
- ✅ 测试策略
- ✅ 故障排查指南
- ✅ 所有权与风险区域
它读取项目结构并生成 感知仓库 的文档,而不是通用摘要。
Why Local‑First AI?
许多团队无法将专有仓库上传到云端 AI 工具。KT Studio:
- 使用 Node.js 文件系统扫描
- 跳过
node_modules、dist以及其他构建产物 - 忽略
.env、.pem、Terraform 密钥等文件 - 自动脱敏潜在凭证
通过 Ollama 在 http://127.0.0.1:11434 运行;你的代码永远不会离开本机。
Tech Stack
- Next.js (App Router) + TypeScript
- Tailwind CSS + shadcn/ui
- SQLite via Prisma
- Ollama (默认模型:
qwen3-coder:30b) react-markdown+ Mermaid.js- Server‑Sent Events (SSE) 用于实时流式传输
Real Use Cases
Developer Onboarding
在新开发者加入前生成项目蓝图。
Knowledge Transfer
当资深开发离职时,几分钟内生成结构化的 KT 文档。
Codebase Audits
更快了解继承的代码仓库。
AI‑Heavy Projects
自动检测:
- 模型使用情况
- Prompt 模板
- 向量嵌入流水线
- RAG 风格的集成
Consulting & Freelancing
在项目交付时提供完善的文档。
How to Run It
Prerequisites
- Node.js v18+
- 本地运行的 Ollama (
http://127.0.0.1:11434) - 已安装的 Ollama 模型(默认
qwen3-coder:30b)
Install & Start
npm install
npx prisma db push
npx prisma generate
npm run dev
在浏览器中打开。
Generating Docs (Local Mode)
- 确保 Ollama 正在运行。
- 点击 New Project。
- 选择本地文件夹并输入绝对路径。
- 点击 Start Generation。
- 完成后,点击 View Documentation。
What’s Next?
计划中的扩展:
- Git 仓库导入模式
- 基于向量的语义索引
- 增量再生成
- 版本间架构差异对比
- 插件化文档章节
- 团队协作模式
Looking for Collaborators
如果你对以下方向感兴趣:
- AI 驱动的开发者工具
- 本地 LLM 系统
- 仓库智能分析
- 开发者生产力
- 开源基础设施
我很乐意合作。
Repo:
Bigger Vision
如果每个仓库都能自行解释会怎样?
如果入职培训可以用几小时而不是几周会怎样?
如果知识转移不再依赖记忆会怎样?
这正是 KT Studio 想要解决的问题。让我们一起让代码库自解释吧。