我为何创建‘DevPulse’:一款隐私优先、AI 驱动的阅读器(真正本地运行)
发布: (2026年2月4日 GMT+8 22:02)
3 分钟阅读
原文: Dev.to
Source: Dev.to
为什么我创建了 DevPulse
作为开发者,我们不断被信息轰炸。我们会访问 Dev.to、Hacker News 或 Twitter 等站点寻找特定知识,但往往最终在黑箱算法挑选的 “Top 10 VS Code Extensions” 列表中无止境地滚动。
目标
我想要一种阅读体验,具备以下特性:
- 有目的 – 我只订阅我关心的话题(例如
#rust、#system-design、#ai)。 - 隐私 – 没有跟踪像素,没有 “为你推荐” 的留存技巧。
- 智能 – 能在我决定阅读之前先对长文章进行摘要。
最重要的是,我不想把我的阅读习惯发送到外部 AI 服务器。
“杀手”功能:本地 AI
与其为 OpenAI 额度付费或把文章数据发送到云端,DevPulse 直接集成运行在本机上的 Ollama。
- 当你看到感兴趣的标题时,点击 ✨ Summarize 按钮。
- 应用抓取文章文本。
- 将文本发送到
localhost:11434(你的gemma3:4b模型所在位置)。 - 立即收到两句摘要。
所有数据都保留在你的机器上。模型在你的 GPU 上运行,使体验既免费、又私密、且异常快速。
技术栈
| 层级 | 技术 |
|---|---|
| 前端 | React + Vite(快速、最小化打包) |
| 样式 | 自定义 CSS 变量(单色、高对比度,无沉重框架) |
| AI | Ollama(gemma3:4b 模型) |
| 存储 | IndexedDB(离线书签和偏好设置) |
为什么本地 AI 很重要
我们正进入 “本地 AI” 时代。像摘要这样的简单任务不再需要庞大的云数据中心。把模型搬到数据所在的地方(浏览器),我们即可实现隐私保护和零延迟的体验,这在以前是不可想象的。
获取代码
前往 GitHub 查看代码仓库: