我为何创建‘DevPulse’:一款隐私优先、AI 驱动的阅读器(真正本地运行)

发布: (2026年2月4日 GMT+8 22:02)
3 分钟阅读
原文: Dev.to

Source: Dev.to

为什么我创建了 DevPulse

作为开发者,我们不断被信息轰炸。我们会访问 Dev.to、Hacker News 或 Twitter 等站点寻找特定知识,但往往最终在黑箱算法挑选的 “Top 10 VS Code Extensions” 列表中无止境地滚动。

目标

我想要一种阅读体验,具备以下特性:

  • 有目的 – 我只订阅我关心的话题(例如 #rust#system-design#ai)。
  • 隐私 – 没有跟踪像素,没有 “为你推荐” 的留存技巧。
  • 智能 – 能在我决定阅读之前先对长文章进行摘要。

最重要的是,我不想把我的阅读习惯发送到外部 AI 服务器。

“杀手”功能:本地 AI

与其为 OpenAI 额度付费或把文章数据发送到云端,DevPulse 直接集成运行在本机上的 Ollama

  1. 当你看到感兴趣的标题时,点击 ✨ Summarize 按钮。
  2. 应用抓取文章文本。
  3. 将文本发送到 localhost:11434(你的 gemma3:4b 模型所在位置)。
  4. 立即收到两句摘要。

所有数据都保留在你的机器上。模型在你的 GPU 上运行,使体验既免费、又私密、且异常快速。

技术栈

层级技术
前端React + Vite(快速、最小化打包)
样式自定义 CSS 变量(单色、高对比度,无沉重框架)
AIOllama(gemma3:4b 模型)
存储IndexedDB(离线书签和偏好设置)

为什么本地 AI 很重要

我们正进入 “本地 AI” 时代。像摘要这样的简单任务不再需要庞大的云数据中心。把模型搬到数据所在的地方(浏览器),我们即可实现隐私保护和零延迟的体验,这在以前是不可想象的。

获取代码

前往 GitHub 查看代码仓库:

Back to Blog

相关文章

阅读更多 »

当 AI 给你一巴掌

当 AI 给你当头一棒:在 Adama 中调试 Claude 生成的代码。你是否曾让 AI “vibe‑code” 一个复杂功能,却花了数小时调试细微的 bug……