AI-雷达.it
发布: (2026年1月16日 GMT+8 05:20)
2 min read
原文: Dev.to
Source: Dev.to

概览
大家好,很高兴加入社区。
作为 AI 爱好者,我一直在研究大语言模型(LLM)的工作原理,阅读大量书籍,并在 Google Colab、Hugging Face 和 Kaggle 上进行实验。我使用 VS Code 和 Google Antigravity 构建了多个 AI 相关的应用。本篇文章介绍我的小贡献 ai‑radar.it,这是一款完全使用 VS Code 和 Antigravity 构建的新闻聚合器。
关键特性
- 以 Python 为中心的内容 – 大多数文章与 Python 相关,并大量使用 Hugging Face 库。
- 本地 LLM 支持 – 对某些任务使用本地部署的 Ollama 3B 模型。
- GenAI 集成 – 其他 AI 相关任务通过生成式 AI 服务处理。
- 基于 Chromadb 的 RAG – 通过内部聊天机器人 Ask Observatory 提供上下文答案。
- LLM 计算器 – 评估你的硬件(目前仅考虑 RAM)是否能够本地运行 LLM,并推荐合适的模型。
技术细节
- 开发环境: VS Code + Google Antigravity。
- 模型服务: 本地运行的 Ollama 3B 模型。
- 向量存储: 用于检索增强生成(RAG)的 Chromadb。
- 聊天机器人: 名为 Ask Observatory,利用本地模型和向量存储回答查询。
- 硬件检查: 简单的计算器,根据可用 RAM 判断本地部署 LLM 的可行性。
截图

入门指南
如果你感兴趣,欢迎探索该项目。
— Davide