如何开始并使用 Gemini CLI 构建(由 Gemini 3 Flash 提供支持)
Source: Dev.to
作者 Lesly Zerna / @leslysandra
作为开发者,我们始终在寻找能够加快工作流而不打断专注状态的工具。2025年6月,Google 通过发布 Gemini CLI 在开源社区掀起了巨大的波澜,而在2025年12月,它又用最新模型 Gemini 3 Flash 对该工具进行了更新。
如果你厌倦了在浏览器和 IDE 之间复制粘贴代码,或者想看看真正的 “AI 代理” 在终端中是什么样子,那么本指南适合你 :)
注意: 本文中的许多概念和示例受到了 DeepLearning.AI 的 Gemini CLI 课程 的启发,我强烈建议大家去看看,同时还有官方的 Gemini CLI 文档 和 Google 开发者博客文章。
什么是 Gemini CLI?
简单来说,Gemini CLI 是一个终端应用程序,让你可以直接在命令行中与 Google 的 Gemini AI 进行聊天。
但它不仅仅是聊天机器人——它是一个由 Gemini 驱动的开源 AI 代理。
当你使用 ChatGPT 或 Gemini 网页界面时,你处于一个“沙盒”中:AI 无法看到你的文件或运行命令,除非你上传它们。Gemini CLI 打破了这道墙。它运行在你的环境内部,这意味着它可以理解你的项目结构,直接读取你的代码,并帮助你更快地构建。
为什么 “Gemini 3 Flash” 更新重要?
Gemini 3 Flash 已针对速度和低延迟进行优化。当你使用需要执行多个步骤的 AI 代理时(例如,“读取此文件”,然后“分析它”,再“编写测试”),速度至关重要。Flash 让 CLI 感觉灵敏且响应迅速。

为什么使用 CLI?(浏览器 vs. 终端)
在浏览器中工作适合一般性的问题,但在构建软件时,命令行界面(CLI)更为出色。原因如下:
- 直接访问文件系统 – 再也不需要复制粘贴。你可以说 “重构
utils.py文件”,CLI 会读取它并直接提出修改建议。 - 上下文感知 – CLI 知道你当前的工作目录以及其中的文件。
- 自动化与脚本化 – 将其他命令的输出通过管道传给 Gemini,例如
cat logs.txt | gemini "Find the critical error"。 - 内置工具 – Gemini CLI 附带即用型工具,包括:
- 文件系统 – 读取、写入和列出文件。
- 网络 – 获取 URL 并搜索 Google(让你的代码基于实时信息)。
- Shell – 安全地执行终端命令。
- 自定义与扩展 – 由于它是 开源 的,你可以进行扩展。它支持 模型上下文协议(Model Context Protocol,MCP),允许你构建连接到数据库或内部 API 的自定义工具。
Source:
实际案例和构建思路
以下是几种您可以立即使用 Gemini CLI 来提升工作效率的方式。
1. “智能”代码审查员
与其手动检查代码的风格问题,不如在推送之前使用 Gemini CLI 来审查代码。
命令
gemini "Review @main.py for potential bugs and clean code practices. Output the suggestions as a list."
为什么有效 – CLI 直接读取文件,并利用 Gemini 的推理能力,发现您可能遗漏的边缘情况。
2. 即时数据分析师
想象一下,您有一个凌乱的 CSV 或日志文件,需要快速洞察。
场景 – 您有一个名为 server_logs.csv 的文件。
命令
gemini "Read @server_logs.csv and tell me which IP address appears the most frequently. Then, use grep to count exactly how many times it appears."
为什么有效 – 代理将编写代码(分析 CSV)的能力与系统工具(如 grep)相结合,以验证数据。
3. 快速原型开发
需要搭建一个新功能的框架吗?
命令
gemini "Create a new folder called 'blog-app'. Inside it, create an index.html file with a basic responsive layout and a style.css file with a dark mode theme."
结果 – CLI 为您创建文件夹并写入文件,让您可以立即开始编码。
Source: …
如何开始:安装
准备好尝试了吗?安装 Gemini CLI 非常简单。你只需要在机器上安装 Node.js。
更多细节: 请参阅官方文档 geminicli.com。
第 1 步 – 打开终端
第 2 步 – 运行安装命令
npm install -g @google/gemini-cli@latest
第 3 步 – 认证
只需输入以下指令即可启动工具:
gemini
首次运行时,CLI 会要求你进行身份验证。通常可以直接使用 Google 账户登录,登录后即可获得慷慨的免费额度,开始实验。

安装完成后,你可以在终端中看到它的运行界面:
第 4 步 – 启用最新功能 (关键步骤!)
要使用强大的 Gemini 3 Flash 模型,需要开启预览功能。
- 在 CLI 中输入
/settings。 - 找到 “Preview Features”(预览功能)。
- 将其设置为
True。
这样即可确保你使用的是最新、最快、最强大的模型。

深入了解:Gemini CLI 工作原理
你可能会好奇,“终端中的文本框是怎么知道该运行代码的?”
Gemini CLI 使用一种叫 ReAct Loop(Reason + Act,思考 + 行动)的概念。下面是一个简明的说明,展示当你输入命令时会发生什么:
- 思考(Thought): 你提出一个问题(例如,“为什么我的构建会失败?”)。AI 会分析你的请求。
- 工具使用(Tool Use): AI 并不是仅凭猜测,它会看到自己拥有“工具”——比如读取文件或运行 shell 命令。于是它决定,“我应该运行构建命令来查看错误”。
- 观察(Observation): CLI 执行该命令,捕获输出(错误信息),并将其反馈给 AI。
- 答案(Answer): AI 读取错误并给出具体的修复方案。
这个循环使得 CLI 像真正的结对编程伙伴,而不仅仅是一个文本生成器。
在终端中导航:必备命令
/help– 显示代理可以执行的操作以及如何与之交互。/settings– 让您浏览并修改设置(助手设置、模式等)。/docs– 打开高级功能的文档。
如何引用你的文件
这是 CLI 的超能力。你无需复制粘贴代码。要让 Gemini 了解特定文件,只需使用 @ 符号。
示例
“你能解释一下 @main.py 中的逻辑并提出改进建议吗?”
代理会读取该文件,并基于其中的代码给出答案。
理解上下文和 GEMINI.md
什么是上下文?
上下文是 AI 代理用来理解您具体请求的一系列信息。它是 AI 所需的“背景知识”,这样您就不必重复说明。
GEMINI.md 的魔力
创建一个名为 GEMINI.md 的特殊文件,用来向 CLI 介绍您的项目——相当于“AI 的自述文件”。
如果您的文件夹中存在 GEMINI.md,CLI 会自动读取它,以了解项目规则、编码风格、架构等。
您可以将 GEMINI.md 放置在:
- 全局目录 – 适用于所有项目的规则。
- 当前工作文件夹 – 项目特定的规则。
- 子目录 – 针对该模块的特定规则。
管理内存
您可以手动验证 AI 当前“知道”的内容或向其记忆中添加新信息。
检查上下文
/memory show
列出当前代理上下文中的所有内容。
手动添加上下文
/memory add "Remember that we are using Python 3.11 for this project"
或将其指向特定的上下文文件:
/memory add path/to/another/gemini.md
结论(第 1 部分)
从浏览器聊天转向终端代理是开发者生产力的巨大飞跃。随着 Gemini 3 Flash 现在为 Gemini CLI 提供动力,并且可以使用 GEMINI.md 自定义 Context,我们拥有了一款既足够快速以跟上思路,又足够智能以处理复杂任务的工具。
试一试,探索 开源 代码,并告诉我你构建了什么!
更多博客即将推出——订阅并持续关注!
— Lesly
