教AI成为教师:我5天构建AI Literacy Agent的旅程
Source: Dev.to
Introduction
从“人们不知道该向 AI 提问什么”到多代理学习系统——我在 Google AI Agents Intensive 中的旅程。这篇反思是为 Google AI Agents Writing Challenge: Learning Reflections 提交的。
作为开发者、研究员和 AI 素养教育者,我经常看到同样的模式:用户拥有强大的模型(ChatGPT、Claude、Gemini 等),却因为不知道该问哪些问题而苦恼。模糊的提示只能得到通用答案,导致他们得出“AI 并不那么有用”的结论。用户还会在不理解隐私风险的情况下分享敏感数据,并且对 AI 的输出缺乏批判性接受,从未超越基础使用。
当 Google 和 Kaggle 宣布 5 天 AI Agents Intensive 时,我看到了一个机会——构建 不是另一个聊天机器人,而是一个学习支架:AI Literacy Guardian,一个教人们如何批判性思考 AI 的多代理系统。
Day 1 – A Shift in Mental Model
课程介绍了多代理系统,这个概念让我恍然大悟。我意识到 AI 素养教育不是单一问题对应单一解决方案,而是 多个专门功能的协同:
- 清晰解释概念
- 主动识别风险
- 创建练习题目
- 跟踪学习进度
单个 LLM 无法同时在这些方面表现出色,但专门的代理可以。这一洞见塑造了我的顶点项目。
Day 2 – Tool Integration
代理不仅是带有花哨提示的 LLM;当配备专用工具后,它们就成为 有能力的系统。我构建了:
- RiskScanner – 对每一次交互进行系统化安全评估。
- PromptGenerator – 生成结构化的教学示例。
- LearningSummarizer – 综合跨会话的对话模式。
这些工具把代理从“聪明的应答者”转变为可靠、可重复使用的组件。
Day 3 – The Manager Agent
起初我以为编排只是把查询路由到合适的代理。实验室展示,管理代理还必须:
- 维护状态和对话历史(最近 10 轮)
- 跟踪用户画像并根据之前的交互进行适配
实现这些功能后,系统从无状态的问答机器人变成了 学习伴侣。管理代理充当多代理架构的神经系统。
Day 4 – Evaluation as a Core Component
受 “LLM‑as‑a‑Judge” 概念以及约翰斯·霍普金斯大学的 Applied Generative AI 课程启发,我加入了 自动质量评估器,对每个响应进行评分,维度包括:
- 清晰度
- 有用性
- 安全性
- 准确性
- 互动性
系统化的测量让持续改进成为可能。
Day 5 – Embedding Ethics
负责任的 AI 开发是反复出现的主题。我让 EthicsGuardianAgent 成为一等公民,而非事后补丁。它主动扫描每个查询的隐私、伦理和安全风险。例如,当用户问 “我可以把学生作文上传到 ChatGPT 吗?”时,代理会立即标记为 HIGH RISK,解释 FERPA 违规,并建议更安全的本地替代方案。
System Architecture
- Manager Agent (AILiteracyGuardian) – 编排四个专职代理。
- ExplainerAgent – 用自适应类比教授概念。
- EthicsGuardianAgent – 主动识别风险。
- ExampleBuilderAgent – 创建好/坏提示的并列演示。
- SkillTrackerAgent – 跨会话跟踪进度。
四个自定义工具为代理提供能力:
- ConceptStructurer – 组织教学内容。
- PromptGenerator – 生成结构化示例。
- RiskScanner – 执行安全检查。
- LearningSummarizer – 综合学习模式。
Differentiator
系统提供 主动指导,而非被动问答。它教用户哪些问题值得提问,提前识别风险,且通过结构化练习培养技能。
Vision & Value
我原型化了一个 AI Literacy Passport,可以演化为包含渐进任务(如 “真相测试”、 “弱提示挑战”)的课程体系,配以徽章奖励、等级晋升和能力门槛。目标是把 AI 素养从 “了解 AI” 转变为 “熟练使用 AI”。
Roadmap
- Immediate – 完整的 AI Literacy Passport,包含交互式任务和能力验证。
- Soon After – 多语言支持(西班牙语、法语、普通话、印地语),并提供文化适配示例。
- Long‑term – 行业专属版本(医疗的 HIPAA、教育的 FERPA/COPPA、法律的职业伦理)以及教师仪表盘。
Lessons Learned
- 从问题出发,而非技术 – 只有在需要专门能力协同编排时才构建代理。
- 拥抱实验 – 动手练习把抽象概念转化为具体理解;调试路由逻辑让我收获比任何文档都多。
- 超越 “通过课程” – 明确的愿景(AI Literacy Passport)让我在深夜排错和视频制作挑战中保持动力。
Before vs. After the Intensive
| Before the Intensive | After the Intensive |
|---|---|
| 把代理视为 “带路由的花哨 LLM 包装器” | 将代理理解为专门化、编排的系统 |
| 认为多代理系统是多余的 | 能辨识何时问题需要代理架构(多个专门功能) |
| 关注单模型解决方案(如 RAG) | 认识到工具集成和状态管理的变革力量 |
| 以为大多数问题只要一个提示就能解决 | 意识到某些问题本质上需要编排代理才能解决 |
这门课程不仅教会了我如何构建代理,更根本性地改变了我对 AI 系统设计的思考方式。