教AI成为教师:我5天构建AI Literacy Agent的旅程

发布: (2025年12月14日 GMT+8 18:52)
7 min read
原文: Dev.to

Source: Dev.to

Introduction

从“人们不知道该向 AI 提问什么”到多代理学习系统——我在 Google AI Agents Intensive 中的旅程。这篇反思是为 Google AI Agents Writing Challenge: Learning Reflections 提交的。

作为开发者、研究员和 AI 素养教育者,我经常看到同样的模式:用户拥有强大的模型(ChatGPT、Claude、Gemini 等),却因为不知道该问哪些问题而苦恼。模糊的提示只能得到通用答案,导致他们得出“AI 并不那么有用”的结论。用户还会在不理解隐私风险的情况下分享敏感数据,并且对 AI 的输出缺乏批判性接受,从未超越基础使用。

当 Google 和 Kaggle 宣布 5 天 AI Agents Intensive 时,我看到了一个机会——构建 不是另一个聊天机器人,而是一个学习支架:AI Literacy Guardian,一个教人们如何批判性思考 AI 的多代理系统。

Day 1 – A Shift in Mental Model

课程介绍了多代理系统,这个概念让我恍然大悟。我意识到 AI 素养教育不是单一问题对应单一解决方案,而是 多个专门功能的协同

  • 清晰解释概念
  • 主动识别风险
  • 创建练习题目
  • 跟踪学习进度

单个 LLM 无法同时在这些方面表现出色,但专门的代理可以。这一洞见塑造了我的顶点项目。

Day 2 – Tool Integration

代理不仅是带有花哨提示的 LLM;当配备专用工具后,它们就成为 有能力的系统。我构建了:

  • RiskScanner – 对每一次交互进行系统化安全评估。
  • PromptGenerator – 生成结构化的教学示例。
  • LearningSummarizer – 综合跨会话的对话模式。

这些工具把代理从“聪明的应答者”转变为可靠、可重复使用的组件。

Day 3 – The Manager Agent

起初我以为编排只是把查询路由到合适的代理。实验室展示,管理代理还必须:

  • 维护状态和对话历史(最近 10 轮)
  • 跟踪用户画像并根据之前的交互进行适配

实现这些功能后,系统从无状态的问答机器人变成了 学习伴侣。管理代理充当多代理架构的神经系统。

Day 4 – Evaluation as a Core Component

受 “LLM‑as‑a‑Judge” 概念以及约翰斯·霍普金斯大学的 Applied Generative AI 课程启发,我加入了 自动质量评估器,对每个响应进行评分,维度包括:

  1. 清晰度
  2. 有用性
  3. 安全性
  4. 准确性
  5. 互动性

系统化的测量让持续改进成为可能。

Day 5 – Embedding Ethics

负责任的 AI 开发是反复出现的主题。我让 EthicsGuardianAgent 成为一等公民,而非事后补丁。它主动扫描每个查询的隐私、伦理和安全风险。例如,当用户问 “我可以把学生作文上传到 ChatGPT 吗?”时,代理会立即标记为 HIGH RISK,解释 FERPA 违规,并建议更安全的本地替代方案。

System Architecture

  • Manager Agent (AILiteracyGuardian) – 编排四个专职代理。
  • ExplainerAgent – 用自适应类比教授概念。
  • EthicsGuardianAgent – 主动识别风险。
  • ExampleBuilderAgent – 创建好/坏提示的并列演示。
  • SkillTrackerAgent – 跨会话跟踪进度。

四个自定义工具为代理提供能力:

  1. ConceptStructurer – 组织教学内容。
  2. PromptGenerator – 生成结构化示例。
  3. RiskScanner – 执行安全检查。
  4. LearningSummarizer – 综合学习模式。

Differentiator

系统提供 主动指导,而非被动问答。它教用户哪些问题值得提问,提前识别风险,且通过结构化练习培养技能。

Vision & Value

我原型化了一个 AI Literacy Passport,可以演化为包含渐进任务(如 “真相测试”、 “弱提示挑战”)的课程体系,配以徽章奖励、等级晋升和能力门槛。目标是把 AI 素养从 “了解 AI” 转变为 “熟练使用 AI”

Roadmap

  • Immediate – 完整的 AI Literacy Passport,包含交互式任务和能力验证。
  • Soon After – 多语言支持(西班牙语、法语、普通话、印地语),并提供文化适配示例。
  • Long‑term – 行业专属版本(医疗的 HIPAA、教育的 FERPA/COPPA、法律的职业伦理)以及教师仪表盘。

Lessons Learned

  1. 从问题出发,而非技术 – 只有在需要专门能力协同编排时才构建代理。
  2. 拥抱实验 – 动手练习把抽象概念转化为具体理解;调试路由逻辑让我收获比任何文档都多。
  3. 超越 “通过课程” – 明确的愿景(AI Literacy Passport)让我在深夜排错和视频制作挑战中保持动力。

Before vs. After the Intensive

Before the IntensiveAfter the Intensive
把代理视为 “带路由的花哨 LLM 包装器”将代理理解为专门化、编排的系统
认为多代理系统是多余的能辨识何时问题需要代理架构(多个专门功能)
关注单模型解决方案(如 RAG)认识到工具集成和状态管理的变革力量
以为大多数问题只要一个提示就能解决意识到某些问题本质上需要编排代理才能解决

这门课程不仅教会了我如何构建代理,更根本性地改变了我对 AI 系统设计的思考方式。

Back to Blog

相关文章

阅读更多 »