自主智能体访问数据

发布: (2025年12月4日 GMT+8 06:42)
4 min read
原文: Dev.to

Source: Dev.to

Cover image for Autonomous Agents Visiting Data

这是一篇提交给 Google AI Agents Writing Challenge 的作品:学习反思
最初发布在 FAIRLYZ 知识库

Google AI Agents Intensive Course

Google AI Agents Intensive Course(First 5DGAI)于 2025 年 3 月首次亮相,随后在 2025 年 11 月(second 5DGAI)再次举办,为开发者提供了近距离观察代理系统快速演进的机会。

  • First 5DGAI 侧重于基础技能:编写提示、训练代理、使用检索增强生成(RAG)进行定制,以及通过 MLOps 部署。参与者学习了微调模型并整合外部知识源,以提升代理性能。
  • Second 5DGAI(2025 年 11 月)则有了显著进阶。开发者被训练构建能够管理其他代理和工具的自主代理,并通过 Agent Ops(ADK、Vertex AI、Kubernetes)进行部署,体现了真实世界 AI 部署日益增长的复杂性。

2025 年 11 月的 Introduction to Agents 白皮书(link)提出了一个更为正式的框架来理解这些系统,尤其是标题为 Taxonomy of Agentic Systems 的章节(第 14–18 页)。

Taxonomy of Agentic Systems

2025 年 11 月白皮书中列出的分类法将代理系统划分为五个关键层级:

Level 0: Core Reasoning System

仅依赖预训练知识的独立语言模型。
(例如,ChatGPT‑3,2022–2023)

Level 1: Connected Problem‑Solver

获得工具访问权限,可获取实时数据并与外部系统交互(如 API、RAG)。
(例如,ChatGPT‑4,2023,带插件、浏览、代码解释器)

Level 2: Strategic Problem‑Solver

引入上下文工程——多步规划、精选信息、复杂任务。
(例如,Gemini 1.5 Pro、GPT‑4 Turbo,2024,具备记忆和工具链)

Level 3: Collaborative Multi‑Agent System

代理可以委派给专门的子代理;实现可扩展、并行的工作流。
(例如,Google DeepMind 多代理演示、OpenAI Dev Day 代理框架,2024–2025 末期)

Level 4: Self‑Evolving System

代理能够自主创建新代理/工具以填补能力空缺。
(截至 2025 年尚无经验证的实例)

Agents Use in Data Visitation and Security Concerns

随着代理获得对敏感数据和工具的访问权限,安全性成为核心议题。在 Day 2 直播中,Alex Wissner‑Gross 强调了风险并提出了愿景:

“我预见到一个代理互联网,每个公司都有一个单例代理,它与子代理共享机密,但不向外部暴露。”

白皮书警告称,工具访问和自主性在效用与风险之间形成微妙平衡,尤其是当代理跨组织边界运行时。

  • 基于角色的访问控制(RBAC)用于代理
  • 审计日志 用于记录工具调用和数据访问
  • 记忆分区 防止任务之间的信息泄漏
  • 提示注入防御 通过对抗训练和专门的安全分析代理实现

Final Thoughts

Google AI Agents Intensive Course 体现了技术进步,同时也暴露了在部署自主系统时的伦理和运营挑战。随着我们迈向代理互联网,像 Taxonomy of Agentic Systems 这样的框架以及专家提出的安全模型将变得至关重要。

标签: Autonomous Agents, Internet‑of‑agents (IoA), Multi‑Agent System, Secrets, Self‑Evolving System

Back to Blog

相关文章

阅读更多 »