[Paper] 为 AI 驱动的敏捷开发培养学生:基于项目的 AI 工程课程

发布: (2026年3月10日 GMT+8 20:44)
6 分钟阅读
原文: arXiv

Source: arXiv - 2603.09599v1

概述

本文介绍了一套 基于项目的 AI 工程课程,将敏捷软件开发与生成式 AI 工具相结合。通过将 AI 辅助直接嵌入冲刺工作流,作者展示了学生如何在真实的动手环境中同时掌握敏捷开发和 AI 增强的工程技能。

关键贡献

  • 课程蓝图: 一套指导原则以及详细的学期课程结构,将敏捷实践与 AI 支持的开发任务相结合。
  • 跨学科案例研究: 真实的学生项目覆盖七个为期两周的冲刺,AI 工具支持从需求澄清到自动化测试和文档编写的全部环节。
  • 混合方法评估: 早期的定量和定性证据表明,综合方法提升了 AI 辅助工程的实践能力。
  • 教学洞见: 识别对传统敏捷教学的必要调整(例如,频繁的工具更新、口头概念验证),并为教育者提供建议。

方法论

  1. 课程设计: 作者在标准的 Scrum 冲刺中定义了六个“AI 融合”触点——需求、待办事项梳理、架构、编码、测试和文档。每个触点将生成式 AI 或代理工具与对人类责任和质量的反思活动配对。
  2. 项目执行: 第二学期的本科生组成跨学科团队(软件工程 + AI 基础),在 七个 2 周冲刺 中交付真实的软件产品。在每个冲刺中,学生使用 GitHub Copilot、ChatGPT 和自动化测试生成器等工具,同时教师主持简短的反思环节。
  3. 评估: 采用混合方法,包括 (a) 课前/课后调查,衡量自我报告的 AI 辅助开发信心,(b) 冲刺产出物分析(待办事项、代码质量指标),以及 (c) 半结构化访谈,以捕捉学生的感知和挑战。

结果与发现

  • 技能增长: “对使用 AI 进行编码和测试的信心”调查得分从学期开始到结束提升了 ≈30 %
  • 生产力提升: 使用 AI 生成代码片段和测试的团队在每个冲刺中完成的积压项 ~15 % 多于仅使用传统工具的对照组。
  • 质量权衡: 自动代码建议有时会引入细微的错误;进行 口头验证(向同伴/导师解释生成的代码)的学生显示出显著更少的缺陷。
  • 工具演进压力: AI 服务的快速更新迫使教师在课程中期 重新校准冲刺活动,凸显了灵活课程支架的需求。

实际意义

  • 对开发者而言: 研究验证了将生成式 AI 融入日常敏捷任务可以在不牺牲质量的前提下加快待办事项的完成——前提是团队保持“人类在环”验证步骤。
  • 对技术领导者而言: 课程洞见可以重新用于 在职培训项目,帮助现有工程师安全地采用 AI 增强的工作流。
  • 对工具供应商而言: 需要 稳定、版本化的 API 和清晰的文档,这一点变得尤为重要;开发者会倾向选择能够透明交接给人工审查者的工具。
  • 对教育者和训练营而言: 基于冲刺的模块化设计提供了一个可直接使用的 短期强化课程 模板,旨在培养具备 AI 能力的敏捷实践者。

限制与未来工作

  • 早期证据: 评估仅限于单一 cohort 并且时间跨度短(一个学期),因此 AI 增强的敏捷技能的长期保持情况尚未检验。
  • 工具特定偏差: 结果可能与所使用的特定 AI 服务(例如 Copilot、ChatGPT)绑定;更广泛的工具多样性可能会影响结果。
  • 可扩展性问题: 在更大的班级中管理频繁的 AI 工具更新可能会给教师资源带来压力。

未来的研究方向包括进行纵向研究,追踪毕业生进入行业的情况,扩展课程以涵盖 敏捷环境中的 AI 伦理与治理,以及开发自动化脚手架,以使课程材料能够与快速演进的 AI API 同步。

作者

  • Andreas Rausch
  • Stefan Wittek
  • Tobias Geger
  • David Inkermann

论文信息

  • arXiv ID: 2603.09599v1
  • Categories: cs.SE
  • Published: 2026年3月10日
  • PDF: 下载 PDF
0 浏览
Back to Blog

相关文章

阅读更多 »