如何使用AI搭建工作流
如何使用AI搭建工作流
原文链接:https://www.yuque.com/yopai/pp6bv5/sig14axlkrxtavor
如果你现在用的是 Cursor 或 Claude、TRAE,但仍觉得产出不稳,下面这套工作流你可以看看。
整体流程
目前开发流程主要是先和 AI 聊需求确定方案,然后产出一份设计及 Plan 文档,接下来就是 AI 狠狠干,业务代码和测试代码都加上,并且会自动化测试、排查以及修复,最后多 Agent 多维度 Review + 人工 Review 收尾。
AI编码前
拿到需求后,尤其是中大型需求,不要把几句话扔给 AI 就让它开写。很多人说 AI 不好用,问题往往就出在这一步。
上下文非常关键。我们和产品对需求都是要来回确认几轮,不可能指望 AI 靠几句描述就完全理解需求并能完美执行。
我现在通常先用 https://github.com/obra/superpowers 里的 brainstorming skill,把需求过一遍:补齐遗漏、比选方案、产出设计文档。
然后把设计文档交给 Claude Code 的 Plan 模式,它会基于设计文档把执行计划拆清楚,并在关键不确定点主动追问你。最后拿到的 Plan 一般会包含:
- 需求拆解
- 具体实现任务
- 测试用例
- 验收清单
到了这里,不需要 AI 马上介入编写代码。我们需要 AI 将这个 Plan 输出成 Markdown 文件,然后需要认真 Review 这份文档,虽然 AI 很擅长理解代码和写方案,但它不知道这个需求到底解决了哪些用户真实的痛点、用户体验怎么做在当下是做好的等等。对于以上种种,Review 文档然后做出批作或者直接修改,然后让 AI 循环几次一般才能产出一份最终答案。
这个阶段的核心是充当架构师的角色和 AI 共同产出一份可落地的 Plan 文档,接下来就是作为监督者静静地看 AI coding。
AI编码
编码前的准备工作做好后,进入实现阶段。通常可以分两步走:
- 先让 AI 完成整体验收范围内的功能实现
- 按 Plan 里的验收清单逐条测试边界条件
如果需求较大,AI 一次跑完会比较慢,可以开多个窗口配合 git worktree 并行推进,提高整体吞吐。
AI测试
测试不能省。前端至少要有端到端测试和关键函数单测。后端同理,覆盖率尽量往高做,我自己的目标一般是 90% 左右。
测试过程本身也包含了大量 debug。以前是我们自己定位问题,再把报错截图给 AI;现在在 AI-friendly 的 infra 下,可以直接让 AI 调用工具自己排查,例如:
- 用 agent-browser 复现前端问题
- 读取 DevTools 报错
- 查看后端日志
- 查询数据库状态
这样定位和修复会快很多,但前提是权限和安全边界要先做好。
Code Review
这个环节还是建议真人介入,不 Review 或者只靠多 Agent review 还是不大靠谱。自己的小产品需要快速迭代的话可以省掉这一部分,但是公司的代码还是不能省,毕竟背锅还得你来背,AI 不会帮你背。
这里的多 Agent review 指的是通过提示词创建多个 Agent 角色各司其职,比如专门负责代码的、性能的、安全的、用户体验的等等,一个角色只做一件事,这样 review 下来的效果会优于单一 review。
部署
每家公司部署细节不同,但主路径一般是稳定的。对这种固定流程,建议直接沉淀成 skill,让 AI 按步骤执行,减少重复手工操作。
以上就是我总结的 AI 编码工作流。
