当 90% 以上代码由 AI 生成,决定系统走向的不是谁写得更快,而是谁能更好地约束 AI。没有统一规范的约束,AI 只会成倍放大混乱。
管理 AI Coding 与评测 Agent 的底层逻辑一模一样:
顺序至关重要:很多团队以为配置好 AI Rule 就完事了,但真正的瓶颈在人,不在工具。
第三条路:把技术债拆解为业务需求的”顺带动作”,借着迭代渐进式消化。
关键能力:拆解精度——哪些业务需求能”顺带”消化哪些技术债,需要逐个判断。
重构前”按需求建包” → 重构后四层架构(Starter / Application / Infrastructure / Common)
三步推进:
Human-in-the-loop 模式:人界定范围和风险,AI 做脏活
| 步骤 | 目标 | 人的价值 |
|---|---|---|
| Step1 建立范围 | 确定测哪些接口 | 审核并确认测试范围 |
| Step2 风险分级 | 决定测多深 | 判断风险等级 |
| Step3 设计分组 | 最小化用例 | 补充业务特殊场景 |
| Step4 生成步骤 | 写出可执行步骤 | 校验边界条件 |
| Step5 验证覆盖 | 确保不漏不多 | 最终确认 |
共识:人工 CR 的价值从”你写得对吗?”转变为”我们是否在正确的约束下解决正确的问题?”
实践:
#主题/AI Coding #手法/对比冲突 #手法/权威背书 #场景/技术博客
| [[vibe-coding | Vibe Coding:用 AI 写代码的正确姿势]] |
| [[oh-my-codex | oh-my-codex:让 Codex CLI 拥有专家团队]] |
| [[Claude-Code架构深度解读-Agent系统的真正护城河不在模型-却在-Harness | Claude Code 架构深度解读]] |