用Agent评测思路管理AI Coding——31万行代码AI重构实践

核心结论

当 90% 以上代码由 AI 生成,决定系统走向的不是谁写得更快,而是谁能更好地约束 AI。没有统一规范的约束,AI 只会成倍放大混乱。

三大关键经验

1. 人人对齐先于人机对齐

管理 AI Coding 与评测 Agent 的底层逻辑一模一样:

顺序至关重要:很多团队以为配置好 AI Rule 就完事了,但真正的瓶颈在人,不在工具。

2. 经验的价值正在转移

3. 重构可以零排期

第三条路:把技术债拆解为业务需求的”顺带动作”,借着迭代渐进式消化。

关键能力:拆解精度——哪些业务需求能”顺带”消化哪些技术债,需要逐个判断。

行动指南

  1. 盘清技术债:核心开发圈定高危方向,AI 做穷举扫描
  2. 制定规范并落地为 AI Rule:规范不落地到工具链里,就只是一纸空文
  3. 主 R 打样,沉淀 SOP:可复用的迁移流程,推广到全组
  4. 建立 Pre-PR 机制:AI 预审过滤基础问题,让人聚焦业务语义

工程分层四步法

重构前”按需求建包” → 重构后四层架构(Starter / Application / Infrastructure / Common)

三步推进:

  1. 补齐业务对象与数据转换层
  2. 重建接口契约,阻断底层数据对象向上泄露
  3. 修复上游全链路参数依赖

AI 辅助测试 SOP

Human-in-the-loop 模式:人界定范围和风险,AI 做脏活

步骤 目标 人的价值
Step1 建立范围 确定测哪些接口 审核并确认测试范围
Step2 风险分级 决定测多深 判断风险等级
Step3 设计分组 最小化用例 补充业务特殊场景
Step4 生成步骤 写出可执行步骤 校验边界条件
Step5 验证覆盖 确保不漏不多 最终确认

CR 效率提升

共识:人工 CR 的价值从”你写得对吗?”转变为”我们是否在正确的约束下解决正确的问题?”

实践:

标签

#主题/AI Coding #手法/对比冲突 #手法/权威背书 #场景/技术博客

相关链接