
助手类工具已经把「写代码」变成了「写代码 + 审代码」。下面是我一直在用的工作方式:让 AI 负责重复与联想,人负责边界与合并。
1. 把任务说小到能验收
不要只丢一句「实现用户模块」。尽量给出:输入输出、错误语义、依赖的现有类型/文件、不要改动的范围。任务越可验收,生成结果越省 diff。
2. 让它先读后改
在 IDE 里选中相关文件或贴出接口签名,再让模型改。没有上下文的「凭空实现」最容易出现臆造 API、版本不对的 import、和项目风格不一致的写法。
3. 生成测试与示例调用
我会优先让模型根据现有测试风格补用例,或生成最小可运行的调用示例。跑不通的 diff 不进主分支——这条对人和 AI 一视同仁。
4. 安全与密钥
永远不要把真实密钥、内网地址、客户数据贴进云端模型上下文。需要脱敏或本地模型时,在流程里写死规则,避免顺手复制粘贴。
5. 代码审查看什么
- 是否引入了不必要的依赖或抽象。
- 错误处理与边界(空值、并发、权限)。
- 是否破坏现有约定(命名、分层、日志)。
AI 特别擅长「看起来像能跑」的代码,审查时多问一句:失败时会发生什么?
小结
把 AI 当成加速打字与联想的同事,而不是签字负责的维护者。任务切片、上下文给足、测试守门、审查照旧——这样效率上去,仓库不至于变成提示词垃圾场。


