AI 会犯错误,而且喜欢犯同样的错误,如何确保在更换模型、切换上下文的时候,AI 不再犯?
最有效的办法就是,把 AI 犯过的错误记录下来,然后将它变成规则文档或者程序脚本,每次提交前都强制检测一次,成为门禁。
我当前的设计是,AI 犯错后会自动更新两类产物:1)rules docs,每次 AI Code Review 的时候,会加载这部分内容;2)governance scripts,将可程序化的检测工作全部变成脚本,例如 git commit 规范、大函数检测、单测覆盖、代码引用规范等等。
项目跑的越久,AI 犯错的概率就越低。
显示更多