如何给 GitHub Copilot "洗脑”,让 AI 精准遵循指令产出高质量代码
引子
最近在项目中使用 GitHub Copilot 的过程中,我发现了一个很有趣的现象。
当我让 Copilot 帮我写代码时,它总是热情满满地给出一大段实现。但当我仔细审视这些代码时,却经常会发现各种小问题——缺少错误处理、异常情况没考虑、命名不规范、没有单元测试,有时甚至会出现一些”魔法数字”。
这让我想起了那些刚入行的程序员,技术不错,但是对软件工程的规范和最佳实践还不够了解。他们写出来的代码能跑,但总让资深工程师皱眉头。
这些 AI 工具确实能提高效率,但如何让它们不仅提高效率,更能精准地产出符合工程实践的高质量代码,甚至达到一种”洗脑”般的效果,让它们乖乖听话,这成了一个值得思考的问题。
不是魔法,是系统指令
经过一段时间的研究和实践,我发现 Copilot 这类 AI 工具实际上可以被深度”引导”,甚至达到一种”洗脑”的效果,让它们按照我们的意愿来行动。
它们并不是魔术盒子,而是遵循一套输入-输出原则的系统。如果我们能给它提供明确的指导和原则,它就能相应地调整自己的输出。
这个思路促使我整理了一个专门用来给 GitHub Copilot”洗脑”的指令集:prompts。
这个仓库里不是代码,而是一系列指导 AI 行为的 Markdown 文件。每个文件就像是给 AI 的