关于提示词工程(Prompt Engineering)的文章太多了,但大部分要么太学术,要么是”在提示词里加上这几个词AI就会更聪明”这种玄学说法。这篇文章说点实用的。
最核心的一个认知
AI语言模型本质上是在做”预测下一个词”的任务。你给的上下文越丰富、越精确,它预测出来的内容就越符合你的期望。
所以提示词写不好,根本原因不是”不知道技巧”,而是没把自己真正想要的东西说清楚。
几个实际管用的做法
1. 给角色,给场景
不是说”你是一个专家”这种废话,而是给出具体的上下文。
差的写法:
「帮我写一篇关于云服务器的文章」
好的写法:
「我在运营一个面向中小企业主的科普博客,读者是有一定IT基础但不是专业运维的人。帮我写一篇讲云服务器防火墙配置的文章,重点放在安全组的基础配置和常见误区,不要太技术,要让非专业人士也能看懂。」
你给的信息越具体,答案偏差越小。
2. 说清楚你要什么格式
AI会按照你提示的格式来输出。如果你想要列表就说”用列表”,想要表格就说”用表格”,想要代码示例就说”给出代码”。
不说格式,AI会自己选一个它觉得合理的,可能跟你想要的对不上。
3. 告诉它不要什么
负向约束往往比正向描述更有效。
比如你不想要废话开头,可以直接说”不要以’当然’或’很好’开头,直接给内容”;不想要AI的自我介绍,可以说”不需要解释你的能力范围,直接回答”。
4. 让AI先分析再回答
对于复杂问题,加上”先分析一下这个问题,然后再给出答案”这样的指令,通常能得到质量更高的回答。这对应的是所谓的”思维链”(Chain of Thought)提示。
原理其实很简单:输出过程中的分析步骤会影响后续内容的质量,就像让人先打草稿再写正式版。
5. 迭代,不要一次搞定的幻想
很多人发一条消息,觉得AI没给出想要的就放弃了。实际上AI对话是应该迭代的:先得到一个初稿,然后基于初稿继续调整。
比如:
「这部分太学术了,用更口语的方式重写」
「第三段展开一下,加一个具体的例子」
「整体长度砍掉一半,保留最关键的点」
把AI当成一个可以反复沟通的协作者,而不是一次性的答题机器。
几个不太有用的”技巧”
顺便说几个网上流传的、实际效果有限的做法:
- “你是世界上最厉害的XXX专家”:这种身份设定对输出质量的影响远小于具体的上下文描述
- 加各种特殊符号分隔指令:有一定效果,但不是决定性的,把内容本身说清楚更重要
- “用DAN模式”或者各种越狱提示:通常无效,而且现在的模型对这类尝试识别得很准
最后说一句
提示词写好的本质,就是把你的需求描述得像你在向一个靠谱的人类助手交代任务一样清晰。你会对人说”帮我写篇文章”然后走开吗?不会,你会说清楚背景、目的、格式要求。AI也一样。