logo

精确设计你的 Prompt,让 AI 不再输出高情商废话

2025年9月3日 · 1547

最近,我养成了一个习惯:在写好一篇文章后,把它交给 Gemini 进行评价。我期待它能像一位严师,一针见血地指出我的不足,或者像一位资深编辑,精准预测文章的传播潜力。

然而,事与愿违。无论我输入什么内容,得到的回答似乎总是在三个选项中随机切换:「写得真棒!」、「很不错!」、以及「很好,但可以在 A 和 B 处稍作改进」。这些反馈礼貌而温和,却毫无价值。无论我写出什么样的文章,它总是会先吹捧我一番,让我飘飘然。我知道这是大模型被训练出的高情商对话,但是当我强调了让它「客观评价」,却还是得不到我想要的结果。

起初,我以为是 AI 的能力有限。但经过几次尝试和反思,我逐渐意识到,问题不在 AI,而在我。我的指令:「评价一下这篇文章」,实在太过模糊。这就像在工作中只对下属说「把工作做好」,但是具体的任务却不说,也没有定义好的标准是什么。

在不断尝试下,我得到了一个 Prompt,能够让 AI 真正有效地评价我的文章。

为什么模糊的指令总是不起效果?

「帮我把这段文案润色一下」、「随便写个营销思路」、「要那种让人眼前一亮的感觉」。这些指令在日常工作的协作中非常普遍,它依赖对方的经验、默契和悟性去补全细节。

然而,AI 没有「悟性」。它不知道你的润色是想更商业化还是更文艺;不清楚所谓的随便究竟是哪一种随便;更无法猜测出你心中的「眼前一亮」到底是什么标准。你表达的是「感觉」,但是 AI 需要「量化」。 缺乏明确的目标和限制,AI 只能给出最安全、最泛化的答案,结果自然平平无奇。

第一次升级:将模糊请求改为精确指令

我们必须认识到,AI 没有主观意图,无法猜测我们内心深处的具体标准。它就像一个拥有无穷知识和能力的超级执行者,但它需要一个清晰的目标。

所以,我们需要消灭一切模糊的请求,并替换为精确的指令。

模糊的请求:

评价一下这篇文章。

精确的指令:

逻辑连贯性、论证强度、语言清晰度三个维度评价我的文章,为每个维度打分(10分制),同时给出具体的修改建议。

精确的指令,规定了 AI 评价的具体维度,让 AI 的回答发生了质变。它不再输出泛泛而谈的评论和空洞的赞美,而是像一份严谨的体检报告,逐项分析,有理有据。

指令的精确度,决定了输出的价值。 我们需要像项目总监给团队下达任务一样,将一个宏大的目标拆解成具体的、可执行的、可衡量的指令。AI 猜不透你心中所想,所以你需要把所有的需求转化成指令让它遵循。这是我们驯服 AI、让它为我所用的第一步。

第二次升级:从「做什么」转变为「怎么做」

当我开始评价一些更复杂的文章,比如分析其潜在读者和传播效果时,我发现,仅仅明确评估维度还不够。有时 AI 的分析依然会显得零散,缺乏一个连贯的视角。

这时候,我们需要让 AI 具备系统化思考的能力。如何做到呢?答案是给它设计一套「思考流程」。

我们可以定义如下的工作流程指令:

  • 第一步: 首先分析这篇文章最有可能的目标读者是谁。
  • 第二步: 基于第一步的目标读者画像,从情感共鸣、思想启发和传播潜力三个维度分别进行评估。
  • 第三步: 综合以上评估,给出文章传播效果的整体结论。

使用这样的工作流程指令后,AI 的输出质量再次飞跃。它不再是简单地罗列观点,而是像一个真正的内容分析师,先定义用户,再评估内容,最后形成洞察。整个回答逻辑清晰,层层递进,极具说服力。

引导 AI 的思考流程,是释放其深层能力的关键。 如果只告诉 AI 「做什么」,那么 AI 可能会成为短视的执行者。而如果把做什么串成整体的流程,告诉 AI 「怎么做」,AI 将真正具备系统化思考的能力。

指引 AI 沿着一条我们铺设好的逻辑轨道进行思考,这不仅能让结果更可靠,也让我们能掌控和理解它的推理过程,在出现偏差时及时调整 Prompt。

大模型的本质是一个需要被指挥的推理引擎

我们要认识到,大模型的本质,只是一个忠实的对话助手,并不是一个无所不知的全能先知。

我们不能指望抛出一个模糊的问题就得到完美的答案。这已经违反了物理定律 —— 让大模型在信息不足的情况下创造信息,猜出我们心中所想。

它更像一个强大无比、逻辑严谨的推理引擎。至于这个引擎能到达哪个目的地,完全取决于我们为它设定的工作流程。这个工作流程,就是通过 Prompt 注入的。

因此,想要发挥大模型的最大能力,意味着我们要完成一个身份的转变:从一个被动的提问者,转变为一个主动的流程架构师。我们需要去设计一个路径,让 AI 通过推理,最终生成我们想要的答案。这,大概就是让 AI 始终听话的终极秘方。