Prompt Engineering
这篇笔记主要整理 Prompt Engineering 里最常见的一批专业名词,帮助你建立一个更清晰的知识框架。
如果只看结论,可以先记住一句话:
Few-shot是在教模型“照着例子做”CoT是在教模型“按步骤想”ReAct是在教模型“边想边查边做”RAG是在给模型“补外部知识”Structured Output是在规定模型“按什么结构输出”Agent是把这些能力组合起来,完成更复杂任务的系统
1. Prompt Engineering 是什么
Prompt Engineering 可以理解为:为了让大模型更稳定、更准确、更符合预期地完成任务,而去设 计输入指令、上下文、示例、约束和输出格式的方法。
它不只是“会不会提问”,而是包括:
- 怎么描述任务
- 怎么提供背景信息
- 要不要给例子
- 要不要让模型分步骤思考
- 要不要让模型调用工具或知识库
- 要不要把输出限制成固定格式
从实战角度看,Prompt Engineering 的目标通常有 4 个:
- 提高正确率
- 降低跑偏和幻觉
- 提高输出稳定性
- 让结果更容易接入程序或工作流
2. 先建立一个整体框架
这些术语很容易混在一起,先按层级理解会轻松很多。
2.1 提示设计方法
这类术语关注“你怎么给模型下指令”:
Zero-shotOne-shotFew-shotRole PromptingInstruction PromptingDelimiterStructured Output
2.2 推理方法
这类术语关注“模型如何一步步分析问题”:
Chain-of-Thought (CoT)Zero-shot CoTFew-shot CoTScratchpadSelf-ConsistencyTree of Thoughts (ToT)Graph of Thoughts
2.3 行动与代理框架
这类术语关注“模型是否会调用工具、规划任务、执行动作”:
ReActTool UseFunction CallingPlanningAgent
2.4 知识增强与可靠性
这类术语关注“模型回答时是否有外部依据,以及如何降低错误”:
RAGGroundingContext WindowSelf-ReflectionCritique-and-ReviseVerifierHallucination
3. 高频术语详解
下面这部分是最值得反复看的核心内容。
4. Zero-shot / One-shot / Few-shot
4.1 Zero-shot
Zero-shot 指不提供任何示例,直接让模型完成任务。
示例:
请把下面这段内容总结成 3 个要点。
适合场景:
- 常规问答
- 普通总结
- 简单改写
- 通用分类
优点:
- prompt 最短
- 上手最快
- 成本低
缺点:
- 风格不稳定
- 格式控制较弱
- 对复杂规则任务不够稳
4.2 One-shot
One-shot 指提供 1 个示例,让模型模仿这个例子继续完成任务。
示例:
示例:
输入:今天天气不错,适合出门。
输出:天气很好,建议外出。
现在请处理:
输入:这个方案虽然贵,但长期更划算。
输出:
4.3 Few-shot
Few-shot 指提供少量示例,一般是 2 到 5 个,让模型从示例中归纳规律后再完成任务。
示例:
示例1:
文本:这家餐厅上菜很慢,但味道不错。
情感:中性偏正面
示例2:
文本:产品做工粗糙,客服也不回复。
情感:负面
请判断下面文本的情感:
文本:界面挺好看,但加载速度太慢。
情感:
适合场景:
- 文本分类
- 信息抽取
- 风格迁移
- 固定格式输出
- 规则比较隐含的任务
核心作用:
- 统一风格
- 强化格式
- 帮模型理解边界
- 降低歧义
一个很实用的理解方式:
Zero-shot像“直接下命令”Few-shot像“先举几个例子再让对方照着做”
5. Chain-of-Thought (CoT)
5.1 CoT 是什么
Chain-of-Thought,中文常翻译为“链式思维”或“思维链”。
它的核心思想是:不要让模型立刻给答案,而是先分步骤推理,再输出最终结果。
示例:
请一步一步分析这个问题,并在最后给出最终答案。
适合场景:
- 数学题
- 逻辑推理
- 多条件判断
- 多步骤决策
- 复杂文本分析
5.2 Zero-shot CoT
Zero-shot CoT 指不提供示例,只在原本的任务后面加一句“请一步一步思考”。
示例:
请一步一步思考,再给出结论。
它是最轻量、最常见的 CoT 用法。
5.3 Few-shot CoT
Few-shot CoT 指给模型几个“带完整推理过程”的示例,让它学会如何按这种方式分析。
适合场景:
- 题型固定的复杂推理任务
- 需要高稳定性的规则判断
- 要求推理过程有明确结构的任务
5.4 Scratchpad
Scratchpad 可以理解为“草稿区推理”。
意思是允许模型先写中间分析过程,再输出正式答案。本质上和 CoT 很接近,只是更强调“中间推导区域”。
5.5 Self-Consistency
Self-Consistency 指不是只让模型推理一次,而是生成多条可能的推理路径,再选择最一致、出现频率最高的答案。
你可以把它理解成“多想几遍,然后投票”。
适合场景:
- 数学推理
- 复杂判断
- 容易被第一反应误导的题目
6. ReAct / Tool Use / Agent
6.1 ReAct
ReAct 是 Reason + Act 的缩写,意思是“推理 + 行动”。
它强调模型不是只在脑中想,而是:
- 先分析当前问题
- 判断需不需要做一个动作
- 调用工具、搜索资料或执行命令
- 根据返回结果继续分析
- 输出最终答案
典型流程:
Thought -> Action -> Observation -> Thought -> Final Answer
适合场景:
- 搜索增强问答
- 智能助手
- 自动化任务
- 需要调用外部工具的系统
6.2 Tool Use
Tool Use 指模型按需调用外部工具,比如:
- 搜索引擎
- 数据库
- 计算器
- 代码执行器
- 企业内部 API
模型本身负责判断何时调用、调用什么,以及如何结合结果继续回答。