内容纲要
一、核心定义
提示链(Prompt Chaining):将复杂任务拆解为多个简单步骤,前一步的输出作为下一步的输入,形成处理链条。也称管道模式(Pipeline Pattern)。
可视化示意图:

图:提示链模式 - 智能体接收一系列提示,前一个智能体的输出作为下一个智能体的输入
关键机制:
输入 → [提示1+LLM] → 输出1 → [提示2+LLM] → 输出2 → 最终结果
二、为什么需要提示链?
| 单一提示的问题 | 提示链的优势 |
|---|---|
| 指令忽视、上下文丢失 | 每步专注单一任务 |
| 错误累积放大 | 逐步验证,及早纠错 |
| 难以调试优化 | 可查看中间结果 |
| 认知负荷过重导致幻觉 | 降低每步复杂度 |
核心思想:分而治之,化繁为简。
三、典型应用场景
1. 智能研究助手
主题输入 → 并行搜索文章 → 并行提取信息 → 汇总整合 → 生成报告 → 审阅润色
价值:自动化80%研究工作
2. 智能客服系统
用户问题 → 识别意图情绪 → 查询系统(API) → 生成同理心回复
价值:提升准确度,降低人工成本
3. 文档数据提取
PDF → OCR提取 → 字段识别 → 验证完整性 → 重提取(如缺失) → 格式化 → 结构化数据
价值:准确率高于单次提取
4. 内容创作助手
主题 → 生成选项 → 用户选择 → 生成大纲 → 逐段撰写 → 润色 → 完整文章
价值:降低创作门槛
四、上下文工程
核心理念:输出质量取决于上下文丰富度,而非仅靠模型能力。

图:上下文工程 - 为AI构建丰富、全面的信息环境是实现高级智能体性能的首要因素
| 维度 | 提示工程 | 上下文工程 |
|---|---|---|
| 范围 | 优化单个提示词 | 构建完整信息环境 |
| 信息源 | 用户输入 | 系统提示+工具输出+历史+画像 |
| 目标 | 回答当前问题 | 构建运行环境全貌 |
信息层次:系统提示 → 用户画像 → 历史记录 → 工具输出 → 当前请求
五、设计原则
黄金法则
- 单一职责:每步只做一件事
- 结构化输出:优先JSON格式,避免自然语言歧义
- 可观测性:记录每步输入输出
- 错误处理:关键步骤加验证+重试
性能优化
- 混合并行+顺序:独立任务并行,依赖任务顺序
- 缓存结果:相同输入重用
- 分级模型:简单步骤用小模型(GPT-3.5),复杂步骤用大模型(GPT-4)
六、主流框架对比
| 框架 | 定位 | 核心特性 | 适用场景 |
|---|---|---|---|
| LangChain/LangGraph | Python通用框架 | LCEL语法、丰富集成 | 快速原型、复杂工作流 |
| Google ADK | 企业级框架 | GCP集成、Prompt Optimizer | 企业应用、多模态 |
| CrewAI | 多智能体框架 | 高层抽象、简单易用 | 多Agent协作、POC |
| OpenAI Assistants | 官方API | 简单直接、官方支持 | 简单对话、工具调用 |
选型建议:
- 快速开发 → CrewAI
- 复杂系统 → LangChain/LangGraph
- 企业级 → Google ADK
- 简单任务 → OpenAI Assistants
七、关键概念速查
| 概念 | 定义 |
|---|---|
| 提示链/管道模式 | 任务分解为顺序步骤 |
| 结构化输出 | 用JSON/XML传递数据 |
| 上下文工程 | 构建完整信息环境 |
| LCEL | LangChain表达式语言(管道符\|) |
八、常见问题
Q1:会增加延迟吗? 会。每步都调用LLM。优化:并行独立任务、用小模型、缓存结果。
Q2:所有任务都需要吗? 不。简单任务用单一提示即可。适合:多步推理、外部工具调用、高失败率场景。
Q3:如何判断需要几步? 每步用一句话描述;若描述需要"然后""同时",考虑拆分。
Q4:中间步骤失败怎么办? 关键步骤加验证、失败重试、提供降级方案。
九、参考资源
官方文档
代码示例
- 本书示例:
codes/Chapter-01-Prompt-Chaining-Example.py - 自定义示例:
ai-agent-examples/01-prompt-chaining-demo.py
学术论文
- Chain-of-Thought Prompting - 思维链原始论文
- ReAct - 推理与行动结合