目 录
第1章 绪论 1
1.1 AI Agent演进之路 1
1.1.1 开幕:LLM与ChatGPT 1
1.1.2 前传:Transformer架构 2
1.1.3 初见端倪:单向自回归解码 6
1.1.4 问世:ChatGPT 8
1.1.5 风波再起:DeepSeek 13
1.1.6 百花齐放:Agent 18
1.2 复合型AI Agent的市场前景 26
1.3 本书的内容安排 28
第2章 Agent开发基础 31
2.1 Agent三要素:LLM、Prompt、Action 31
2.2 LLM:以DeepSeek API为例 34
2.2.1 基础调用 34
2.2.2 请求参数 38
2.2.3 流式请求 39
2.2.4 system message 43
2.2.5 深度思考标签 48
2.3 Prompt:工程化提示词 50
2.3.1 思维链 51
2.3.2 结构化提示词 52
2.3.3 正反面示例引导 55
2.3.4 分治法 57
2.3.5 复杂响应的数据结构转换 59
2.4 Action:Function Calling 61
2.5 本章小结 64
第3章 RAG:检索增强生成技术 66
3.1 什么是RAG 66
3.1.1 RAG架构链路 66
3.1.2 RAG的优势 67
3.2 RAG底层实现 69
3.2.1 向量化 69
3.2.2 长文本切割 78
3.2.3 向量存储 & 相似匹配 85
3.3 RAGAS召回评估 98
3.4 自我矫正:CRAG 103
3.5 示例:从RAG到复合型Agent 107
3.6 本章小结 113
第4章 MCP:模型上下文协议 115
4.1 初探MCP 115
4.2 MCP基础开发 117
4.2.1 MCP服务端 117
4.2.2 客户端 120
4.2.3 MCP Inspector 123
4.3 MCP通信类型 127
4.3.1 STDIO 127
4.3.2 HTTP SSE & Streamable HTTP 128
4.4 MCP应用 135
4.4.1 连接本地/远程MCP服务端 135
4.4.2 与Memory/Rules联动 136
4.5 本章小结 138
第5章 LangChain:复合型Agent开发框架 140
5.1 LangChain框架总览 140
5.2 langchain模块 142
5.2.1 项目初始化 142
5.2.2 Runnable接口 143
5.2.3 LLM 146
5.2.4 文档加载 157
5.2.5 RAG 160
5.2.6 多模态 165
5.2.7 SQL联动 167
5.3 langgraph模块 176
5.3.1 编排能力 177
5.3.2 记忆 184
5.3.3 Human-in-the-Loop 190
5.3.4 路径回放 194
5.3.5 工具调用 199
5.3.6 子图嵌套 203
5.4 典型Agent示例 208
5.4.1 CRAG 208
5.4.2 ReAct 215
5.4.3 Supervisor 219
5.5 本章小结 223
第6章 ChatUI:对话式交互组件库 226
6.1 ChatUI与对话式交互 226
6.2 ChatUI核心组件 228
6.2.1 对话容器 229
6.2.2 气泡 235
6.2.3 打字气泡 237
6.2.4 思考区域 239
6.2.5 输入态 241
6.2.6 消息状态 242
6.2.7 系统消息 244
6.3 主题定制 245
6.4 示例:具备图形界面的复合型Agent 248
6.5 本章小结 254
第7章 Coze:低代码AI应用搭建 256
7.1 Coze是什么 256
7.2 自主规划模式 258
7.2.1 人设与回复逻辑 259
7.2.2 模型 263
7.2.3 插件 264
7.2.4 知识库 266
7.2.5 记忆 267
7.3 对话流模式 268
7.3.1 开始和结束 270
7.3.2 大模型 270
7.3.3 插件 272
7.3.4 工作流 273
7.3.5 代码 274
7.3.6 选择器与意图识别 275
7.3.7 知识库 277
7.3.8 记忆 279
7.4 发布为API调用 280
7.5 本章小结 282
第8章 Agent设计范式:原子化与链路可控 284
8.1 框架设计 284
8.1.1 ReAct 284
8.1.2 Supervisor 285
8.1.3 Hierarchical 287
8.2 通信设计 288
8.2.1 SSE:轻量式流式推送 288
8.2.2 WebSocket:全双工实时通信 291
8.3 状态设计 296
8.3.1 状态管理 297
8.3.2 上下文跟踪 298
8.4 渲染设计 299
8.4.1 组件原子的Function Calling 300
8.4.2 渲染管道隔离 300
8.5 工作流优化范式 302
8.5.1 意图识别 302
8.5.2 Human in the Loop 307
8.5.3 自回归机制 310
8.5.4 记忆机制 312
8.5.5 安全边界 314
8.6 成本优化策略 316
8.6.1 Prompt token消耗优化 316
8.6.2 上下文与工具缓存 318
8.6.3 合理使用不同模型 319
8.7 本章小结 320
