谛听官方博客
官网首页
官网首页
  1. AI大模型基础课程
  • 快速开始
    • 概述
  • 费曼教学
    • AI大模型基础课程
      • 01 大模型应用开发入门:从零理解人工智能与大语言模型的底层逻辑
      • 02大模型应用场景深度解析:从概率本质到实践能力图谱
      • 03Gradio:大模型开发者的极速UI验证框架
      • 04 提示工程:从随心所欲到系统化可控的大模型交互科学
      • 05大模型工作流程:从输入到输出的完整认知地图
      • 06AI Agent 深度解析与工程实践:从认知原理到个性化定制
      • 07AI Agent 核心概念与决策流程:从人类思维到工程实现的完整图谱
      • 08 智能体(Agent)决策流程的具象化教程:以智能家居温控系统为范例
      • 09智能体规划能力深度解析:从人类思维到思维链、自洽性与思维树的演进路径
      • 10AI Agent思维链增强:从24点问题看思维树(Tree of Thoughts)与ReAct框架的协同设计
      • 11AI Agent记忆机制:从人类认知到工程实现的完整学习教程
      • 12Agent 工具系统:从概念到实践的完整认知框架
      • 13AI Agent核心认知框架精讲:Plan-and-Execute(P&E)、Self-Ask、Think-and-Act、ReAct 四大范式深度解析
      • 14Agent认知框架进阶:SF²(Self-Questioning & Self-Verification)深度教程
      • 15AI Agent认知框架:Thinking & Self-Reflection(思考与自我反思)深度教程
      • 16React 框架深度教程:从思考-行动-观察闭环到可落地的 Agent 构建
      • 17构建可干预、可调试的 RAG Agent:LlamaIndex 实战教程(React + 财报分析场景)
    • 提示词工程基础课程
      • 提示词工程核心三要素:准确性、自由度、效率——从原理到实践
    • 其他
      • 王阳明心学核心修炼:励志即立心——构建人生根本标准的完整教程
  1. AI大模型基础课程

09智能体规划能力深度解析:从人类思维到思维链、自洽性与思维树的演进路径

【视频】10. 【进阶篇】9.Agent规划子任务拆解_COT与TOT

🔗 视频链接: https://player.bilibili.com/player.html?bvid=BV1xfBkB4Etb&cid=35011297757
⏱️ 视频时长: 00:13:20


💡 费曼教学(深度版)

智能体规划能力深度解析:从人类思维到思维链、自洽性与思维树的演进路径

核心洞见(顶层结论)

智能体的“规划”不是预设流程,而是对任务的动态解构、多路径探索与实时反思的三位一体认知过程——它本质是人类高阶思维能力(分解→推理→评估→修正→终止)在大语言模型上的可工程化映射。

为什么这个洞见重要:绝大多数开发者将“规划”误解为静态任务拆分或固定工作流,导致Agent系统在复杂场景中失效;真正决定Agent智能上限的,是其能否像人类一样,在执行中持续进行“元认知监控”——这正是思维链(CoT)、自洽性(Self-Consistency)与思维树(ToT)技术演进的本质逻辑。


学习目标

完成本教程学习后,你将能够:

  1. 清晰理解并准确解释智能体规划(Planning) 的完整认知闭环(分解→执行→反思→决策→终止)
  2. 清晰理解并准确解释思维链(CoT)、自洽性(Self-Consistency)、思维树(ToT) 三者的本质差异、适用边界与性能代价
  3. 清晰理解并准确解释子任务拆解与反思改进作为规划双核的底层机制
  4. 运用这些概念分析实际Agent系统中“为何任务卡死”“为何结果反复出错”等典型问题
  5. 向他人清晰解释:为何简单提示无法解决24点问题,而ToT能突破LLM的推理瓶颈

核心知识点:

  • 规划的认知闭环模型
  • 思维链(CoT)的线性推理局限
  • 自洽性(Self-Consistency)的众数陷阱
  • 思维树(ToT)的启发式搜索机制
  • 规划能力的工程化实现路径(Prompt Engineering → 反思循环 → 终止判定)

1. 背景与问题(Situation)

视频出发点:纠正当前Agent开发中对“规划”的普遍误读——将其简化为“任务拆分”或“流程编排”,忽视其作为动态认知过程的核心特征。

常见困境:

  • Agent在复杂任务中频繁陷入死循环或输出无效中间步骤
  • 多次调用LLM仍无法解决需多步推理的问题(如24点、逻辑谜题)
  • 开发者依赖硬编码流程,丧失Agent的自主适应能力

核心挑战:

  • 如何让LLM超越“单次响应”模式,形成持续推理的思维惯性?
  • 如何在不修改模型权重的前提下,通过Prompt Engineering激活高阶认知能力?

2. 概念地图(顶层设计)

概念一句话定义解决问题
规划(Planning)智能体对任务进行动态解构、执行路径探索、过程反思与终止决策的认知闭环解决“LLM无法自主处理复杂多步任务”的根本瓶颈
思维链(Chain-of-Thought, CoT)通过提示词引导LLM显式输出推理步骤,将单次响应转化为线性推理链解决“LLM跳步推理导致错误”的问题
自洽性(Self-Consistency)对同一问题生成多条CoT路径,取最终答案的众数以提升鲁棒性解决“单条CoT路径偶然性错误”的问题
思维树(Tree-of-Thought, ToT)在CoT每一步生成多个推理分支,通过启发式评估选择最优路径继续扩展解决“线性推理无法覆盖解空间”的根本局限

3. 核心概念深度解析(金字塔底层支撑)

3.1 规划(Planning)——智能体的认知操作系统

生活比喻:想象你被老板临时委派策划一场产品发布会——你不会直接开干,而是先问:目标是什么?需要哪些资源?谁负责什么?关键节点在哪?如果设计稿被否怎么办?如何判断发布会算成功? 这个动态思考过程就是规划。

一句话定义:规划是智能体为达成目标,主动进行任务分解、工具调度、路径探索、过程反思与终止判定的元认知循环。

核心要点(MECE原则):

  1. 分解(Decomposition):将宏观任务拆解为原子级子任务(如“做PPT”→“搜集资料→设计框架→撰写内容→美化排版”),每个子任务需满足SMART原则(具体、可衡量、可实现、相关、有时限)
  2. 反思(Reflection):在每个子任务执行后,主动评估:结果是否符合预期?当前路径是否最优?是否需要更换工具/调整顺序/引入新角色?
  3. 终止(Termination):建立明确的完成判定标准(如“所有子任务状态=已完成”且“最终交付物通过验收”),避免无限递归或过早收束

常见误区:

  • ❌ 误区:规划=写一个流程图然后按序执行
  • ✅ 正确理解:规划是带反馈环的动态控制系统,每一步都可能触发重规划
  • ⚠️ 为什么容易出错:开发者常将“规划模块”设计为一次性函数,忽略其需嵌入Agent主循环的实时性

实际应用:在客服Agent中,当用户说“帮我取消上个月的订单并退款”,规划模块需:① 拆解为“查订单→验证权限→执行取消→触发退款→通知用户”;② 若“查订单”失败,反思是否因用户未登录,转而发起登录流程;③ 当退款状态变为“已到账”,触发终止并发送确认消息

3.2 思维链(Chain-of-Thought, CoT)——线性推理的启蒙技术

生活比喻:就像数学老师要求学生“写出解题步骤”,而不是只写答案——强制LLM暴露思考过程,避免黑箱跳跃。

一句话定义:通过Prompt指令(如“请逐步推理”)引导LLM生成中间推理步骤,将单次输入-输出映射扩展为“输入→步骤1→步骤2→...→输出”的链式结构。

核心要点:

  1. 触发机制:依赖高质量的Few-shot示例(如给出3个带步骤的解答范例),LLM通过上下文学习模仿推理模式
  2. 价值边界:显著提升算术、常识推理等需多步计算的任务准确率(论文显示GSM8K数据集准确率从17%→74%)
  3. 致命缺陷:单路径依赖——若某一步推理错误,后续全盘崩塌(如24点中第一步选错运算符,后续无法挽回)

常见误区:

  • ❌ 误区:只要加“Let’s think step by step”就自动生效
  • ✅ 正确理解:需配合领域适配的推理模板(如数学题用公式推导模板,法律题用法条援引模板)
  • ⚠️ 为什么容易出错:开发者常套用通用CoT提示,忽视不同领域推理逻辑的结构性差异

实际应用:在编程助手Agent中,用户提问“用Python写一个快速排序”,CoT会强制输出:① 理解快排原理(分治+递归)→② 定义pivot选取策略→③ 编写partition函数→④ 组装递归调用,而非直接扔出代码

3.3 自洽性(Self-Consistency)——用民主投票对抗随机性

生活比喻:像召开专家评审会——邀请5位不同背景的专家独立解答同一问题,取多数人认同的答案,降低个体判断偏差。

一句话定义:对同一问题生成N条独立CoT路径,汇总各路径的最终答案,选择出现频率最高的答案作为输出。

核心要点:

  1. 运作机制:N通常取3-10,每条CoT路径由不同随机种子生成,确保推理多样性
  2. 收益与代价:准确率提升约10-15%,但Token消耗增加N倍(成本线性增长)
  3. 隐性风险:“真理掌握在少数人手中”——当正确答案是小众路径时,众数反成错误答案(如24点中90%路径选错运算符,仅10%选对却胜出)

常见误区:

  • ❌ 误区:自洽性=绝对正确保障
  • ✅ 正确理解:它是概率性鲁棒增强,非确定性纠错
  • ⚠️ 为什么容易出错:开发者未设置路径质量过滤(如剔除明显矛盾的CoT),导致噪声拉低整体置信度

实际应用:在医疗问答Agent中,对“头痛伴随视力模糊的可能病因”,生成5条CoT路径(分别从神经科/眼科/内科视角推理),若4条指向“青光眼急性发作”,则采纳该结论并标注置信度80%

3.4 思维树(Tree-of-Thought, ToT)——全局搜索的智能体大脑

生活比喻:像国际象棋AI的蒙特卡洛树搜索——不只走一条路,而是在每个决策点展开多条分支,用“胜率评估”动态剪枝,最终找到最优解。

一句话定义:将推理过程建模为树状结构,每个节点代表一个部分解决方案,通过启发式评估函数(如“距离目标的剩余步数”)选择最有希望的分支继续扩展。

核心要点:

  1. 树构建:根节点=初始问题,每个子节点=一种可能的中间状态(如24点中“6+6=12”生成节点“12,6,6”)
  2. 启发式评估:对每个节点打分(如“12,6,6”比“0,6,6”更接近24,得分更高),指导搜索方向
  3. 搜索策略:支持广度优先(探索更多可能性)或深度优先(快速验证单条路径),可结合Beam Search平衡效率与效果

常见误区:

  • ❌ 误区:ToT只是“多跑几次CoT”
  • ✅ 正确理解:ToT是带状态记忆与评估反馈的主动搜索,CoT是被动线性展开
  • ⚠️ 为什么容易出错:开发者未设计有效的节点评估函数,导致搜索沦为暴力穷举

实际应用:在创意写作Agent中,用户要求“写一篇关于‘时间’的哲理散文”,ToT会:① 根节点生成3个立意(时间如河流/时间如牢笼/时间如馈赠)→② 对每个立意生成2个核心意象→③ 评估“意象新颖度+哲理深度”得分→④ 选择最高分组合展开成文


4. 概念关系图(金字塔层级结构)

4.1 层级结构

层级概念作用支撑关系
顶层规划(Planning)解决复杂任务的自主执行问题由CoT/ToT提供推理能力,由反思机制提供调控能力
中层思维链(CoT)提供基础推理能力是ToT的原子操作单元(ToT的每个节点内运行CoT)
中层反思(Reflection)提供动态调控能力监控CoT/ToT执行效果,触发重规划或终止
底层自洽性(Self-Consistency)提升单次推理鲁棒性可嵌入CoT或ToT节点内,作为局部纠错模块
底层思维树(ToT)提供全局搜索能力是CoT的超集,当任务复杂度超过线性推理阈值时启用

4.2 逻辑链条

  • CoT能力 → 为规划提供“单步推理”基础能力
  • CoT + 自洽性 → 共同构成规划的“鲁棒推理层”,降低随机错误
  • CoT + ToT + 反思 → 共同构成规划的“智能决策层”,实现动态路径优化
  • 规划闭环 → 最终解决“LLM无法自主处理复杂任务”的核心问题

4.3 因果关系

原因结果作用机制
任务复杂度↑(如24点需3步以上推理)CoT准确率↓线性推理链断裂风险指数级上升
引入ToT搜索机制准确率↑(24点达95%+)启发式评估函数筛选高潜力分支,规避错误路径
反思模块检测到连续失败触发重规划重置任务状态,切换ToT搜索策略(如从广度优先转深度优先)

5. 知识路径(学习路线图)

  1. 起点:理解 CoT是规划的“最小可行推理单元”

    • 关键理解点:CoT不是魔法,而是通过Prompt将LLM的隐式推理显性化
    • 常见卡点:为何Few-shot示例必须与任务强相关?(答案:LLM通过上下文学习推理模式,无关示例引发负迁移)
  2. 中点:掌握 ToT是CoT的“战略升级”

    • 关键理解点:ToT的价值不在“多算”,而在“聪明地少算”——用评估函数替代暴力穷举
    • 突破方法:从24点案例入手,手动绘制3层思维树,标注每个节点的启发式得分
  3. 终点:应用 规划闭环实现生产级Agent

    • 关键应用场景:客服对话中用户需求动态演变(如“查订单”→“取消订单”→“推荐替代商品”)
    • 效果验证:当Agent能在无人工干预下,自主完成跨意图的3步以上任务链,即算掌握

6. 概念对比矩阵(易混淆概念辨析)

对比维度思维链(CoT)自洽性(Self-Consistency)思维树(ToT)
定义单条线性推理路径多条CoT路径的众数聚合多分支树状推理结构
核心特征步骤显性化结果鲁棒性增强路径可探索性
工作原理Prompt触发步骤生成并行生成+投票决策节点生成+启发式评估+搜索
适用场景中等复杂度任务(2-3步推理)需要稳定输出的场景(如客服FAQ)高复杂度任务(需全局优化,如24点、策略游戏)
优势实现简单,成本低显著提升准确率突破LLM推理天花板
局限单点故障,不可回溯成本高,可能掩盖真知实现复杂,需设计评估函数

核心区别总结:CoT是“怎么想”,Self-Consistency是“多想几次选多数”,ToT是“想到哪算哪,边想边选最优路径”
容易混淆的原因:三者都涉及“多步推理”,但控制粒度不同(CoT控制步骤,Self-Consistency控制路径数量,ToT控制搜索策略)
记忆技巧:CoT = Chain(链条)→ 线性;Self-Consistency = Survey(调查)→ 投票;ToT = Tree(树)→ 分支


7. 类比理解搭建(抽象具象化)

抽象概念具体事物类比映射适用说明
规划闭环导航APP(如高德)输入目的地→规划路线→实时监测偏航→重新规划→到达提示适用于理解“动态调整”特性
CoT推理数学解题草稿纸写出每一步计算过程,而非直接抄答案适用于初学者建立步骤意识
ToT搜索国际象棋AI(AlphaZero)每步棋评估数十种走法,用胜率预测选择最优分支适用于理解启发式评估价值
反思机制飞行员检查清单起飞前逐项确认:油量✓、襟翼✓、通讯✓→任一失败则中止适用于理解终止判定的严谨性

相似点:均强调过程透明性与动态调控
不同点(重要):人类导航可直觉纠偏,LLM必须通过显式Prompt Engineering构建同等能力
类比局限性:导航APP路径是预计算的,而ToT是实时生成的——后者需LLM在毫秒级完成节点评估


8. 盲点识别(防坑指南)

潜在盲点(学习者易误解)正确理解为什么容易出错
认为ToT只需增加API调用次数ToT的核心是状态管理+评估函数,非简单并行调用视频未强调节点状态需持久化存储,开发者易忽略上下文丢失问题
将“反思”等同于“错误重试”反思包含前置规划校验+过程监控+后置效果评估三维视频侧重后置反思,但生产级Agent需在任务启动前验证可行性(如检查工具权限)
认为自洽性总能提升准确率当CoT路径存在系统性偏差(如领域知识缺失),众数反成共识性错误视频提到“真理在少数人手中”,但未给出检测系统性偏差的方法(如用领域专家规则校验CoT步骤)

跳步检测:

  • 默认观众知道但实际需要解释:启发式评估函数的设计方法(如24点中用“当前数字与24的绝对差值”作为启发式)
  • 行话/术语未解释:Beam Search(保留Top-K高分节点,剪枝低分分支的搜索策略)
  • 因果链断裂:未说明为何ToT能解决24点——因其将“枚举所有运算符组合”的指数复杂度,转化为“每层选Top-K分支”的多项式复杂度

9. 核心洞见(价值提炼)

  1. 洞见一:规划的本质是元认知,而非流程编排

    • 颠覆认知:传统认知中规划=画流程图;新认知=构建带反馈的思维操作系统
    • 实际价值:使Agent具备应对需求变更的能力(如用户中途说“改成线下活动”)
  2. 洞见二:ToT不是CoT的升级版,而是范式革命

    • 颠覆认知:CoT是“教LLM怎么想”,ToT是“让LLM自己决定想什么”
    • 实际价值:首次使LLM具备类似人类“试错-评估-优化”的科研式推理能力
  3. 洞见三:反思机制是规划闭环的“安全阀”

    • 颠覆认知:反思不仅是纠错,更是资源调度指令(如“当前工具不足,调用搜索引擎”)
    • 实际价值:避免Agent陷入无限循环,保障系统稳定性

10. 学以致用(实践指南)

行动指南:用ToT重构你的第一个复杂任务Agent(如24点求解器)

操作步骤:

  1. 第一步:定义节点状态格式(如[6,6,6,6]→[12,6,6]→[18,6]→[24])
  2. 第二步:编写启发式评估函数(如score = 1/(abs(sum(state)-24)+1))
  3. 第三步:实现宽度优先搜索(每层扩展所有可能运算,保留Top-3高分节点)
  4. 第四步:添加终止条件(节点state长度=1且值=24,或搜索深度>5)

检验标准:当你输入任意四数组合(如[3,3,8,8]),Agent在10秒内返回正确运算序列(8/(3-8/3)=24),即算掌握

进阶挑战:为ToT添加“反思层”——当某层所有节点得分<0.1时,触发重规划:更换启发式函数(如改用“数字乘积与24的接近度”)


11. 费曼检验清单(检验内化程度)

11.1 一句话解释测试

  • 规划:智能体为完成任务,像人类一样动态拆解、探索、反思、决策、终止的思维操作系统
  • CoT:用“请一步步思考”提示LLM暴露推理步骤,把黑箱变成白盒
  • ToT:在每一步推理时展开多条路,用评分选出最有希望的那条继续走

11.2 类比有效性评估

  • 类比:规划如导航APP —— [贴切] 因二者均有目标设定、路径规划、实时纠偏、到达判定
  • 改进建议:需补充“导航APP无反思能力,而规划必须内置反思模块触发重规划”

11.3 应用场景测试

  • 场景:用户要求“分析竞品A的营销策略并给出优化建议”
  • 应用:规划模块拆解为①爬取竞品A官网→②提取营销文案→③对比行业基准→④生成建议;若①失败,反思模块调用备用数据源
  • 配合:CoT用于步骤③的对比分析,ToT用于步骤④的多方案生成

11.4 逻辑链条测试

  • CoT提供单步推理能力 → ToT在每步调用CoT生成分支 → 反思模块监控ToT搜索效率 → 若连续3层无高分节点,则触发重规划(如切换启发式函数)

知识点总结(金字塔回顾)

顶层结论回顾

智能体的“规划”不是预设流程,而是对任务的动态解构、多路径探索与实时反思的三位一体认知过程——它本质是人类高阶思维能力(分解→推理→评估→修正→终止)在大语言模型上的可工程化映射。

核心概念回顾

  1. 规划(Planning)

    • 定义:动态解构、执行路径探索、过程反思与终止决策的认知闭环
    • 核心要点:分解(SMART子任务)、反思(三维度评估)、终止(明确判定标准)
    • 应用场景:需求动态变更的客服对话、多目标冲突的项目管理
  2. 思维链(CoT)

    • 定义:通过Prompt显式引导LLM输出推理步骤
    • 核心要点:Few-shot驱动、线性依赖、单点脆弱
    • 应用场景:数学题解答、逻辑推理题、标准化报告生成
  3. 思维树(ToT)

    • 定义:将推理建模为树,用启发式评估函数指导搜索
    • 核心要点:节点状态管理、评估函数设计、搜索策略选择
    • 应用场景:24点求解、创意生成、策略规划、科研假设验证

关键逻辑回顾

  • CoT能力 → 为规划提供“单步推理”基础能力
  • CoT + ToT + 反思 → 共同构成规划的“智能决策层”,实现动态路径优化
  • 规划闭环 → 最终解决“LLM无法自主处理复杂任务”的核心问题

学习成果检验

  • ☐ 能用简单语言解释规划是“带反馈的思维操作系统”
  • ☐ 能说清CoT、Self-Consistency、ToT的适用边界与代价
  • ☐ 能在24点任务中手动绘制ToT三层搜索树并标注启发式得分
  • ☐ 能向他人讲解:为何ToT是突破LLM推理瓶颈的关键范式


💡 如何将这份知识化为己有?

这篇结构化的笔记,是我用 AI 工具 谛听 处理视频后一键生成的。

它不仅能 批量提取B站视频文案,更能用 费曼学习法 自动梳理出清晰的主干——就像你刚才看到的那样。

🎯 现在就可以体验: 用「30分钟免费额度」处理你收藏夹里第一个"待学习"视频,
不到10分钟,就能得到一份属于你的结构化笔记。

🔗 立即体验: https://diting.cc
⏰ 免费额度: 新用户注册即送30分钟/月


🤖 由 谛听 Diting.cc AI 驱动 | 专注于B站视频知识提取

修改于 2026-02-20 12:04:05
上一页
08 智能体(Agent)决策流程的具象化教程:以智能家居温控系统为范例
下一页
10AI Agent思维链增强:从24点问题看思维树(Tree of Thoughts)与ReAct框架的协同设计
Built with