谛听官方博客
官网首页
官网首页
  1. AI大模型基础课程
  • 快速开始
    • 概述
  • 费曼教学
    • AI大模型基础课程
      • 01 大模型应用开发入门:从零理解人工智能与大语言模型的底层逻辑
      • 02大模型应用场景深度解析:从概率本质到实践能力图谱
      • 03Gradio:大模型开发者的极速UI验证框架
      • 04 提示工程:从随心所欲到系统化可控的大模型交互科学
      • 05大模型工作流程:从输入到输出的完整认知地图
      • 06AI Agent 深度解析与工程实践:从认知原理到个性化定制
      • 07AI Agent 核心概念与决策流程:从人类思维到工程实现的完整图谱
      • 08 智能体(Agent)决策流程的具象化教程:以智能家居温控系统为范例
      • 09智能体规划能力深度解析:从人类思维到思维链、自洽性与思维树的演进路径
      • 10AI Agent思维链增强:从24点问题看思维树(Tree of Thoughts)与ReAct框架的协同设计
      • 11AI Agent记忆机制:从人类认知到工程实现的完整学习教程
      • 12Agent 工具系统:从概念到实践的完整认知框架
      • 13AI Agent核心认知框架精讲:Plan-and-Execute(P&E)、Self-Ask、Think-and-Act、ReAct 四大范式深度解析
      • 14Agent认知框架进阶:SF²(Self-Questioning & Self-Verification)深度教程
      • 15AI Agent认知框架:Thinking & Self-Reflection(思考与自我反思)深度教程
      • 16React 框架深度教程:从思考-行动-观察闭环到可落地的 Agent 构建
      • 17构建可干预、可调试的 RAG Agent:LlamaIndex 实战教程(React + 财报分析场景)
    • 提示词工程基础课程
      • 提示词工程核心三要素:准确性、自由度、效率——从原理到实践
    • 其他
      • 王阳明心学核心修炼:励志即立心——构建人生根本标准的完整教程
  1. AI大模型基础课程

16React 框架深度教程:从思考-行动-观察闭环到可落地的 Agent 构建

【视频】17. 【进阶篇】16.ReAct框架案例实现#

🔗 视频链接: https://player.bilibili.com/player.html?bvid=BV1xfBkB4Etb&cid=35011298014
⏱️ 视频时长: 00:09:56

💡 费曼教学(深度版)#

React 框架深度教程:从思考-行动-观察闭环到可落地的 Agent 构建#

核心洞见(顶层结论)#

React 不是一种前端 UI 框架,而是一种面向复杂问题求解的“认知执行范式”——它将大语言模型(LLM)转化为具备自主推理、工具调用与结果验证能力的智能体(Agent),其本质是“Think → Act → Observe → Reflect”的闭环决策系统。
为什么这个洞见重要:它彻底扭转了对 React 的常见误解(误以为是前端框架),揭示了其在 AI 工程化中的核心价值:让 LLM 从“被动应答器”升级为“主动问题解决者”,为构建可解释、可调试、可扩展的生产级 AI 应用提供方法论基石。

学习目标#

完成本教程学习后,你将能够:
1.
清晰理解并准确解释 React 框架的本质与核心循环机制
2.
清晰理解并准确解释 Tool Use(工具调用)在 Agent 中的定位、设计原则与边界条件
3.
清晰理解并准确解释 Prompt 工程与 Agent 架构的协同关系:为何“粗糙 Prompt”在 React 下仍可工作,而传统 Prompt 却失效
4.
运用 React 范式分析实际业务场景(如定价策略、财报分析、供应链决策)中的多步推理需求
5.
向他人清晰解释 React 与 Function Calling、ReAct Agent、Twin Agent 等主流范式的异同与选型逻辑
核心知识点:
React 思考-行动-观察闭环(Think-Act-Observation Loop)
工具调用(Tool Use)的语义化封装与可信度管理
Prompt 粗粒度 vs Agent 细粒度控制权分配
React 在单 Agent 场景下的工程优势与局限性
React 与 Twin Agent / Function Calling 的架构级对比

1. 背景与问题(Situation)#

本教程源于一个典型认知断层:大量开发者将 React(前端框架)与 ReAct(推理范式)混淆,导致在构建 AI Agent 时陷入“强 Prompt 工程依赖”或“盲目堆砌模型”的误区。视频中讲师明确指出:当前演示的不是 React.js,而是 ReAct —— 即 Reasoning + Acting 的缩写,一种由 Google 提出、被 LangChain 等框架工程化实现的 LLM 推理增强范式。
常见困境:
❌ 将复杂业务问题硬塞进单轮 Prompt,导致幻觉率高、步骤不可追溯
❌ 认为“只要 Prompt 写得好,就不需要 Agent 架构”,忽视工具调用与状态反馈的必要性
❌ 在搜索类任务中过度依赖 LLM 内置知识,忽略实时/结构化数据源的接入价值
核心挑战:
如何让 LLM 不仅“知道答案”,更能“拆解问题→选择工具→验证结果→修正路径”?
如何设计既鲁棒(robust)又可控(controllable)的工具调用机制,避免“搜索即真理”的认知陷阱?

2. 概念地图(顶层设计)#

概念一句话定义解决问题
ReAct 框架一种 LLM 推理范式,强制模型在生成响应前显式输出“思考(Thought)→行动(Action)→观察(Observation)”三段式中间步骤,形成可追踪、可调试的决策链解决 LLM 黑箱推理不可控、不可验、不可溯的问题
Tool Use(工具调用)将外部能力(搜索、计算、数据库查询等)封装为标准化函数接口,由 LLM 根据语义意图动态选择并调用,返回结构化结果供后续推理使用解决 LLM 知识静态性、计算不可靠性、数据实时性缺失三大瓶颈
Prompt 粗粒度控制在 ReAct 架构下,用户只需提供高层业务目标(如“计算加价5%后的玫瑰定价”),无需精确描述每一步操作;具体执行逻辑由 Agent 自主规划解决传统 Prompt 工程中“步骤爆炸”与“指令脆弱性”问题

3. 核心概念深度解析(金字塔底层支撑)#

3.1 ReAct 框架:Think-Act-Observation 闭环#

生活比喻:想象一位资深采购经理处理供应商询价——他不会直接报出价格,而是先想:“我需要查当前市场均价和运费”(Think),再打开 Excel 查历史数据、登录采购平台比价(Act),然后看屏幕上的数字说:“云南A供应商报价28元/扎,江苏B供应商报价32元/扎”(Observation),最后综合判断:“取均值30元,加5%得31.5元”(Reflect)。ReAct 就是给 LLM 装上这套职业思维习惯。
一句话定义:ReAct 是一种强制 LLM 显式暴露推理过程的提示范式,通过固定格式(Thought/Action/Observation)将隐式推理转化为可审计、可干预、可迭代的执行流。
核心要点(MECE原则):
1.
Think(思考):对问题进行任务分解与步骤规划,不产生最终答案,只输出推理路径(例:“需分两步:①查玫瑰进价;②计算加价5%”)
2.
Act(行动):根据 Think 结果,调用预定义工具(如 search("中国玫瑰花批发价格") 或 calculator(30 * 1.05)),工具名与参数必须严格匹配注册接口
3.
Observation(观察):接收工具返回的原始结果(非 LLM 解释),原样注入下一轮上下文,作为新推理的客观依据
常见误区:
❌ 误区:把 Observation 当作 LLM 的“自我总结”(如“我查到玫瑰价格是30元”)
✅ 正确理解:Observation 必须是工具的原始输出(如搜索结果 HTML 片段、API 返回 JSON),禁止任何 LLM 加工
⚠️ 为什么容易出错:混淆了“观察”(客观事实)与“反思”(主观判断),破坏闭环的可验证性
实际应用:在电商定价系统中,ReAct 可自动串联“爬取竞品价→调用成本模型→比对毛利阈值→生成调价建议”,每步均可人工复核与干预。

3.2 Tool Use:工具调用的语义化封装#

生活比喻:就像手机操作系统——用户说“导航去北京南站”,系统自动调用 GPS 定位、地图渲染、路径规划三个模块,无需用户知道经纬度怎么算、道路拓扑如何建模。Tool Use 就是给 LLM 提供一套“AI 原生 API”。
一句话定义:Tool Use 是将外部能力(搜索、计算、代码执行等)封装为带名称、描述、参数规范的函数,并由 LLM 根据自然语言意图自主选择调用的技术机制。
核心要点:
1.
语义注册:每个工具需提供 name(调用名)、description(功能描述)、parameters(JSON Schema 参数定义),供 LLM 理解语义边界
2.
可信度分级:视频中强调“搜索工具结果不准确”,说明工具需标注可信等级(如:search → 低置信度/高时效性;database_query → 高置信度/低时效性)
3.
失败熔断:当工具返回空/异常时,Agent 应触发重试、切换工具或降级策略(如改用默认值),而非强行编造答案
常见误区:
❌ 误区:认为“工具越多越好”,无差别接入所有 API
✅ 正确理解:工具集应遵循 “最小完备性”原则——仅包含解决当前领域问题所必需的、语义正交的工具(视频中仅用 search + calculator 即完成定价)
⚠️ 为什么容易出错:忽略工具调用的开销(延迟、成本、错误率),导致 Agent 变成“工具滥用狂魔”
实际应用:在财报分析 Agent 中,预设 get_quarterly_report(company, quarter)、compare_metrics(metric, q1, q2)、generate_insight(text) 三个工具,即可实现“自动发现营收下滑原因→定位关键指标→生成管理层建议”的完整链路。

3.3 Prompt 粗粒度控制:从指令驱动到目标驱动#

生活比喻:就像给司机说“送我去机场”(粗粒度目标),而非“先左转50米,再直行200米,第三个红绿灯右转...”(细粒度指令)。ReAct 让 LLM 成为“目标理解者+路径规划者”,而非“指令执行器”。
一句话定义:在 ReAct 架构下,用户 Prompt 只需声明高层业务目标与约束条件,具体执行步骤、工具选择、结果整合均由 Agent 自主完成。
核心要点:
1.
目标锚定:Prompt 必须清晰定义“要什么”(What)和“不能什么”(Constraints),如“在中国市场,以玫瑰花进价为基础加价5%定价,需说明计算依据”
2.
容错设计:因工具返回结果具有不确定性(如搜索结果波动),Agent 需内置容错逻辑(视频中两次运行得到 31.5 元与 15.75 元,均属合理输出)
3.
可演进性:当业务规则变化(如加价率从 5% 改为 8%),只需修改 Prompt 目标,无需重写整个推理链
常见误区:
❌ 误区:试图用 Prompt “教 LLM 怎么调用工具”(如“请先调用 search 工具,再调用 calculator”)
✅ 正确理解:Prompt 只负责设定目标,工具调用是 Agent 的内生能力,由其内部规划器(Planner)自主决策
⚠️ 为什么容易出错:将 ReAct 误当作“Prompt 模板”,忽视其背后需要 LangChain 等框架实现的规划器、工具注册、观测注入等工程组件
实际应用:客服 Agent 接收用户问“我的订单 #12345 为什么还没发货?”,自动触发 get_order_status(order_id) → get_warehouse_info(warehouse_id) → check_logistics_partner(partner_name) 链路,全程无需人工编写调度逻辑。

4. 概念关系图(金字塔层级结构)#

4.1 层级结构#

层级概念作用支撑关系
顶层ReAct 框架解决“LLM 如何可靠解决多步现实问题”的根本问题由以下概念共同支撑
中层Tool Use提供与物理世界/数据世界交互的能力接口由工具注册、语义理解、结果注入支撑
中层Prompt 粗粒度控制定义 Agent 的目标输入与约束边界由目标建模、约束表达、反馈机制支撑
底层Think-Act-Observation 循环构成 ReAct 的原子执行单元,确保每步可审计...

4.2 逻辑链条#

Tool Use → 为 ReAct 的 Act 阶段 提供能力载体
Prompt 粗粒度控制 + Tool Use → 共同支撑 Think 阶段的任务分解能力(因目标明确且工具可知,故能规划出合理步骤)
Think-Act-Observation 循环 → 三者融合形成 ReAct 框架,最终解决“复杂业务问题自动化求解”这一核心问题

4.3 因果关系#

原因结果作用机制
引入 search 工具Observation 获取实时市场数据工具调用将 LLM 从“知识库查询”升级为“信息获取引擎”
calculator 工具返回确定性结果定价计算环节零幻觉结构化工具输出替代 LLM 数值计算,规避算术错误
Prompt 仅声明“加价5%”目标Agent 自主决定先查价再计算目标驱动使 Agent 规划器生成符合逻辑的执行序列

5. 知识路径(学习路线图)#

1.
起点:理解 ReAct 的三段式格式(Thought/Action/Observation)
关键理解点:Observation 必须是工具原始输出,不可加工
常见卡点:混淆 Observation 与 LLM 的“自我陈述”,导致闭环断裂
2.
中点:掌握 Tool Use 的注册与调用机制
关键理解点:工具描述(description)的质量直接决定 LLM 调用准确率
突破方法:用“工具说明书写作法”训练——为每个工具写 3 句话:① 它能做什么;② 它不能做什么;③ 典型输入输出示例
3.
终点:应用 Prompt 粗粒度控制设计业务 Agent
关键应用场景:需要多源数据整合、多步计算、人工复核的业务流(如供应链定价、金融风控、医疗问诊)
效果验证:当用户修改 Prompt 目标(如“加价率改为8%”)后,Agent 自动更新全流程,无需改动代码

6. 概念对比矩阵(易混淆概念辨析)#

对比维度ReAct(本教程)React.js(前端框架)核心区别
定义LLM 推理范式(Reasoning + Acting)JavaScript UI 构建库领域完全不同:AI 推理 vs 前端开发
核心特征强制显式推理步骤(Thought/Action/Observation)声明式 UI 描述(JSX)、组件化、虚拟 DOM前者关注“如何思考”,后者关注“如何渲染”
工作原理LLM 生成文本 → 解析 Action → 调用工具 → 注入 Observation → 迭代JSX 编译为 JS → 操作 DOM → 响应状态变化前者是 AI 执行流,后者是 UI 更新流
适用场景AI Agent、自动化决策、复杂问答系统Web 应用、移动端(React Native)、桌面端(Electron)前者用于构建智能体,后者用于构建界面
优势可解释、可调试、支持工具扩展、降低 Prompt 复杂度生态丰富、性能优异、跨平台、开发者友好解决不同层次的问题:智能决策 vs 用户交互
局限依赖工具质量、推理延迟较高、需框架支持无法直接处理 AI 推理、需额外集成 LLM二者可结合:用 React.js 做 ReAct Agent 的前端界面
核心区别总结:ReAct 是 AI 的“大脑工作流”,React.js 是软件的“界面绘制引擎”,命名巧合导致的认知混淆是本教程首要破除的迷思。
容易混淆的原因:中文社区常将 ReAct 音译为“React”,而 React.js 官方中文名亦为“React”,造成术语污染。
记忆技巧:记 ReAct = R(easoning) + A(cting),所有大写字母都代表动词;React.js 的 “React” 是专有名词,首字母大写即表示前端框架。

7. 类比理解搭建(抽象具象化)#

抽象概念具体事物类比映射适用说明
ReAct 循环科研实验流程Thought=实验假设;Act=操作仪器;Observation=读取仪表数据适用于强调“可重复验证”的场景
Tool Use手机 App 生态每个工具如微信/高德/计算器,LLM 是用户,根据需求选择 App适用于解释工具注册与语义调用
Prompt 粗粒度滴滴打车输入框输入“去首都机场”即触发完整路径规划,无需指定路线适用于向业务方解释 Agent 的易用性
相似点:均强调目标导向、模块化、用户无需关心底层实现。
不同点(重要):科研实验需人工操作仪器,而 ReAct 的 Act 由 LLM 自动调用 API 完成。
类比局限性:手机 App 无法自主决策调用顺序,而 ReAct Agent 的 Planner 可基于 Observation 动态调整下一步动作。

8. 盲点识别(防坑指南)#

潜在盲点(学习者易误解)正确理解为什么容易出错
认为 ReAct 是 LangChain 的特有功能ReAct 是通用范式,LangChain、LlamaIndex、Semantic Kernel 均支持框架文档常以 LangChain 示例为主,造成“绑定错觉”
认为 Observation 可以是 LLM 总结Observation 必须是工具原始输出,否则丧失可验证性混淆了“观察”(客观)与“反思”(主观),违背科学方法论
认为工具越多 Agent 越强大工具集应最小完备,冗余工具增加幻觉风险与调试难度受“功能越多越先进”惯性思维影响,忽视工程复杂度代价
跳步检测:
默认观众知道但实际需要解释:ReAct 与 Chain-of-Thought(CoT)的本质区别(CoT 是纯内部推理,ReAct 强制引入外部观测)
行话/术语未解释:“Planner”(规划器,Agent 内部负责生成 Thought 并选择 Action 的子模块)
因果链断裂:未说明 为何搜索工具结果“不准确”反而是 ReAct 的优势(因为暴露不确定性,促使 Agent 设计容错逻辑,而非掩盖问题)

9. 核心洞见(价值提炼)#

1.
洞见一:ReAct 将 LLM 从“回答机器”升维为“问题解决者”
颠覆认知:传统观点认为 LLM 仅擅长生成,ReAct 证明其可主导完整决策链
实际价值:企业可快速构建“采购定价助手”“财报分析师”“合规审查员”等垂直 Agent,无需从零训练模型
2.
洞见二:工具调用不是功能叠加,而是可信度分层架构
颠覆认知:搜索、计算、数据库等工具并非平等,需按“确定性-时效性”二维矩阵分级管理
实际价值:在金融场景中,用 database_query 获取客户余额(高确定性),用 search 获取行业新闻(高时效性),避免用错工具导致决策失误
3.
洞见三:Prompt 工程的终点是“消失”,Agent 架构的起点是“目标声明”
颠覆认知:最佳 Prompt 不是精雕细琢的指令,而是清晰简洁的目标陈述
实际价值:业务人员可直接参与 Agent 设计(如“帮我找出Q3营收下降超10%的子公司”),打破 AI 应用的技术壁垒

10. 学以致用(实践指南)#

行动指南:请用 ReAct 范式重构一个你熟悉的业务问题(如:计算某商品在抖音/淘宝/拼多多三平台的平均售价并分析价差原因)。
操作步骤:
1.
第一步:定义目标 Prompt——“请分析‘iPhone 15’在抖音、淘宝、拼多多的当前售价,计算均价,并解释价差最大平台的原因”
2.
第二步:设计最小工具集——search_platform_price(platform, product)、calculate_average(prices)、analyze_price_difference(platforms, prices)
3.
第三步:手写模拟 ReAct 循环——写出 Thought(需查三平台价→算均价→分析差异)、Action(三次 search 调用)、Observation(模拟搜索返回的各平台价格)
4.
第四步:验证闭环——检查 Observation 是否为原始数据,是否支撑下一步推理
检验标准:当你能清晰说出“哪个工具负责解决哪个子问题”“如果某工具失败,Agent 应如何降级”时,说明已掌握核心逻辑。
进阶挑战:为该 Agent 添加“人工审核节点”——当价差分析结果置信度低于阈值时,自动转交运营人员复核。

11. 费曼检验清单(检验内化程度)#

11.1 一句话解释测试#

ReAct 框架:一种强制 LLM 显式输出“思考→行动→观察”三步的推理范式,让黑箱决策变成可审计的流水线。
Tool Use:把外部能力(搜索、计算等)包装成带语义描述的函数,让 LLM 像调用 API 一样调用现实世界。
Prompt 粗粒度控制:用户只说“我要什么”,Agent 自己决定“怎么一步步做到”,解放人类于细节指令。

11.2 类比有效性评估#

类比:ReAct 如科研实验流程 —— [贴切] —— 因两者均强调假设→操作→观测→结论的闭环,且 Observation 必须是仪器原始读数。
改进建议:可补充“实验室安全守则”类比工具约束(如搜索工具不可用于医疗诊断),强化可信度管理意识。

11.3 应用场景测试#

如果遇到“分析公司近3年现金流变化并预测下季度缺口”,你会:
① Thought:需获取3年财报现金流量表→计算年增长率→拟合趋势线→预测下季度值;
② Action:调用 get_cashflow_report(year) 三次 → calculate_growth(cashflows) → predict_next_quarter(trend);
③ Observation:注入原始财报数据、增长率数值、预测模型输出。
search 和 database_query 应配合使用:用 search 获取行业平均现金流健康度报告(定性背景),用 database_query 获取本公司精确现金流数据(定量核心)。

11.4 逻辑链条测试#

Tool Use(提供能力接口)→ 支撑 ReAct 的 Act 阶段 → 生成 Observation(客观事实)→ 为 Think 阶段 提供新依据 → 推动 ReAct 循环 迭代 → 最终达成 业务目标。

知识点总结(金字塔回顾)#

顶层结论回顾#

ReAct 不是一种前端 UI 框架,而是一种面向复杂问题求解的“认知执行范式”——它将大语言模型(LLM)转化为具备自主推理、工具调用与结果验证能力的智能体(Agent),其本质是“Think → Act → Observe → Reflect”的闭环决策系统。

核心概念回顾#

1.
ReAct 框架
定义:强制 LLM 显式输出 Thought/Action/Observation 三段式推理链
核心要点:Observation 必须是工具原始输出、Think 必须任务分解、Act 必须精准调用
应用场景:需多步、多源、可审计的 AI 决策任务
2.
Tool Use
定义:将外部能力封装为语义化函数接口供 LLM 调用
核心要点:工具需描述清晰、可信度分级、失败熔断
应用场景:需接入实时数据、执行确定性计算、调用专业系统的任务
3.
Prompt 粗粒度控制
定义:用户仅声明高层目标,执行逻辑由 Agent 自主规划
核心要点:目标明确、约束清晰、容错设计
应用场景:业务规则频繁变更、需快速迭代 Agent 的场景

关键逻辑回顾#

Tool Use → 为 ReAct 的 Act 阶段 提供能力载体
Prompt 粗粒度控制 + Tool Use → 共同支撑 Think 阶段的任务分解能力
Think-Act-Observation 循环 → 三者融合形成 ReAct 框架,最终解决“复杂业务问题自动化求解”

学习成果检验#

☐ 能用简单语言解释 ReAct、Tool Use、Prompt 粗粒度控制
☐ 能说清三者如何构成“目标→规划→执行→验证”的完整闭环
☐ 能在实际业务场景中设计最小可行工具集与 ReAct 流程
☐ 能向非技术人员解释:为何“告诉 Agent 目标”比“教它每一步”更高效可靠


💡 如何将这份知识化为己有?
这篇结构化的笔记,是我用 AI 工具 谛听 处理视频后一键生成的。
它不仅能 批量提取B站视频文案,更能用 费曼学习法 自动梳理出清晰的主干——就像你刚才看到的那样。
🎯 现在就可以体验: 用「30分钟免费额度」处理你收藏夹里第一个"待学习"视频,
不到10分钟,就能得到一份属于你的结构化笔记。
🔗 立即体验: https://diting.cc
⏰ 免费额度: 新用户注册即送30分钟/月

🤖 由 谛听 Diting.cc AI 驱动 | 专注于B站视频知识提取
修改于 2026-02-20 12:25:06
上一页
15AI Agent认知框架:Thinking & Self-Reflection(思考与自我反思)深度教程
下一页
17构建可干预、可调试的 RAG Agent:LlamaIndex 实战教程(React + 财报分析场景)
Built with