本文转自:Coggle数据科学
AI 智能体领域发展迅猛,但许多资源仍然过于抽象和理论化。创建此项目的目的是为开发者、研究人员和AI爱好者提供一条结构化、实用且深入的学习路径,以掌握构建智能系统的艺术。
https://github.com/FareedKhan-dev/all-agentic-architectures
从理论到实际代码:每种架构不仅有解释,而且都在可运行的Jupyter Notebook 中进行了端到端的实现。
结构化学习路径:Notebooks 的顺序经过精心编排,循序渐进地构建概念,从基础模式到高度先进、多智能体和自我意识系统。
真实世界场景:示例都基于实际应用——金融分析、编程、社交媒体管理、医疗分诊等,使概念立即可用。
第 1 部分:基础模式 (Notebooks 1-4)
涵盖增强单个智能体的基本构建块:Reflection(反思)、Tool Use(工具使用)、ReAct(推理/行动循环)和 Planning(规划)。
第 2 部分:多智能体协作 (Notebooks 5, 7, 11, 13)
探索智能体如何协同工作:Multi-Agent Systems(多智能体团队)、Meta-Controller(智能路由器)、Blackboard Systems(共享内存协作)和 Ensemble(并行多样化分析)。
第 3 部分:高级记忆与推理 (Notebooks 8, 9, 12)
专注于智能体如何进行更深入的思考和记忆:Episodic + Semantic Memory(双重记忆系统)、Graph World-Model(图结构化知识推理)和 Tree of Thoughts(系统化多路径探索)。
第 4 部分:安全性、可靠性和真实世界交互 (Notebooks 6, 10, 14, 17)
构建可在生产环境中信任的智能体:Dry-Run Harness(安全模拟/人工审批)、Simulator(行动前模拟)、PEV(规划、执行、验证的错误恢复)和 Metacognitive(理解自身局限性)。
第 5 部分:学习与适应 (Notebooks 15, 16)
探索智能体如何随时间改进和以新颖方式解决问题:Self-Improvement Loop(自我改进/类RLHF学习)和 Cellular Automata(元胞自动机,简单规则产生复杂全局行为)。
智能体架构 1:反思 (Reflection)
反思模式将大型语言模型(LLM)从一个简单的、单次通过的生成器提升为一个更审慎、更可靠的推理器。它模仿了人类 “起草、审阅、编辑” 的过程,让智能体在返回最终答案之前,先退一步批评、分析和完善自己的工作。

定义:反思架构涉及智能体在返回最终答案之前,批评和修订 自己的输出。它从单次生成转变为一个多步骤的内部独白:生产(Produce)、评估(Evaluate)和改进(Improve)。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 代码生成:充当代码审阅者,修正 Bug 和提高效率。 |
优势 (Strengths) | 质量提升:直接解决和纠正错误,输出更准确、可靠。 |
劣势 (Weaknesses) | 自我局限:智能体仍受限于自身知识和偏见,无法凭空创造它所缺乏的知识。 |
工具使用架构是连接大型语言模型(LLM)推理能力与真实、动态世界的 桥梁。它赋予智能体查询 API、搜索数据库和访问实时信息的能力,从而克服了 LLM 知识的静态局限性。

定义:工具使用 架构为 LLM 驱动的智能体配备了调用外部函数或 API(即 “工具”)的能力。智能体能够自主判断用户查询是否需要外部信息,并决定调用哪个工具来获取所需数据。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 研究助理:使用网络搜索 API 回答需要最新信息的查询。 |
优势 (Strengths) | 事实依据 (Factual Grounding):通过获取实时数据,显著减少幻觉 (Hallucinations)。 |
劣势 (Weaknesses) | 集成开销 (Integration Overhead):需要仔细定义工具、管理 API 密钥和处理潜在的工具调用失败。 |
ReAct (Reason + Act,即“推理 + 行动”) 是一种关键的智能体架构,它弥合了简单的工具使用和复杂的、多步骤问题解决之间的差距。它的核心创新在于允许智能体 动态地交错推理和行动,从而成为一个自适应的问题解决者。
定义:ReAct 架构是一种设计模式,智能体在其中 交替进行推理步骤和行动。智能体不是预先规划所有步骤,而是生成关于其下一步行动的内部思考,然后执行一个行动(如调用工具),观察 结果,并利用新信息生成下一个思考和行动。这创建了一个动态和自适应的循环。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 多跳问答 (Multi-hop Q&A):回答需要按顺序查找多个信息的查询(例如:“制造 iPhone 的公司现任 CEO 是谁?”)。 |
优势 (Strengths) | 自适应和动态:可以根据新信息即时调整其计划。 |
劣势 (Weaknesses) | 更高的延迟与成本:涉及多个顺序的 LLM 调用,比单次通过方法更慢、更昂贵。 |
规划 (Planning) 架构在智能体的推理过程中引入了至关重要的 **预见性 (foresight)**。与 ReAct 模式(步步为营、即时反应)不同,规划智能体在采取任何行动 之前,会先将一个复杂的任务分解成一系列更小、可管理的子目标,制定一个完整的“作战计划”。

定义:规划 架构涉及智能体在开始执行 之前,将复杂的总目标明确分解为一个详细的、按顺序排列的子任务列表。初始规划阶段的输出是一个具体的、循序渐进的计划,智能体随后将有条不紊地遵循该计划来解决问题。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 多步骤工作流:适用于操作顺序已知且关键的任务,如生成报告(获取数据 处理 总结)。 |
优势 (Strengths) | 结构化和可追溯:整个工作流程预先设定,过程透明,易于调试。 |
劣势 (Weaknesses) | 对变化脆弱 (Brittle to Change):如果环境在执行过程中发生意外变化,预先制定的计划可能会失败。它不如 ReAct 智能体那样具有自适应性。 |
多智能体系统 (Multi-Agent System, MAS) 是最强大和灵活的架构之一。它超越了单个智能体的概念,转而模拟一个由 专业化智能体 组成的团队,通过 协作 来解决问题。每个智能体都有独特的角色、个性和技能集,模仿了人类专家团队的工作方式。
定义:多智能体系统 是一种架构,其中一组截然不同、高度专业的智能体通过协作(有时是竞争)来实现一个共同目标。系统使用一个中央控制器或定义的工作流协议来管理智能体之间的通信和任务路由。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 复杂报告生成:创建需要多个领域专业知识的详细报告(例如:财务分析、市场研究)。 |
优势 (Strengths) | 专业化和深度:每个智能体都可以针对特定领域进行微调,从而在其领域内产出更高质量的工作。 |
劣势 (Weaknesses) | 协调开销:管理智能体之间的通信和工作流程,增加了系统设计的复杂性。 |
规划器 执行器 验证器 (Planner Executor Verifier, PEV) 架构引入了智能体系统中至关重要的 鲁棒性 (robustness) 和 自我修正 (self-correction) 层。它借鉴了严格的软件工程和质量保证流程,即工作只有在经过验证后才算“完成”。
定义:Planner Executor Verifier (PEV) 架构是一种三阶段工作流,它明确分离了 规划、执行和验证 的行为。它确保在智能体继续下一步之前,对每一步的输出进行验证,从而创建了一个鲁棒的、自我修正的循环。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 安全关键应用:(金融、医疗)错误成本很高时,PEV 提供必要的保障措施,防止智能体基于错误数据行动。 |
优势 (Strengths) | 鲁棒性与可靠性:核心优势是检测和从错误中恢复的能力。 |
劣势 (Weaknesses) | 更高的延迟与成本:在每次行动后增加验证步骤,涉及更多的 LLM 调用,使其成为目前最慢、最昂贵的架构。 |
黑板系统 (Blackboard System) 是一种强大且高度灵活的多智能体协作模式。它借鉴了人类专家团队围绕一块实体黑板共同解决复杂问题的理念。
与僵硬、预定义的智能体传递序列不同,黑板系统具有一个中央的、共享数据存储库(即“黑板”)。智能体可以在黑板上读取问题的当前状态,并写下它们的贡献。一个 动态控制器 持续观察黑板,并根据解决问题所需的内容,决定下一步激活哪个专业智能体。这实现了一种 机会主义 (opportunistic) 和 自发涌现 (emergent) 的工作流程。
定义:黑板系统 是一种多智能体架构,其中多个专业智能体通过读取和写入一个名为 “黑板” 的共享中央数据存储库进行协作。一个 控制器或调度器 根据黑板上不断演变的解决方案状态,动态地决定下一个应该采取行动的智能体。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 复杂的、结构不良的问题:解决方案路径事先未知,需要一种自发涌现、机会主义策略的问题(例如:复杂诊断、科学发现)。 |
优势 (Strengths) | 灵活性和适应性:工作流程不是硬编码的,而是根据问题自发产生的,系统具有高度适应性。 |
劣势 (Weaknesses) | 控制器复杂性:整个系统的智能程度严重依赖于控制器的复杂性。一个简单的控制器可能导致低效或循环行为。 |
标准的聊天机器人记忆是短暂的,只持续一个会话。为了构建一个能够随着用户学习和成长的个性化智能体,我们需要一种更强大的解决方案。该架构通过结合两种不同的记忆类型,模拟了人类的认知,实现了结构化的记忆体系:
记忆类型 | 定义 | 存储方式 | 作用 |
|---|---|---|---|
情景记忆 (Episodic Memory) | 记录特定事件或过去交互的记忆。回答 “发生了什么?”(例如:“上周,用户问我关于英伟达股价的问题。”) | 向量数据库 | 用于基于语义相似性检索相关的历史对话。 |
语义记忆 (Semantic Memory) | 从这些事件中提取的结构化事实、概念和关系。回答 “我知道什么?”(例如:“用户 Alex 是保守型投资者。”) | 图数据库 (Neo4j) | 擅长管理和查询实体间的复杂关系。 |
通过结合这两种记忆,智能体不仅能回忆起过去的对话,还能建立一个丰富、相互关联的知识库,从而实现深度个性化和上下文感知的交互。
该架构引入了一个完整的循环,涵盖了记忆的检索(Recall)和创建(Encoding):
方面 | 描述 |
|---|---|
何时使用 | 长期个人助理:助理能记住用户数周或数月内的偏好、项目和个人细节。 |
优势 (Strengths) | 真正的个性化:实现了超越单个会话上下文窗口的持久化学习和上下文。 |
劣势 (Weaknesses) | 复杂性:这是一个比简单无状态智能体复杂得多的架构,难以构建和维护。 |
ToT 智能体不是生成单一的、顺序的推理线,而是在问题的每个阶段生成多个候选的 “思维” 或下一步。然后,它评估这些思维,修剪 (pruning) 无效或前景不佳的分支,并 扩展 (expanding) 最有希望的分支。这创建了一个搜索树,智能体可以在其中回溯、探索替代方案,并系统地导航复杂的问题空间。

定义:思维树 (Tree-of-Thoughts, ToT) 是一种智能体推理框架,其中问题解决被建模为在树中进行的搜索。智能体同时探索多个推理路径(分支)。在每一步,它生成潜在的下一步(“思维”),评估其可行性,并决定继续探索哪些路径,从而有效地修剪搜索空间。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 逻辑谜题与数学问题:具有明确规则和目标状态,需要多步骤、非线性推理的问题(例如:数独、过河谜题)。 |
优势 (Strengths) | 鲁棒性 (Robustness):系统地探索问题空间,与单次推理方法相比,不太可能陷入困境或产生错误答案。 |
劣势 (Weaknesses) | 计算成本高:需要比简单的思维链提示多得多的 LLM 调用和状态管理,使其更慢、更昂贵。 |
智能体被构建为一个 LangGraph 图,其核心逻辑是一个循环:
核心思想是让智能体以非常具体的方式 “三思而后行”。智能体不会立即在现实世界中执行提议的行动,而是首先在环境的内部模拟版本中测试该行动。通过观察这个安全沙盒中可能产生的后果,智能体可以评估风险、完善策略,然后才在现实中执行一个更经过深思熟虑的行动。

定义:模拟器 或 心智模型在环 架构涉及一个智能体,它利用其环境的内部模型来 模拟 潜在行动的结果,然后再执行这些行动。这使智能体能够进行 **假设分析 (what-if analysis)**、预测后果,并优化其计划以确保安全性和有效性。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 机器人技术:在移动物理手臂之前模拟抓取或路径,以避免碰撞或损坏。 |
优势 (Strengths) | 安全与风险降低:通过首先在安全环境中审查行动,极大地减少了有害或代价高昂错误的发生几率。 |
劣势 (Weaknesses) | 模拟-现实差距 (Simulation-Reality Gap):有效性完全取决于模拟器的逼真度。如果世界模型不准确,智能体的计划可能基于错误的假设。 |
基于图的智能体不将信息存储为孤立的文本块,而是将传入数据解析为实体(节点)和关系(边),从而创建一个丰富、可查询的知识图谱。智能体随后可以通过遍历该图谱来回答复杂问题,发现隐藏在非结构化文本中的洞察。

定义:图 / 世界模型记忆 是一种智能体架构,其中知识存储在结构化的图数据库中。信息被表示为节点(实体,如人、地点、概念)和边(它们之间的关系)。这创建了一个动态的“世界模型”,智能体可以基于此进行推理。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 企业知识助手:从内部文档中构建公司项目、员工和客户的可查询模型。 |
优势 (Strengths) | 结构化与可解释:知识高度组织化。可以通过显示图谱中导致答案的确切路径来解释答案。 |
劣势 (Weaknesses) | 前期复杂性:需要定义良好的模式和一个鲁棒的提取过程。 |
使用具有结构化输出(Pydantic)的 LLM 作为知识提取器。它读取文本,并以 Node 和 Relationship 的形式提取实体和关系(关系类型被大写,如 ACQUIRED)。
智能体处理了三份相互关联但独立的文件,逐步构建知识图谱:
通过对 AI 智能体应用“群体的智慧”原则,解决了单个 LLM 固有的不确定性和潜在偏差问题。不依赖于单一的推理线,而是同时衍生出多个独立的智能体,从不同的视角分析问题。每个智能体遵循自己的推理路径,如同专家委员会中的不同专家。然后,一个最终的“聚合器”智能体收集并合成它们的个人结论,权衡不同的观点,找出共识和冲突,从而产生一个更细致、更可靠的最终答案。
定义:并行探索 + 集成决策 是一种智能体架构,其中一个问题由多个独立的智能体或推理路径同时处理。然后,通过一个单独的智能体(通常是聚合器),采用投票、建立共识或合成等方法,将所有单独的输出进行集成,从而得出最终、更健壮的结论。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 困难推理问答:对于单一推理线容易遗漏细节的复杂、模糊问题。 |
优势 (Strengths) | 提升可靠性和准确性:平均化单个智能体的随机错误或偏见,使最终答案更有可能正确且全面。 |
劣势 (Weaknesses) | 成本极高:这是计算成本最高的架构之一,因为它将 LLM 调用的数量乘以集成中的智能体数量(再加上最终的聚合调用)。 |
在没有确切知道智能体将要做什么之前,绝不在实时环境中运行其行动。 此架构将“三思而后行 (look before you leap)”的过程正式化。智能体首先在 演习模式(dry_run) 下执行其计划,该模式不会改变真实世界,但会生成详细的日志和清晰的行动计划。然后,此计划会被提交给人类(或自动检查器)批准,之后才允许最终的实时执行。
定义:可观测性与演习线束 是一种测试和部署架构,它会拦截智能体的行动。它首先在“演习”或“沙盒”模式下执行这些行动,模拟 行动而不会造成真实世界的影响。由此产生的计划和日志会被呈现供审阅,只有在明确批准后,行动才会在实时环境中执行。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 生产验证与安全:任何可以修改状态、花费金钱、发送通信或执行任何其他不可逆行动的智能体的永久生产功能。 |
优势 (Strengths) | 最大透明度和安全性:提供智能体行动的清晰、可审计的预览,防止代价高昂或令人尴尬的错误。 |
劣势 (Weaknesses) | 延迟部署/执行:强制性的审阅步骤(尤其是涉及人类时)会引入延迟,使其不适合实时应用程序。 |
**自我改进循环 (Self-Improvement Loop)迭代地完善其输出,从而达到更高的质量标准。它是让智能体随着时间从良好的基线水平提升到专家级表现的机制。
这个过程模仿了人类“做 获得反馈 改进”的学习周期。Notebook 通过一个 自优化 (Self-Refine) 工作流来实现这一点:智能体的输出立即由一个批评子智能体进行评估,如果发现不足,则要求原始智能体根据可操作的反馈修改其工作。
定义:自我改进循环 是一种智能体架构,其中智能体的输出由其自身或另一个智能体进行评估,并将此评估用作反馈,以生成一个经过修订的、更高质量的输出。当这种反馈被存储并用于随着时间推移改善智能体的基线性能时,它就成为一种持续学习的形式。
高层工作流(自优化):
方面 | 描述 |
|---|---|
何时使用 | 高质量内容生成:对通用初稿不足以胜任的任务,例如撰写法律文件、详细技术报告或有说服力的营销文案。 |
优势 (Strengths) | 显著提高输出质量:迭代优化始终比单次生成产生更好的结果。 |
劣势 (Weaknesses) | 强化偏差的风险:如果批评智能体具有有缺陷的逻辑或偏差,系统可能会陷入一个强化自身错误的循环。 |
在这个模型中,环境本身就变成了智能体。网格中的每个单元格都是一个微型智能体,拥有自己的状态和一套简单的规则,用于根据其紧邻的邻居来更新状态。没有中央控制器或复杂的寻路算法。相反,智能的、全局的行为是简单局部规则重复、同步应用后涌现 (emerges) 出来的。系统变成了一个“计算结构”,通过信息的波状传播来解决问题。
定义:基于网格的智能体系统 是一种架构,其中大量简单的智能体(或“单元格”)排列在一个空间网格中。每个智能体都有一个状态,并根据仅考虑其紧邻邻居状态的规则集同步更新其状态。复杂、高层次的模式和问题解决能力从这些局部交互中涌现出来。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 空间推理与物流:动态环境中(如仓库示例)的最佳寻路。 |
优势 (Strengths) | 高并行性:逻辑本质上是并行的,在合适的硬件上速度极快。 |
劣势 (Weaknesses) | 设计复杂性:设计局部规则以产生所需的全局行为可能具有挑战性且不直观。 |
元认知智能体超越了简单的自我反思。它维护着一个明确的“自我模型 (Self-Model)”——对其自身知识、工具和边界的结构化表示。当面对一项任务时,它的第一步不是解决问题,而是根据其自我模型来分析问题。它会问内部问题,例如:
根据这些答案,它会选择一种策略:直接推理、使用专业工具,或者——最重要的是——当任务超出其已知限制时上报给人类。
定义:反思性元认知智能体 是一种智能体,它维护并使用关于其自身能力、知识边界和信心水平的明确模型,来为给定任务选择最合适的策略。这种自我建模使其行为更安全、更可靠,尤其是在错误信息可能有害的领域。
高层工作流:
方面 | 描述 |
|---|---|
何时使用 | 高风险咨询系统:任何在医疗保健、法律或金融等领域提供信息的系统,智能体必须能够说“我不知道”或“您应该咨询专业人士”。 |
优势 (Strengths) | 增强安全性和可靠性:智能体被明确设计为避免在其非专业领域做出自信的断言。 |
劣势 (Weaknesses) | 自我模型的复杂性:定义和维护准确的自我模型可能很复杂。 |
全部0条评论
快来发表一下你的评论吧 !