长尾关键词排名系统,seo发布专员招聘,马格南摄影网站,企业年金什么时候可以提取Google《AI Agents》白皮书解析了智能体的四层核心架构#xff1a;模型层、工具层、编排层和记忆层。编排层通过ReAct与CoT框架实现推理循环#xff0c;工具层扩展模型能力#xff0c;记忆层通过上下文工程管理信息流。训练方法包括上下文内学习、检索式学习和微调。该指南为…Google《AI Agents》白皮书解析了智能体的四层核心架构模型层、工具层、编排层和记忆层。编排层通过ReAct与CoT框架实现推理循环工具层扩展模型能力记忆层通过上下文工程管理信息流。训练方法包括上下文内学习、检索式学习和微调。该指南为Agent入门者提供了清晰的技术路径和实践指导。没什么花里胡哨的新名词但把模型、工具、编排、记忆、训练这几件核心事讲得比较完整对于想要了解的Agent的初学者是很不错的选择。Google最近发布了一篇关于Agent长达60页的文件《初创公司技术指南AI Agents》这份报告从宣传来说表达了自己与之前偏理论的文章不一样他还是暴露了不少细节技巧对正在做Agent的各位应该有些帮助。只不过我实际读下来技巧什么的给的很一般但是一份非常不错的Agent入门级学习读物所以也推荐给大家首先Agent的能力基石也就是对工具的调用能力是模型的Function Calling而这个识别工具是否应该被调用的能力是微调训练的结果。比如Agent可以使用数据库工具获取客户订单做个性化推荐、根据用户指令调用邮件 API 发送电子邮件、甚至自动执行金融交易…上述每个功能都需要模型与外部世界工具、数据做交互只要具备自主规划和多步任务执行能力的系统就是Agent。unsetunsetAgent架构概览unsetunset再次寄出这章经典Agent架构图现代 AI Agent 通常由四层核心组件构成一、模型层基础模型如各类大型语言模型负责自然语言理解与生成在生产应用里面往往不会依赖单一模型甚至会有很多小模型微调场景做其中简单任务。二、工具层外部工具和服务包含各种API如数据库、搜索引擎等帮助Agent感知外部世界并执行实际操作。现阶段来说Tools是Agent真正的核心而且Tools调用不准也是Agent架构最大的难点当前我们在生产环境使用Skills技术 强意图也最多把准确率做到90%左右。所以整个Agent的成熟还任重道远。三、编排层Agent的“大脑”负责编写提示词、执行推理框架、维护对话状态和调用工具。该层实现了智能体的计划、推理、决策和反馈循环。这样说大家可能听不懂也就是ReAct架构就是这里的编排层了也是主要代码组成部分负责组织历史对话状态决定什么时候调用模型什么时候调用工具决定什么时候结束推理决定怎么拼提示词他定义“每一轮”里的语言生成结构Thought、Action、Observation... → 推理(Thought) → 行动(Action) → 观察(Observation) → ...  ReAct Reason Act 1. **Reasoning**让LLM思考为什么和如何执行行动 2. **Acting**让LLM执行具体行动并与环境交互 3. **循环反馈**通过观察结果驱动下一步推理 **四、记忆层** 包括短期记忆对话上下文、近期交互和长期记忆知识库、历史数据、个人偏好等。记忆层用于存储和检索与任务相关的信息以支持多轮交互和知识补充  严格来说Agent最恼火的就是记忆层的处理这也是上下文工程的本身他需要解决**数据应该如何与AI交互保证每次AI都能拿到相关数据。**这里展开有三点 1. **每次检索能不能拿到对应的数据** 2. **数据是不是合适**这块的合适包括会不会多、会不会少多了费Token是小事但可能干扰模型、少了就容易出问题 3. **生成对不对**这个建立在检索正确数据组织正确的情况下模型最终输出是不是符合预期 这里是整体的交互架构图  图示而言Agent执行流程可概括为**用户输入 → 编排层处理 → 模型生成思路 → 决策调用工具或输出结果 → 工具执行获得反馈 → 更新记忆并继续循环直至目标完成**。 在 ReAct 框架下Agent重复执行**思考Thought→行动Action→观察Observation**的循环直到产生最终答案。 最后与单纯的模型LLM相比Agent有以下关键区别 1. **知识来源**模型只能依赖于训练数据知识静态而Agent通过工具扩展知识可以实时访问外部信息。 2. **上下文管理**模型单次推理没有会话记忆Agent可以维护交互历史实现多轮连续对话。 3. **推理框架**模型输出结果往往依赖单一提示Agent具备内置的认知架构和推理策略如链式思维、反思框架、树式思维等能够在编排层中循环迭代推理步骤 接下来我们具体展开说下Agent的四个核心组件 unsetunset编排层与认知架构unsetunset ---------------------------- 编排层是智能体系统的核心控制单元负责组织信息流和执行推理循环。它模拟人类在做复杂任务时的认知过程先获取信息、然后制定计划、执行行动、再根据反馈调整计划不断循环直到完成目标。 一个常见的比喻是**“厨师准备复杂菜品”**厨师会根据顾客需求获取食材信息思考烹饪步骤然后实际烹饪过程中可能根据味道反馈不断调整方法。 类似的Agent的编排层会按照设定的推理框架反复迭代驱动模型生成“思考”并做出“行动”决策。 常见的推理框架大同小异这里一定需要了解的是两个东西**ReAct与CoT**除此之外可以延伸到ToT **ReAct**在前面我们做了基础介绍该框架**强调模型在回答前进行连续的内省和行动选择有助于提高答案的准确度和可追溯性** **CoT思维链**引导模型通过生成中间推理步骤来分解问题促使其在最终答案前先列举思考过程这种框架可以**增强模型解决复杂问题时的准确性**幻觉问题。 **ToT思维树**是在 CoT 的基础上允许模型在多个备选思路间做比较适用于需要探索多种方案的策略性任务目的依旧是提升对复杂问题的解决能力。 篇幅有限我们只讨论ReAct和CoT的配合即可其他的都类似 ### ReAct和CoT 首先ReAct与CoT都是推理策略框架也就是Agent四大组件核心的编排层具象化实现他们都描述的是**如何组织模型的推理过程、生成步骤、提示词结构。** 换句话说ReAct是代码的核心是AI工程的核心他会决定如何去与记忆系统、工具系统做配合。 然后ReAct逻辑上与CoT是同级别的但现在更多的是在组合使用显得CoT是ReAct的一个过程产物其实并不是的逻辑上CoT也可以调用工具 只不过现在从流行范式的角度来说ReAct被用作主框架的时间会多一点并且过程中会包含很多CoT的部分这里的结果是**ReAct 是容器CoT 是内容。ReAct 是最“Agent”化的、CoT 是最基础的**。 ReAct 规定了先思考Thought→ 行动Action→ 等待结果Observation→ 再思考... 而这个“Thought”怎么写通常就是一个 Chain of Thought 推理块。 举个简单例子 让 Agent 回答**“某公司员工请假流程”**的问题Agent 需要 1. 读取用户的问题 2. 从知识库中检索文档 3. 分析内容结构 4. 输出清晰步骤 这块的简要流程是 plaintext User: 请问我们公司请假流程是什么Step 1:Thought: 先查找关于“请假流程”的文档。Action: search_docs(请假流程)Observation: 找到文档《员工手册》第4章列出了流程步骤。Step 2:Thought:首先读取这部分内容理解流程的顺序。- 第一步是员工提交请假申请- 第二步是直属上级审批- 第三步是HR备案因此我可以组织一份清晰的回答。Action: NoneFinal Answer: 请假流程如下1提交申请2主管审批3HR备案。这个 “Step 2” 的 Thought 部分就是一个简单的CoT模型在没有行动前分步思考、提取、组织信息这是典型的思维链。为什么这么用也很简单Agent架构中也不可能每一步都调用工具很多时候只是在“组织思维/语言”CoT可以有效降低幻觉率。总而言之ReAct 框架里可以有很多 CoT 内容穿插其中这种组合也是最常见、最稳的做法大家记住这点就行这就是Agent的编排层。再结合Google报告的案例大家应该可以完全理解了plaintextUser: 我想订一张下周从北京到上海的机票。Thought: 我需要查询航班信息并进行比较。Action: 调用【航班搜索】工具Action Input: {“from”: “北京”, “to”: “上海”, “date”: “下周”}Observation: 航班工具返回了多班次航班信息。Thought: 我应该挑选价格和时间合适的航班。Final Answer: 根据查询结果下周从北京到上海的航班有…列出信息。### 状态管理 除基本框架之外编排层还负责维护**交互状态和历史记忆**。 与模型的单轮对话不同Agent需要管理对话历史将先前的对话内容、用户指令和工具反馈纳入状态否则的话多轮对话就会胡言乱语。 例如在咨询类对话中Agent会记住用户之前的问题和上下文不断积累信息这对解决复杂问题和提供连续服务至关重要。 总之编排层就像Agent的“大脑”通过循环的反馈机制和提示工程框架引导模型合理利用已有信息和工具一步步实现目标。 状态管理好坏直接关系到Agent产品的最终表现只不过这里的**状态管理极其困难**如果展开的话万字都拿不下来... unsetunset工具体系unsetunset ------------------------ **工具是模型与外部世界之间的桥梁使得Agent可以访问并处理真实信息** 根据我之前的实践经验**Agent最难的部分是状态管理最烦不稳定的部分是意图识别工作量最大的部分是工具体系...** 常见的工具类型包括 扩展Extensions、函数调用Functions 和 数据存储Data Stores 等它们各自承担不同职责共同构建了智能体与外部环境交互的能力。下面分别介绍这几种工具类型: ### 扩展 所谓扩展也就是**提前配置好的一批可调用 API 模块 模型能看懂的调用说明**其底层基础是模型的Function Calling目的是让模型不需要知道很多 API 的细节只需要给关键词 plaintext Action: 航班查询 Action Input: {from: 北京, to: 上海, date: 2025-12-10}这里再给一个配置信息{ name: search_flights,description: 查询指定日期的航班信息,params: { from: 出发城市, to: 目的城市, date: 出发日期YYYY-MM-DD },example_calls: [ { user_input: 我想查明天从北京飞上海的航班, action: search_flights, action_input: { from: 北京, to: 上海, date: 2025-12-10 } } ]}函数调用函数调用与扩展类似都是Function Calling也是提供给模型调用外部功能的接口但它更侧重于客户端应用端执行而不是在智能体服务器端与扩展对比的主要差别在于扩展在智能体端执行调用外部服务而函数在客户端执行。这意味着即使模型选择了某个函数实际的 API 调用可能会在另一个服务层面完成。这里大家读起来可能有点绕因为扩展和函数相似度很高我们这里做下举例说明扩展属于系统自己干你说“帮我查天气”它自己调接口、自己拿数据、自己干模型我需要查下天气Agent系统好的我有手我来调 API weather.com 获取数据函数是模型自己不做事它只是告诉你“你去做”模型我建议调用函数 playVideo({videoId: 123})应用前端收到我来执行这个函数比如调播放器这种差异的原因是安全性、离线、异步等原因中断式调用用函数非中断式用扩展# 扩展案例Action: query_weatherAction Input: {city: 北京, date: 2025-12-10}# Agent系统逻辑自动执行def agent_runtime(): if action query_weather: result requests.get(fhttps://api.weather.com?city{city}date{date}) send_back_to_model(result)# 函数案例中断式Function Call: open_cameraArgs: {resolution: 1080p}# 客户端 / 浏览器执行你来写def on_function_call(fn_name, args): if fn_name open_camera: open_webcam(args[resolution])数据存储数据存储为Agent提供了“长期记忆”和知识库的功能特别适用于需要查询大量结构化或非结构化信息的场景。核心思想是将外部文档或数据库转换成向量索引让模型通过检索来获取最新内容从而扩展其知识边界。常见做法是构建向量库或知识库将文档、网页、表格等预处理为高维嵌入存储例如对于公司内部知识库问答智能体会先将用户问题转换为向量并检索预索引的内部文档得到的相关文档段落作为补充信息提供给模型。这样生成的回答就基于最新的业务手册或法规文本而不是仅凭模型训练时有限的数据。如图示例所示用户查询“公司在北美的最新业务规模如何”智能体先检索财经报告和市场数据然后在 ReAct 循环中利用这些检索结果进行综合推理和回答其实从这部分内容质量来说Google的报告写得挺一般的作为科普读物挺不错的…unsetunset记忆系统unsetunset在Agent系统中记忆层不仅负责保存上下文、支撑多轮对话它更深层的职责是回答这样一个问题数据如何与AI交互才能让大模型“真正理解任务”这一问题的回答近来常被包装为一个新术语上下文工程Context Engineering。但从本质看它仍是对“如何构造有效Prompt”的深化和结构化设计是提示词工程在复杂任务落地场景下的自然演进。上下文工程通常我们将 Agent 的记忆系统划分为两个层次一、短期记忆Short-Term Memory指当前会话的上下文历史包括用户输入、模型回复、中间推理痕迹多保存在编排层的对话状态中用作 Prompt 上下文构建。二、长期记忆Long-Term Memory指跨会话的知识存储如用户偏好、历史数据、组织内部资料、文档库等通常通过向量检索RAG等方式动态取用实现在运行时“补全知识”。但真实场景中记忆系统远不止“存取”这么简单它的核心目标是为大模型提供“恰到好处”的信息既不过多打扰模型也不遗漏关键信息这引出了“上下文工程”的实操三难点**拿得到吗**检索逻辑是否合理是否漏掉关键信息**拿得准吗**内容是否相关是否过多干扰模型或严重缺漏**用得对吗**最终组织进 Prompt 的方式是否有效激发模型输出从工程角度讲上下文就像 Prompt 的RAM容量有限但直接决定模型运行表现。设计合理的上下文组织策略是Agent系统最重要的竞争力之一。根据之前的经验可以把上下文工程操作模式分为四类手法核心思路类比常见场景1. 记录式Write让 AI 随时把重要细节写进“随身笔记”人类做会议速记ChatGPT 存用户常点外卖、偏好等2. 甄选式Select从资料中挑出最 relevant 的再喂给模型图书管理员找指定章节Code Agent 检索函数文件、知识点3. 精简式Compress当信息爆棚用摘要、提炼、去冗余手段减轻模型负担给论文写摘要Claude 快满窗口时自动压缩历史对话4. 分隔式Isolate将复杂任务拆分给多个“助手”各自记忆不同上下文项目经理分派子任务Swarm Agent 中多个子模型分工协作这些方法的组合构成了真正能用、能落地的上下文工程其实大家也可以看出来了尽管上下文工程、Agent的记忆系统听起来很屌其本质还是复杂的提示词工程…最后回归到Agent ReAct 框架我们再看看四大组件的关系ReAct 框架中的记忆层角色在ReAct框架中每一个 Thought 的质量严重依赖于CoT而CoT又严重依赖于记忆系统提供的信息是否充足、是否准确、是否干扰最小。在执行过程中记忆系统负责为 Thought 构建上下文输入即 Prompt 中的 Memory 区块。一个典型的 ReAct 调用链如下User: 我需要找一张明天下午从北京去上海的高铁票-----------------Thought: 我需要查询高铁票信息Action: 查询高铁 API输入城市和时间Observation: 返回多个班次和时间段Thought: 我挑选一个下午出发、价格合适的车次Action: NoneFinal Answer: 为您找到两张明天下午从北京到上海的高铁票...输出结果在这个过程中若之前用户已经表达过偏好如“只要一等座”、“不坐动车”等长期记忆需要提供这些偏好信息若用户此前提过“和昨天流程一样”短期记忆要准确提取那次会话内容若调用查询工具返回大量内容记忆系统需判断提取哪些 Observation 塞入下一步 Prompt从这里大家也可以看出ReAct的重要性和复杂度了他是推动推理循环向前的基础。另一方面为什么说上下文工程是整套 Agent 架构最容易忽视、但最容易出问题的部分因为它一旦做不好模型生成的 Thought 将会是空转、偏离、或者幻觉的。总而言之这块是事实上的难点大家好好体悟吧。unsetunset强化与训练unsetunset模型发展了三年经历了三个时代百模大战模型训练 → 套壳为荣提示词工程 → CoT也就是当前业内普遍对于模型训练是十分排斥的这意味着技术负责人说出要训练这笔预算可能会有很大的压力…只不过虽然基础模型已经具备强大的能力但要让模型在特定Agent架构中发挥最佳效果往往需要针对性地学习使用新工具和新知识。白皮书总结了三种主要方法一、上下文内学习In-context Learning在推理时为模型提供任务相关的提示、工具说明和少量示例让模型“在线”学习如何使用工具。例如通过几个示例对话展示在类似场景下使用哪种工具、怎样调用可提升模型的工具调用准确率。ReAct 本身就是一种典型的上下文示例驱动的提示框架。二、检索式上下文学习Retrieval-based In-context Learning自动检索和选择最相关的知识片段、示例或工具说明作为提示的一部分从外部记忆库如“示例存储”或知识库中动态构造提示。这类似于给模型“提供一本动的菜谱”让它根据查询从知识库检索示例来指导决策。三、微调训练Fine-tuning最后就是微调了使用大量特定任务的示例数据对模型进行微调可以更好的提高效果。比如为客服智能体微调模型让它学会优先调用知识库工具而不是直接“胡乱回答”。这里是一些训练数据案例大家感受下就好{ context: 【内部文档摘录】本公司标准退货政策为自收货之日起 7 日内可无理由退货超过 7 日不予受理。,question: 你们退货政策是怎样的,answer: 根据我们的标准退货政策自收货之日起 7 日内您可以无理由退货超过 7 日则无法办理退货。}{goal: 帮用户规划一个 3 天的东京自由行预算适中喜欢美食和动漫文化。,tools: [search_flights, search_hotels, search_attractions],plan: { steps: [ { step_id: 1, description: 确定出发和返回日期并查询往返机票选项, tool: search_flights, inputs: [出发城市, 东京, 出发日期, 返回日期] }, { step_id: 2, description: 根据预算和地理位置搜索酒店优先新宿、涩谷附近, tool: search_hotels, inputs: [东京, 3 晚, 预算范围] }, { step_id: 3, description: 根据用户兴趣筛选景点动漫文化、美食街并按天分配, tool: search_attractions, inputs: [东京, 动漫, 美食] } ] }}{messages: [ {role: system, content: 你是一个任务规划助手收到用户目标后只输出 JSON 格式的任务拆解计划。}, {role: user, content: 帮我规划一个 3 天的东京自由行预算适中我喜欢美食和动漫。}, { role: assistant, content: {\steps\: [\ {\step_id\: 1, \description\: \确认出发/返回日期并查询机票\, \tool\: \search_flights\},\ {\step_id\: 2, \description\: \根据预算和位置选择酒店\, \tool\: \search_hotels\},\ {\step_id\: 3, \description\: \为 3 天分别安排景点和美食\, \tool\: \search_attractions\}\ ]} }]}在生产环境上这三个往往会混用。unsetunset结语unsetunset白皮书后面还会涉及多Agent架构、高并发架构设计、安全等模块稍微有些泛泛而谈而我们今天定位如果是入门级内容的话就不去涉及了。最后还是总结一下这份Agent白皮书全面梳理了 AI Agent智能体技术架构的核心要素他本身包含一部分实践技巧但有点卖自己云服务的嫌疑我们这里就不涉及了。总之希望本文对大家有用吧作为入门级科普内容我觉得他还是合格的。只是可惜又浪费我5个小时…如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】