Manus技术架构、实现内幕及分布式智能体项目实战 线上高级实训班
Manus技术架构、实现内幕及分布式智能体项目实战 线上高级实训班
模块一:解密Manus分布式多智能体工作原理和架构内幕
基于Claude和Qwen的大模型智能体Manus为何能够迅速成为全球讨论热度最高、使用体验最好、产业界最火爆的大模型智能体产品?
Manus中为何选择在云端virtual compute environment异步asynchronous执行任务?
Manus背后的MCP为何是Stateful分布式智能体架构的最佳开源实现?
Manus中的multi-agent架构下的专门化的specialized sub-agents设计和实现解析
Manus中的29个工具Tools分析
遵循产品设计minimalist的Manus产品实现背后的多模型驱动机制详解
Computer use for automating operations原理详解
Manus’s Computer窗口实现机制详解
Manus任务执行状态和进度管理技术及实现解析
Manus中的Notification机制详解
Multi-Agent分布式智能体系统工作流程全生命周期详解
Manus的九大核心模块功能剖析
为何Manus需要多个不同大模型来驱动?
Manus具体依赖哪些大模型?背后的根源是什么?
为何Manus必须使用大模型post-training技术?
Manus如何减少大模型幻觉Hallucination?
Manus全生命周期流程十二大阶段详解
Manus为何必须使用Claude系统技术?
Manus为何使用Alibaba开源的Qwen?
解密Manus对虚拟机的目录管理最佳实践
Manus的动态质量检测及执行优化技术详解
Manus分布式智能体架构对失败处理的方式详解
综合案例:OpenManus源码实现详解及为何OpenManus效果和Manus相差犹如天壤之别
模块二:大模型Agent Computer Use能力的技术内核详解与源码实现 Claude 3.7大模型操作Docker虚拟机演示及分析
大模型Computer Use操作电脑原理详解
大模型直接进行Computer Use面临的三大核心问题剖析
为何说精确的进行“ Training Claude to count pixels”是关键?
Claude是Computer Use API详解
大模型多模态与computer use screenshot下what/how/when
Claude在模型技术层面是如何实现从 instructions到command转换的?
Claude是如何在进行Computer Use时自动进行self-correct and retry tasks的?
Computer Controlling Agent为何需要Docker等controlled environment?
Agent行动空间: Screenshot, Drag, Click, Move, Type, Key等详解
Claude Computer Use源码SYSTEM_PROMPT详解
Claude Computer Use源码Agentic sampling loop逐行解读
Claude Computer Use源码screenshots详解
Claude Computer Use源码cache breakpoints详解
Claude Computer Use源码screenshots详解
模块三:解密Manus智能体操作电脑和网页技术内幕及源码实现 Manus智能体Computer Use中定义的16种Action详解
Manus智能体Computer Use中Tool全生命周期流程解析及源码实现
解密Manus智能体Computer Use中通过BaseComputerTool来定义Agent和screen, keyboard, and mouse之间的交互行为及源码实现详解
Manus智能体 Computer Use中的filesystem editor tool源码实现详解
Manus智能体 Computer Use中运行shell commands源码实现详解
Manus智能体 Computer Use中Bash Tool及Session管理源码实现详解
Manus智能体中Browser Use中browser factory原理及源码实现详解
Manus智能体中Browser Use中DOM Management源码实现详解
Manus智能体中Browser Use中BrowserContext源码实现详解
Manus智能体中Browser Use中UI元素交互类别及源码实现详解
Manus智能体中Browser Use中Controller导航和搜索功能源码实现详解
Manus智能体中Browser Use中Text处理源码实现详解
Manus智能体中Browser Use中Prompt类别及源码实现详解
Manus智能体中Browser Use中 Response Rules剖析
Manus智能体中Browser Use中Text处理源码实现详解
Manus智能体中Browser Use中Message管理源码实现详解
Manus智能体中Browser Use中Task管理源码实现详解
Manus智能体中Browser Use中Action管理源码实现详解
Manus智能体中Browser Use中Trajectory管理源码实现详解
模块四:Manus智能体工程实现的秘密武器: Model Context Protocol (MCP)协议详解与实战
为何说MCP是Agent AI在架构和通信方面最大的开源突破?
基于 client-server的MCP五大核心元素及架构详解
为何业界最火爆的Agentic产品例如Cursor采用MCP驱动?
为何说Claude开源的 Model Context Protocol是Manus的秘密武器?
MCP Hosts核心组件及运行机制
MCP Clients核心组件及运行机制
MCP Servers核心组件及运行机制详解
MCP SSE的重大价值及实现源码分析
案例:动手实战 MCP Server
案例:动手实战MCP Client
经典MCP Server分析
案例:MCP Debugging全生命周期流程实战
案例:MCP Inspector全生命周期流程实战
综合案例:MCP协议逐行解析
模块五:Manus智能体MCP Server内核及通信协议源码实现 MCPServer运行机制及源码逐行解读
MCP Server的 asynchronous运行机制及源码实现
MCP Server的ServerSession运行机制及源码实现
MCP Server的LifespanContextT运行机制及源码实现
MCP Server的Context运行机制及源码实现
MCP Server的PromptManager运行机制及源码实现
MCP Server的ResourceManager运行机制及源码实现
MCP Server的ToolManager运行机制及源码实现
MCP Server的Subscription运行机制及源码实现
MCP Server的Notification运行机制及源码实现
MCP Server的progress_notification运行机制及源码实现
MCP Server下的SSE架构及源码实现
MCP Server的MemoryObjectReceiveStream运行机制及源码实现
MCP Server的MemoryObjectSendStream运行机制及源码实现
MCP Server的 Server-Sent Events (SSE) transport运行机制及源码实现
MCP Server的Stdio Server Transport运行机制及源码实现
MCP Server的Web Socket运行机制及源码实现
综合案例:MCP Server Python实现整个模块源码逐行解读及可改进点分析
模块六:Manus智能体技术 MCP 实现Stateful大模型智能体状态管理及源码详解 MCP Server如何支持任意复杂度的State Management?
MCP Client如何支持任意复杂度的State Management?
MCP Lifecycle中的状态管理对Agent智能体的重大意义剖析
MCP Completion中的Message Flow详解
MCP中的Ping、Cancellation、Progress详解
MCP HTTP with SSE的状态管理详解
MCP Messages中的Requests状态管理详解及源码实现
MCP Messages中的Responses状态管理详解及源码实现
MCP Messages中的Notifications状态管理详解及源码实现
MCP Progress Flow全生命周期流程分析
MCP Transports定制详解
MCP Roots的重大意义及工程实现详解
MCP Sampling及Message Flow详解
MCP下的 namespacing剖析
MCP下的 topology awareness详解
模块七:大模型企业级Agentic-based应用技术的十大核心技术解析 大模型Agent智能体基础性技术Function Calling详解与实现
基于Function Calling的Tool Calling技术详解与实现
ReAct技术详解、源码实现及其在LangGraph中的实现
大模型Agent智能体基于Session的Memory管理技术详解
大模型Agent智能体基于User的Memory管理技术详解
大模型Agent智能体 self-editing memory技术介绍
大模型Agent智能体实现Unified/Unlimited状态管理技术详解
大模型Agent智能体并行技术、数据管理技术详解
分布式大模型Agent智能体Multi-Agent框架原理与技术介绍
大模型Agent智能体Human-in-the-Loop原理与技术介绍
综合项目: DeepResearch Canvas 是一个多步信息查询助手,通过检索增强生成和并行子查询技术,系统化获取信息,适用于学术研究、企业知识管理和复杂查询任务,显著提升研究效率。
模块八:Agent AI底层技术LLM大模型微调SFT及模型Function Calling内幕解密
Continual Pretraining及Supervised Fine-tuning生产落地环境的决策标准是什么?
Instruction-finetuning及Classification-finetuning
微调Selected Layers解析及Last Layers在语义(nuanced linguistic pattern)和模式识别(task-specific feature)内幕及代码解析
如何解决GPT-like模型Classification-finetuning的Loss不可导问题?
调整模型结构以适配Classification-finetuning原理、流程和代码实现
Instruction fine-tuning技术解密及Llama 3.1/3.2 微调实战
How to mask out instruction tokens in finetuning?
详解Stanford Alpaca: An Instruction-following LLaMA Model
详解基于ShareGPT真实人类对话数据集的Vicuna
Instruction的三大最佳实践及Instruction Template详解
面向单任务和多任务的微调技术及案例实战
对Finetuned Responses评估三种方式解析及自动化实践
综合项目:大模型微调实现Function/Tools Calling功能案例
模块九:工业级分布式Agent智能体框架状态管理State和Memeory详解 State Management 技术详解:短期、中期、长期状态的区分与实现。
Memory Schema 的持久化设计:用户档案与任务记忆管理。
LangGraph Store 的记忆存储优化:高效的数据存取策略。
多模态数据的状态集成:从结构化数据到非结构化数据。
Self-editing Memory 实现:记忆实时更新与数据清理机制。
多状态切换与调度策略:Task-Oriented 的管理方案。
多智能体间的记忆共享:在协作中的关键技术。
State Reducers 的动态应用:优化状态更新与路由决策。
RAG(Retrieval-Augmented Generation)与记忆的整合。
综合项目:基于Self-editing Memory技术完成持续的更新的User Profile, User Preference,及Task Agenda大模型智能体
模块十:大模型智能体Human-in-the-Loop技术详解 Human-in-the-Loop 的核心技术:用户交互与反馈闭环设计。
动态断点 (Breakpoints) 技术:优化调试与开发流程。
Streaming 与异步技术应用:实时用户体验的提升。
Time Travel 功能设计:状态快照的捕获与回溯。
用户反馈与状态更新机制:提高智能体的适应性。
Map-Reduce 框架在 UX 中的应用:提升任务处理效率。
高效界面交互设计中的记忆集成。
异步 Streaming Assistant 的开发与案例分析。
AIMessage 与 HumanMessage 的多场景应用。
综合项目: Creative Canvas 是一个通过 AI 辅助创作和记忆管理的智能协作平台,支持 Markdown 实时渲染与版本控制,适用于创意写作、代码开发和团队协作,提升创作效率与内容质量。
模块十一:Manus智能体大模型底层内核强化学习PPO/DPO解密及大型综合案例实战 PPO算法核心和原理
Reward Model底层数学模型 Bradley–Terry model推导
Reward Trainer中的Linear Projection模块
Reward Model构建全生命周期详解
Reward Model Loss及KL Divergence Loss解密
数据集Dataset分析:Preference Dataset
数据集Dataset分析:Prompt Dataset
使用RLHF对齐模型Pipeline分析
Instruction定义策略
Reward Model训练
什么时候适合使用SFT后的模型作为基础Reward Model?
Direct Preference Optimization (DPO)原理
从RLHF优化目标到DPO优化目标详解
DPO中的关键算法组件
DPO数据处理策略详解
DPO的损失函数和优化策略
DPO实现流程剖析
DPO源码实现
DPO与LoRA案例实现源码解析
综合项目:使用PPO/DPO等实现垂直医疗/法律/金融等领域适配对齐案例源码逐行解析,实现包括增量预训练、有监督微调、RLHF(奖励建模、强化学习训练)和DPO(直接偏好优化)。提供完整PT+SFT+RLHF全阶段串起来训练的pipeline及基于知识库文件的LLM问答功能
模块十二: Manus智能体安全护盾——全链路Constitutional AI与对齐解密 Constitutional AI (CAI)反馈机制:采用基于“宪法”原则的反馈,确保模型在LLM各阶段严格遵循核心准则。
Supervised Learning (SL)微调:利用SL阶段对初始模型进行细致微调(finetune),奠定高质量输出的坚实基础。
Red Teaming Prompts设计:制定具挑战性的“Red Teaming”提示,主动诱导模型生成潜在有害样本。
Red Teaming样本生成:通过提示促使模型输出多样化且具代表性的不良内容样本。
Red Teaming样本采集:系统收集生成的多样风险样本,为后续优化提供全面数据支持。
Response-Critique-Revision流程:采用“回应—批判—修正”三步流程对模型输出进行严格评估与改写。
初步对齐模型构建:完成SL阶段后形成Finetuned SL-CAI Model,作为安全对齐的初始版本。
Constitutional AI Feedback机制:进一步利用宪法反馈(Self-Improvement)优化模型输出,增强防范不良内容的能力。
偏好模型训练 (PM):通过对比与打分候选回答,训练出Preference Model评估输出符合宪法准则的程度。
RL from AI Feedback (RLAIF)应用:利用偏好模型评分作为奖励信号,对模型进行强化学习,实现输出对齐最大化。
PM + SL-CAI整合:在强化学习过程中融合SL阶段的对齐能力与PM反馈,持续迭代优化模型。
全链路反馈迭代:通过多轮RL和反馈循环,实现从初步对齐到持续自我改进的闭环优化。
输出严格合规:借助Response-Critique-Revision流程和RL反馈,确保生成的答案符合宪法原则。
模型自适应提升:通过Constitutional AI Feedback和RL from AI Feedback机制,不断提升模型对风险内容的识别与防范。
Final RL-CAI Model生成:完成全链路强化学习后,生成兼具高可靠性和防范能力的Final RL-CAI Model,输出高质量合规回答。