| 主题 |
课程安排 |
| 第1章
AI产品思维和企业AI应用落地指南 |
| 第一部分:
AI企业落地案例与AI产品思维 |
1.
深入理解AI和应用
2. 深入理解AI产品思维
3. AI产品产业化和标准化
4. AI产品落地的价值与难题
5. 所有应用都值得被大模型重构一遍!-百度李彦宏
6. AI 2.0彻底改变社会:所有应用都可以被重写一次--李开复
7. 苹果 pad math notes的AI应用分析
8. 大模型企业落地场景-个人提效和企业流程改造
9. 智能问答系统
10. 智能客服系统
11. 智能问数和ChatBI
12. AI企业落地场景分析 |
| 第2章
基于大模型API开发应用 |
| 第一部分:大模型
API 应用开发(基于多种大模型API) |
1.
国内大模型API
2. OpenAI大模型API
3. 国内外主流大模型的应用API
4. 千问大模型API 介绍
5. 模型参数Temperature 设置
6. 模型Token
7. 大模型多轮对话
8. 大模型短期记忆和长期记忆
9. 大模型JSON Output
10. 大模型应用缓存
11. 案例分析 |
| 第二部分:
Prompt Engineering 高阶技巧 |
1.
思维链(Chain of Thought, CoT):
2. 引导模型逐步推理反思机制(Self-Reflection):
3. 让模型自己评估输出质量
4. 提示模板设计(Prompt Templates):Jinja2、LangChain
Template
5. 支持外部工具调用提示设计(Tool Calling Prompt)
6. 动态 Prompt 生成:根据用户输入动态构造 Prompt |
| 第三部分:
大模型Function Calling最佳实践 |
1.
什么是 Function Calling?
2. 大模型如何与外部工具或 API 交互?
3. Function Calling 的应用场景(如数据查询、计算、外部服务调用等)。
4. Function Calling 的实现原理
5. Function Calling 的开发流程。
6. Function Calling 的代码示例
7. 使用 OpenAI API 实现 Function Calling 的示例代码。
8. 示例场景:天气查询、数学计算、数据库查询等。
9. Function Calling 的优化与调
10. Function Calling 的最佳实践案例分析 |
| 第四部分:
基于多模态大模型的企业应用案例 |
1.
多模态大模型基本概念
2. 多模态GPT多模态应用场景分析
3. OpenAI多模态API解析
4. 多模态大模型核心技术
5. 多模态提示模板工程
6. 多模态思维链
7. 多模态基础模型
8. 多模态大模型的应用案例
9. 视觉问答应用案例
10. 图像问答应用案例
11. 某企业多模态案例 |
| 第五部分:大模型API构建应用程序(多案例,灵活选择) |
1.
应用程序开发概述
2. 案例项目分析
3. 项目1:构建新闻稿生成器
4. 项目2:语音控制
5. 项目3:企业管理系统MIS应用案例分析
6. 项目4:某企业智能管理系统 |
| 第3章
基于LangChain框架开发应用 |
| 第一部分:
⼤模型应⽤开发框架 LangChain |
1.
⼤模型应⽤开发框架 LangChain
2. LangChain基本原理与开发流程
3. LangChain的核心组件:理解任务链与内存模块
4. LangChain开发流程概述
5. 为什么需要 LangChain
6. LangChain 典型使⽤场景
7. LangChain 基础概念与模块化设计
8. LangChain 核⼼模块⼊⻔与实战
9. LangChain 的3 个场景
10. LangChain 的6 大模块
11. LangChain 的开发流程
12. 创建基于LangChain聊天机器人 |
| 第二部分:
LangChain核心组件-模型、模型类与缓存 |
1.
构建复杂LangChain应⽤
2. 模型的定义与应用
3. 语言模型的工作原理
4. Chat类、LLM类模型简介
5. 完成基本文本生成任务
6. 自定义LangChain Model类
7. 模型参数的自定义与调优
8. LangChain与缓存
9. 使⽤大模型构建文档问答系统 |
| 第三部分:
LangChain核心组件-:链 和记忆 |
1.
LLM链
2. LLM链的基本工作流程和参数设置
3. 如何在LLM链中嵌入提示词模板和预处理逻辑
4. 序列链
5. 路由链
6. 文档链
7. 聊天消息记忆
8. 会话缓冲区与会话缓冲窗口
9. 会话摘要与支持向量存储
10. LangChain与表达式语言
11. LCEL初探与流式支持
12. LCEL并行执行优化
13. 回退机制的设计与实现
14. LCEL与LangSmith集成 |
| 第4章
构建企业级RAG知识库 |
| 第一部分:
DeepSeek大模型企业RAG应用 |
1.
RAG技术概述
2. 加载器和分割器
3. 文本嵌入和 向量存储
4. 检索器和多文档联合检索
5. RAG技术的关键挑战
6. 检索增强生成实践
7. RAG技术文档预处理过程
8. RAG技术文档检索过程 |
| 第二部分:
构建基于DeepSeek RAG:实现检索增强生成 |
1.
何谓检索增强生成
2. 提示工程、RAG与微调
3. 从技术角度看检索部分的Pipeline
4. 从用户角度看RAG流程
5. RAG和Agent
6. 通过Llamalndex的ReAct RAG Agent实现检索
7. 将财报文件的数据转换为向量数据
8. 构建查询引擎和工具
9. 配置文本生成引擎大模型
10. 创建Agent以查询信息 |
| 第三部分:
RAG实战案例-企业文档问答系统 |
1.
企业文档问答需求分析与系统设计
2. 确定问答系统的需求:识别用户的主要查询类型与目标
3. 系统结构与模块划分:明确检索与生成模块的协作方式
4. 搭建向量数据库与检索模块
5. 数据预处理与向量化:生成高效的嵌入向量
6. 构建与优化索引:提升检索模块的查询速度
7. 生成模块的集成与模型调优
8. 加载与配置生成模型:选择适合问答系统的生成模型
9. 模型优化与提示词调优:提高生成内容的准确性与相关性
10. RAG系统测试、部署与优化
11. 测试流程与性能监控:确保系统的稳定性与响应速度
12. 企业环境的部署与上线:实现系统在实际业务中的应用 |
| 第5章
基于大模型开发Agent智能体 |
| 第一部分:大模型驱动的Agent智能体开发概述 |
1.
智能体的定义与特点
2. 智能体与传统软件的关系
3. 智能体与LLM的关系
4. 从ChatGPT到智能体
5. 智能体的五种能力
6. 记忆,规划,工具,自主决策,推理
7. 多智能体协作
8. 企业级智能体应用与任务规划
9. 智能体开发 |
| 第二部分:
基于LangChain构建Agent |
1.
通过LangChain中的ReAct框架实现自动定价
2. LangChain ReAct框架
3. LangChain中ReAct Agent 的实现
4. LangChain中的工具和工具包
5. 通过create_react_agent创建Agent
6. 深挖AgentExecutor的运行机制
7. Plan-and-Solve策略的提出
8. LangChain中的Plan-and-Execute Agent
9. 通过Plan-and-Execute Agent实现物流管理
10. 为Agent定义一系列进行自动库存调度的工具 |
| 第三部分:
多Agent 最佳实践—langGraph框架 |
1.
为什么选择多智能体架构?
2. 常见的多智能体架构
3. LangGraph架构和应用
4. LangGraph 核心组件:节点与可控制性
5. 节点与可控制性-第一个LangGraph
6. 节点与可控制性-基本控制:串行控制&分支控制&条件分支与循环
7. 节点与可控制性-精细控制:图的运行时配置&map-reduce
8. LangGraph 核心组件:持久化与记忆
9. 记忆:短期记忆的实现&长期以及实现&使用总结技术优化记忆
10. LangGraph 核心组件:人机交互
11. LangGraph 核心组件:时光旅行
12. LangGraph 核心组件:流式输出
13. LangGraph 核心组件:工具调用
14. 基于LangGraph 构建代码助手
15. 基于LangGraph 的提示词生成小助手 |
| 第四部分:
CrewAI: 一款主流的多Agents开发框架 |
1.
CrewAI架构和原理
2. CrewAI安装与第一个示例
3. CrewAI 核心组件讲解
4. CrewAI 核心组件:Agents
5. CrewAI 核心组件:Task
6. CrewAI 核心组件:Crew & flow
7. CrewAI 核心组件:知识库 & 记忆
8. 基于CrewAI 的游戏开发助手最近学习
9. 基于CrewAI 的营销策略大师 |
| 第五部分:
Agent智能体实战-智能邮件助理 |
1.
需求分析:邮件助手的核心功能与用户痛点
2. 任务分类与优先级排序的需求分析
3. 实现多任务邮件管理的技术架构
4. 集成LLM处理自然语言邮件回复
5. LLM在多轮对话中的语境保持
6. 个性化与情感分析在邮件回复中的应用
7. 模板化与自定义语句生成的实现设计
8. 错误处理与异常情况的回复策略
9. 个性化优化:学习用户风格的邮件写作
10. 用户行为追踪与语言模型的训练优化
11. 自适应个性化邮件模板的设计与实现 |
| 第6章
基于低代码平台构建智能体 |
| 第一部分:
基于低代码平台--字节Coze 构建智能体 |
1.
Coze:零基础开发对话机器人
2. Coze功能概述
3. Coze基础能力
4. Coze插件
5. Coze工作流
6. Coze记忆库
7. 用工作流优化输出结果
8. 基于字节Coze构建开发软件开发智能体
9. 构建研发工程师agent案例 |
| 第二部分:
基于低代码平台—开源DIfy构建智能体 |
1.
Dify:零基础开发对话机器人
2. Dify:功能概述
3. Dify:基础能力
4. Dify:插件
5. Dify:工作流
6. Dify:记忆库
7. 综合实战:基于Dify的数据库查询实现
8. Dify本地化与Agent各终点发布(网页嵌入、微信、API) |
| 第7章
MCP原理和实战案例 |
| 第一部分:
MCP原理与实战:高效AI Agent智能体开发 |
1.
什么是MCP
2. MCP的起源与发展
3. 掌握MCP的好处
4. MCP的工作原理
5. MCP的核心架构
6. MCP的核心组件
7. MCP与API的区别
8. MCP与Function Calling的区别
9. MCP与A2A协议的区别
10. MCP的本地搭建
11. MCP案例分析
12. 构建MCP案例 |
| 第8章
企业大模型落地和部署,微调 |
| 第一部分:
大模型落地方案解析; |
1.
根据不同预算和企业规模选择合适的落地方案
2. 使用公有云大模型
3. 与外部厂商合作
4. 内部微调大模型
5. 大模型 + RAG
6. 从 0 到 1 自研大模型
7. 评估大模型落地整体预算投入
8. 数据投入/ 算力投入
9. 技术投入/人力投入
10. 衡量 AI 落地的投入产出比 |
| 第二部分:
大模型落地全流程 |
1.
数据预处理
2. 数据采集
3. 数据标注
4. 数据清洗
5. 大模型评测
6. 大模型与企业应用无缝衔接
7. 部署上线
8. 效果评估与数据反馈闭环
9. 大模型迭代 |
| 第三部分:
私有化部署DeepSeek大模型 |
1.
DeepSeek云端部署
2. DeepSeek和国产信创平台适配
3. DeepSeek和国内云平台
4. 利用Ollama私有化部署DeepSeek大模型
5. 使用其他工具私有化部署DeepSeek大模型
6. DeepSeek私有化部署总结 |
| 第四部分:
DeepSeek大模型微调和蒸馏 |
1.
DeepSeek 大模型微调
2. 大模型指令微调技术
3. 通用模型的缺点和指令微调的必要性
4. 指令微调跟BERT时代Fine-tune之间区别
5. 指令集的收集与格式化
6. 指令数据集文件制作
7. 大模型微调的三个阶段剖析
8. 大模型微调的两种方法剖析 |