求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center 汽车系统工程   模型库  
会员   
 
 
 
  开班计划 | 认证培训 | 技术学院 | 管理学院 | 嵌入式学院 | 机械 | 军工学院 | 定向培养 | 专家指导 | 角色培养  
 电话 English
成功案例   品质保证
成功案例
中国电信 大模型核心技术RA
中国船舶 AI大模型辅助软件
某公募基 金融领域的AI大模
某著名通 AI大模型全栈工程
某车企 AI大模型应用实践
某石油天 Python数据挖
某证券企 知识图谱与图数据库

相关课程  
开源大模型推理、训练与部署
深度学习、目标识别强化学习
(知识图谱+图数据库)*大模型
人工智能.机器学习& PyTorch
人工智能+Python+大数据
深度学习入门与实战
知识图谱建模与应用
 
全部课程 >人工智能  
大模型应用开发最佳实践和案例分析
AI 工程化项目实战营
15 次浏览  2 次
Schroeder
微软人工智能认证工程师,阿里云AI人工智能训练师
 
时间地点:北京、上海、 深圳 根据报名开班
课程费用:5000元/人
报公开课  
企业内训:可以根据企业需求,定制内训,详见 内训学习手册


认证方式:
培训前了解能力模型。
培训后进行能力评测:
  • 在线考试
  • 能力分析,给出学习建议
  • 合格者颁发证书,作为职业技能资格证明


    课程简介:

          大模型开发已进入工程化时代,仅会调API远远不够!企业需要能构建Agent智能体、RAG系统等落地应用的工程化人才。本课程聚焦实战,带你掌握LangChain、LangGraph等主流开发框架,从零搭建高可用AI系统,解决企业级场景中的复杂问题。行业进入应用交付期,企业急需能快速集成大模型能力的开发者,招聘门槛显著提升,熟悉工程化框架已成核心要求。课程覆盖Agent设计、RAG优化、流程编排等实战技能,通过真实项目演练,让你具备从开发到部署的全链路能力。
          本课程为大模型应用开发人员提供了一份清晰、全面的“可用知识”,带领大家快速了解DeepSeek和API,同时对比OpenAI和国内多个其他大模型(文心,智谱,千问等)的工作原理及优势,并在此基础上使用流行的编程语言构建大模型应用。通过课程,你不仅可以学会如何构建文本生成、问答和内容摘要等初阶大模型应用,还能了解到提示工程、模型微调、插件、LangChain,RAG,Agent等高阶实践技术。课程提供了简单易学的示例,帮你理解并应用在自己的项目中。
    培训对象:

    • 各类软件企业和研发中心的程序员、软件设计师、架构师, 项目经理
    • 希望进入大模型主力战场的中高级开发者,或需突破技术瓶颈的AI从业者
    • 零基础LLM应用开发者
    学员基础:

         有Java,C#,C++等编程基础,最好有Python基础知识
    授课方式:

         讲师讲授+现场讨论+案例分析+模型讲解
    课程安排:2天

    主题 课程安排
    第1章 AI产品思维和企业AI应用落地指南
    第一部分: AI企业落地案例与AI产品思维 1. 深入理解AI和应用
    2. 深入理解AI产品思维
    3. AI产品产业化和标准化
    4. AI产品落地的价值与难题
    5. 所有应用都值得被大模型重构一遍!-百度李彦宏
    6. AI 2.0彻底改变社会:所有应用都可以被重写一次--李开复
    7. 苹果 pad math notes的AI应用分析
    8. 大模型企业落地场景-个人提效和企业流程改造
    9. 智能问答系统
    10. 智能客服系统
    11. 智能问数和ChatBI
    12. AI企业落地场景分析
    第2章 基于大模型API开发应用
    第一部分:大模型 API 应用开发(基于多种大模型API) 1. 国内大模型API
    2. OpenAI大模型API
    3. 国内外主流大模型的应用API
    4. 千问大模型API 介绍
    5. 模型参数Temperature 设置
    6. 模型Token
    7. 大模型多轮对话
    8. 大模型短期记忆和长期记忆
    9. 大模型JSON Output
    10. 大模型应用缓存
    11. 案例分析
    第二部分: Prompt Engineering 高阶技巧 1. 思维链(Chain of Thought, CoT):
    2. 引导模型逐步推理反思机制(Self-Reflection):
    3. 让模型自己评估输出质量
    4. 提示模板设计(Prompt Templates):Jinja2、LangChain Template
    5. 支持外部工具调用提示设计(Tool Calling Prompt)
    6. 动态 Prompt 生成:根据用户输入动态构造 Prompt
    第三部分: 大模型Function Calling最佳实践  1. 什么是 Function Calling?
    2. 大模型如何与外部工具或 API 交互?
    3. Function Calling 的应用场景(如数据查询、计算、外部服务调用等)。
    4. Function Calling 的实现原理
    5. Function Calling 的开发流程。
    6. Function Calling 的代码示例
    7. 使用 OpenAI API 实现 Function Calling 的示例代码。
    8. 示例场景:天气查询、数学计算、数据库查询等。
    9. Function Calling 的优化与调
    10. Function Calling 的最佳实践案例分析
    第四部分: 基于多模态大模型的企业应用案例  1. 多模态大模型基本概念
    2. 多模态GPT多模态应用场景分析
    3. OpenAI多模态API解析
    4. 多模态大模型核心技术
    5. 多模态提示模板工程
    6. 多模态思维链
    7. 多模态基础模型
    8. 多模态大模型的应用案例
    9. 视觉问答应用案例
    10. 图像问答应用案例
    11. 某企业多模态案例
    第五部分:大模型API构建应用程序(多案例,灵活选择)  1. 应用程序开发概述
    2. 案例项目分析
    3. 项目1:构建新闻稿生成器
    4. 项目2:语音控制
    5. 项目3:企业管理系统MIS应用案例分析
    6. 项目4:某企业智能管理系统
    第3章 基于LangChain框架开发应用 
    第一部分: ⼤模型应⽤开发框架 LangChain  1. ⼤模型应⽤开发框架 LangChain
    2. LangChain基本原理与开发流程
    3. LangChain的核心组件:理解任务链与内存模块
    4. LangChain开发流程概述
    5. 为什么需要 LangChain
    6. LangChain 典型使⽤场景
    7. LangChain 基础概念与模块化设计
    8. LangChain 核⼼模块⼊⻔与实战
    9. LangChain 的3 个场景
    10. LangChain 的6 大模块
    11. LangChain 的开发流程
    12. 创建基于LangChain聊天机器人
    第二部分: LangChain核心组件-模型、模型类与缓存  1. 构建复杂LangChain应⽤
    2. 模型的定义与应用
    3. 语言模型的工作原理
    4. Chat类、LLM类模型简介
    5. 完成基本文本生成任务
    6. 自定义LangChain Model类
    7. 模型参数的自定义与调优
    8. LangChain与缓存
    9. 使⽤大模型构建文档问答系统
    第三部分: LangChain核心组件-:链 和记忆  1. LLM链
    2. LLM链的基本工作流程和参数设置
    3. 如何在LLM链中嵌入提示词模板和预处理逻辑
    4. 序列链
    5. 路由链
    6. 文档链
    7. 聊天消息记忆
    8. 会话缓冲区与会话缓冲窗口
    9. 会话摘要与支持向量存储
    10. LangChain与表达式语言
    11. LCEL初探与流式支持
    12. LCEL并行执行优化
    13. 回退机制的设计与实现
    14. LCEL与LangSmith集成
    第4章 构建企业级RAG知识库 
    第一部分: DeepSeek大模型企业RAG应用  1. RAG技术概述
    2. 加载器和分割器
    3. 文本嵌入和 向量存储
    4. 检索器和多文档联合检索
    5. RAG技术的关键挑战
    6. 检索增强生成实践
    7. RAG技术文档预处理过程
    8. RAG技术文档检索过程
    第二部分: 构建基于DeepSeek RAG:实现检索增强生成  1. 何谓检索增强生成
    2. 提示工程、RAG与微调
    3. 从技术角度看检索部分的Pipeline
    4. 从用户角度看RAG流程
    5. RAG和Agent
    6. 通过Llamalndex的ReAct RAG Agent实现检索
    7. 将财报文件的数据转换为向量数据
    8. 构建查询引擎和工具
    9. 配置文本生成引擎大模型
    10. 创建Agent以查询信息
    第三部分: RAG实战案例-企业文档问答系统 1. 企业文档问答需求分析与系统设计
    2. 确定问答系统的需求:识别用户的主要查询类型与目标
    3. 系统结构与模块划分:明确检索与生成模块的协作方式
    4. 搭建向量数据库与检索模块
    5. 数据预处理与向量化:生成高效的嵌入向量
    6. 构建与优化索引:提升检索模块的查询速度
    7. 生成模块的集成与模型调优
    8. 加载与配置生成模型:选择适合问答系统的生成模型
    9. 模型优化与提示词调优:提高生成内容的准确性与相关性
    10. RAG系统测试、部署与优化
    11. 测试流程与性能监控:确保系统的稳定性与响应速度
    12. 企业环境的部署与上线:实现系统在实际业务中的应用
    第5章 基于大模型开发Agent智能体
    第一部分:大模型驱动的Agent智能体开发概述 1. 智能体的定义与特点
    2. 智能体与传统软件的关系
    3. 智能体与LLM的关系
    4. 从ChatGPT到智能体
    5. 智能体的五种能力
    6. 记忆,规划,工具,自主决策,推理
    7. 多智能体协作
    8. 企业级智能体应用与任务规划
    9. 智能体开发
    第二部分: 基于LangChain构建Agent 1. 通过LangChain中的ReAct框架实现自动定价
    2. LangChain ReAct框架
    3. LangChain中ReAct Agent 的实现
    4. LangChain中的工具和工具包
    5. 通过create_react_agent创建Agent
    6. 深挖AgentExecutor的运行机制
    7. Plan-and-Solve策略的提出
    8. LangChain中的Plan-and-Execute Agent
    9. 通过Plan-and-Execute Agent实现物流管理
    10. 为Agent定义一系列进行自动库存调度的工具
    第三部分: 多Agent 最佳实践—langGraph框架 1. 为什么选择多智能体架构?
    2. 常见的多智能体架构
    3. LangGraph架构和应用
    4. LangGraph 核心组件:节点与可控制性
    5. 节点与可控制性-第一个LangGraph
    6. 节点与可控制性-基本控制:串行控制&分支控制&条件分支与循环
    7. 节点与可控制性-精细控制:图的运行时配置&map-reduce
    8. LangGraph 核心组件:持久化与记忆
    9. 记忆:短期记忆的实现&长期以及实现&使用总结技术优化记忆
    10. LangGraph 核心组件:人机交互
    11. LangGraph 核心组件:时光旅行
    12. LangGraph 核心组件:流式输出
    13. LangGraph 核心组件:工具调用
    14. 基于LangGraph 构建代码助手
    15. 基于LangGraph 的提示词生成小助手
    第四部分: CrewAI: 一款主流的多Agents开发框架 1. CrewAI架构和原理
    2. CrewAI安装与第一个示例
    3. CrewAI 核心组件讲解
    4. CrewAI 核心组件:Agents
    5. CrewAI 核心组件:Task
    6. CrewAI 核心组件:Crew & flow
    7. CrewAI 核心组件:知识库 & 记忆
    8. 基于CrewAI 的游戏开发助手最近学习
    9. 基于CrewAI 的营销策略大师
    第五部分: Agent智能体实战-智能邮件助理 1. 需求分析:邮件助手的核心功能与用户痛点
    2. 任务分类与优先级排序的需求分析
    3. 实现多任务邮件管理的技术架构
    4. 集成LLM处理自然语言邮件回复
    5. LLM在多轮对话中的语境保持
    6. 个性化与情感分析在邮件回复中的应用
    7. 模板化与自定义语句生成的实现设计
    8. 错误处理与异常情况的回复策略
    9. 个性化优化:学习用户风格的邮件写作
    10. 用户行为追踪与语言模型的训练优化
    11. 自适应个性化邮件模板的设计与实现
    第6章 基于低代码平台构建智能体
    第一部分: 基于低代码平台--字节Coze 构建智能体 1. Coze:零基础开发对话机器人
    2. Coze功能概述
    3. Coze基础能力
    4. Coze插件
    5. Coze工作流
    6. Coze记忆库
    7. 用工作流优化输出结果
    8. 基于字节Coze构建开发软件开发智能体
    9. 构建研发工程师agent案例
    第二部分: 基于低代码平台—开源DIfy构建智能体 1. Dify:零基础开发对话机器人
    2. Dify:功能概述
    3. Dify:基础能力
    4. Dify:插件
    5. Dify:工作流
    6. Dify:记忆库
    7. 综合实战:基于Dify的数据库查询实现
    8. Dify本地化与Agent各终点发布(网页嵌入、微信、API)
    第7章 MCP原理和实战案例
    第一部分: MCP原理与实战:高效AI Agent智能体开发 1. 什么是MCP
    2. MCP的起源与发展
    3. 掌握MCP的好处
    4. MCP的工作原理
    5. MCP的核心架构
    6. MCP的核心组件
    7. MCP与API的区别
    8. MCP与Function Calling的区别
    9. MCP与A2A协议的区别
    10. MCP的本地搭建
    11. MCP案例分析
    12. 构建MCP案例
    第8章 企业大模型落地和部署,微调
    第一部分: 大模型落地方案解析; 1. 根据不同预算和企业规模选择合适的落地方案
    2. 使用公有云大模型
    3. 与外部厂商合作
    4. 内部微调大模型
    5. 大模型 + RAG
    6. 从 0 到 1 自研大模型
    7. 评估大模型落地整体预算投入
    8. 数据投入/ 算力投入
    9. 技术投入/人力投入
    10. 衡量 AI 落地的投入产出比
    第二部分: 大模型落地全流程 1. 数据预处理
    2. 数据采集
    3. 数据标注
    4. 数据清洗
    5. 大模型评测
    6. 大模型与企业应用无缝衔接
    7. 部署上线
    8. 效果评估与数据反馈闭环
    9. 大模型迭代
    第三部分: 私有化部署DeepSeek大模型 1. DeepSeek云端部署
    2. DeepSeek和国产信创平台适配
    3. DeepSeek和国内云平台
    4. 利用Ollama私有化部署DeepSeek大模型
    5. 使用其他工具私有化部署DeepSeek大模型
    6. DeepSeek私有化部署总结
    第四部分: DeepSeek大模型微调和蒸馏 1. DeepSeek 大模型微调
    2. 大模型指令微调技术
    3. 通用模型的缺点和指令微调的必要性
    4. 指令微调跟BERT时代Fine-tune之间区别
    5. 指令集的收集与格式化
    6. 指令数据集文件制作
    7. 大模型微调的三个阶段剖析
    8. 大模型微调的两种方法剖析
       
    15 次浏览  2 次
    其他人还看了课程
    图像识别与深度学习  4732 次浏览
    视觉大模型及其应用  72 次浏览
    人工智能的软件测试应用  3149 次浏览
    大模型与人工反馈强化学习详解实战  1928 次浏览
    AI大 模 型 的 崛 起 与 应 用  1907 次浏览
    大模型与智能体开发训练营培训方案  114 次浏览
    ROS2从入门到实践  4763 次浏览
    定制内训


    最新活动计划
    基于模型的数据治理与中台 11-11[北京]
    软件架构设计方法、案例实践 11-13[北京]
    AI智能化软件测试方法与实践11-20[北京]
    UML与面向对象分析设计 11-25[北京]
    LLM大模型与智能体开发实战 11-13[在线]
    配置管理方法、实践、工具 12-11[北京]