|
|
全部课程 >人工智能 |
|
RAG与GraphRAG大模型自定义知识问答原理与实践 |
194 次浏览 5 次
|
|
|
时间地点:厦门:2025年6月12-13日;北京、
深圳、上海根据报名开班 |
课程费用:4500元/人 |
|
|
|
企业内训:可以根据企业需求,定制内训,详见
内训学习手册 |
|
|
认证方式:
培训前了解能力模型。
培训后进行能力评测: 在线考试
能力分析,给出学习建议
合格者颁发证书,作为职业技能资格证明 |
|
|
|
|
课程内容在总结大模型AI工具的基础上,详细介绍大模型的Agent模式、RLHF与强化学习的关系。然后,探讨chatGPT及其衍生模型的原理;接下来引入Transformers库进行代码实战、大模型微调以构建自定义知识的问答系统。这一过程中,结合RAG与GraphRAG进行知识库和状态机的构建。在实践中,以大模型在实际项目中的使用为出发点,设计实施方案和实际代码实现。课程涵盖AI编程、图像文本处理、Agent感知与决策、chatGPT的监督微调等多个方面,包括原理和实战两部分,通过该课程,可以基本掌握深度学习和大模型的具体使用。
|
课程目标:
|
1. 整体把握RAG与GraphRAG的发展方向
2. 了解RAG与GraphRAG的技术框架
3. 理解RAG与GraphRAG的思维方式和关键技术
4. 了解RAG与GraphRAG当前的落地应用
5. 了解RAG与GraphRAG最新技术热点 |
培训对象: AI工程师、数据分析师、1年以上工作经验的算法工程师、对技术感兴趣的IT程序员。 |
学员基础:
无特定要求 |
授课方式:讲师讲授+现场讨论+案例分析+模型讲解
|
培训内容:2天
|
主题
|
课程安排 |
第一节:大模型AI工具和实际场景提示词(0.5h)
|
1. AI编程工具:自动代码生成与程序缺陷检测软件
2. AI图像音视频工具:图像识别、视频监控分析软件
3. AI设计工具:PPT、表格等的生成
4. 大模型环境下测试用例的使用
5. 不同大模型的选型 |
第二节:大模型和Agent(1.5h-2h)
|
1. Agent感知环境、自主决策和生成行为
2. 强化学习的思路和Agent模式
3. 感知、执行、规划、反馈
4. 环境感知与理解
5. 任务拆解和状态表达
6. 规划执行步骤
7. 评估风险与收益
8. 自主决策与规划
9. 行动执行与反馈
10. 协作与交互
11. 多Agent协作
12. 使用大模型做Agent模式的实例
13. “测试用例-测试-反馈”的闭环Agent模式
14. 反馈机制的使用 |
第三节: chatGPT及其衍生模型的原理(0.5h)
|
1. 监督微调(SFT)模型、
2. 指示学习和提示学习
3. 简单提示、小样本提示、基于用户的提示
4. 指令微调
5. RLLHF技术详解(从人类的反馈中学习)
6. 聚合问答数据训练奖励模型(RM)
7. 强化学习微调、PPO
8. InstructGPT遵循用户意图使用强化学习方案 |
第四节: Transformers、大模型及其实战(2.5h-3h)
|
1. Hugging Face Transformers库是什么
2. HuggingFace网站中模型的下载工具使用
3. Git在Windows等非Ubuntu系统的使用
4. LFS等大文件的忽略下载方式
5. 在HuggingFace镜像、modelscope魔搭等网站完成上述工作的方法
6. AutoDL的云平台使用实操
7. 以意图识别为例解释多用户场景的使用
8. 完成通用大模型的代码跑通、推理
9. 完成云模型场景下的模型推理代码
10. Transformers典型使用场景
11. Transformers模块化设计
12. 安装Transformers库
13. Transformers Pipeline流水线
14. 开箱即用的Pipeline API
15. 开源大模型Qwen的使用
16. Qwen配套的dashscope包的使用
17. Qwen API的调用方式
18. Qwen2 VL在多模态的调用和实践
19. 使用Markdown对Qwen输出结果过滤
20. 结合提示词、大模型API、SQL语句的综合运用 |
第五节:大模型微调:自定义知识的问答系统(2.5h) |
1. 大模型微调需要的数据对
2. 大模型微调使数据量的建议
3. 硬件资源建议
4. 模型微调的几个步骤
5. 使用服装描述的实际案例解释大模型的微调
6. 构建垂直领域大模型的通用思路和方法
(1) 大模型+知识库
(2) PEFT(参数高效的微调)
(3) 全量微调
(4) 从预训练开始定制
7. LangChain介绍
8. 自定义知识库
9. 代码和案例实践:
10. 动手实现知识问答机器人
11. LangChain测试问答 |
第六节:RAG和GraphRAG自定义知识库(2h-2.5h) |
1. RAG的存在价值和案例举例
2. 如何使用RAG增强大模型的问答
3. 向量数据库在RAG中的重要作用
4. Facebook开源的FAISS插件库
5. 向量数据库Milvus
6. 最近邻搜索ANNS等索引方式
7. 向量化计算可采用的方式
8. 向量的相似性度量选择
9. 图像视频音频等的相似性搜索
10. Python相关包pyMilvus的安装和使用
11. RAG方案的新发展GraphRAG
12. 比较:RAG中存在的问题以及使用GraphRAG后的效果
13. 使用图网络摘要解决总结性查询任务的问题
14. 解决RAG知识库内容缺失的补充
15. 解决RAG TopK截断有用文档的解决
16. 解决RAG中重排序/过滤规则造成的上下文不正确
17. 如何提高有用信息的识别率
18. 思考:什么叫“有用知识”
19. 向量数据库问答的设计
20. GraphRAG中知识冲突的处理方式
21. 在LangChain中增加LLMGraphTransformer库
22. 将使用Langchain转换到使用LangGraph
23. 克服LangChain中知识链条的限制思路
24. 使用知识图结构带来的检索优势
25. 使用Neo4j的具体知识案例解释知识检索的过程 |
第七节:大模型的快速搭建方案和案例(1h-1.5h)
|
1. 测试场景的低代码Bot创建
2. 测试工作的准确性和快速迭代性
3. BaaS的提法
4. 使用Coze 快速搭建AI Bot
5. Coze上创建Bot
6. Coze的Bot提示词的编写
7. 给Bot配置工具集,给定工作流程
8. Bot的发布和测试使用实践
9. Dify的使用和创建Bot
10. Dify上创建AI工作流
11. RAG管道
12. Dify中关于LLM的问题分类器
13. 创建模型和Agent
14. LLM的配置方式
15. 模型管理
16. 笔者主持的若干央企工业场景的大模型应用案例
17. 风电大模型可研报告、后评价报告的生成详细思路和实现方案 |
|
|
|
|
|
|
|
|
194 次浏览 5 次
|
其他人还看了课程 |
|
|
|