| 主题 |
课程安排 |
| 第1章 AI大模型原理和软件研发效能 |
| 第一部分: AI大模型核心原理 |
1. 大模型基础:理论与技术的演进
2. LLMs大语言模型的概念定义
3. LLMs大语言模型的发展演进
4. LLMs大语言模型的生态体系
5. 大语言模型技术发展与演进
6. 基于统计机器学习的语言模型
7. 基于深度神经网络的语言模型
8. 基于 Transformer 的大语言模型
9. 分析大模型背后的原理和流程 |
| 第二部分: DeepSeek大模型应用概述 |
1. Deepseek平台简介
2. Deepseek 核心功能与基础操作
3. Deepseek推理大模型R1和普通大模型V3
4. Deepseek大模型和国内外大模型对比
5. Deepseek R1推理大模型产品定位、适用场景与核心优势
6. 什么场景适合使用Deepseek R1推理大模型
7. Deepseek的提问技巧
8. 编写指令的3个原则
9. 挖掘指令的3个方法
10. 编写指令的7种技巧
11. 优化答案的6种模板 |
| 第三部分: DeepSeek大模型下的研发效能提升 |
1. 软件研发效能的定义、目标及解决的问题
2. 软件研发效能的实践框架和实施策略
3. AI在研发管理中的价值
4. AI在研发效能提升中的实践
5. AI对研发效能管理的影响
6. AI对软件开发领域效能实践
7. AI对软件测试领域效能实践
8. AI 赋能研发效能多家研发中心案例分析 |
| 第四部分: AI大模型与软件测试 |
1. 传统软件测试技术的局限性
2. AI人工智能在测试设计领域的应用与创新
3. AI人工智能在 GUI 自动化测试执行领域的应用与创新
4. AI人工智能在测试结果分析领域的应用与创新
5. AI大模型在自动化测试领域的应用
6. AI大模型和自动化测试
7. 使用AI大模型生成GUI自动化测试用例
8. AI大模型在自动化测试应用中的案例分析
9. AI 赋能软件测试多家研发中心案例分析 |
| 第2章 AI辅助生成测试用例和测试数据 |
| 第五部分: 大模型提示词工程(以多个大模型为案例) |
1. DeekSeep推理大模型还需要提示词工程吗?
2. DeekSeep通用大模型为什么必须高质量提示词?
3. DeekSeep不同大模型对提示词的要求不同
4. Prompt如何使用
5. Prompt使用进阶
6. 什么是提示与提示工程
7. 提示工程的巨大威力:从Let’s think step by step说起
8. 我们与AI大模型的沟通模型
9. 从人工智能学科角度看提示工程
10. 拆解、标准化、流程化:如何用AI改造工作
11. 使用BROKE框架设计AI大模型提示
12. 背景(Background):信息传达与角色设计
13. 角色(Role):AI助手的角色扮演游戏
14. 目标与关键结果(Object&Key Results):给AI大模型“打绩效”
15. 改进(Evolve):进行试验与调整
16. 从认知心理学角度看BROKE框架的设计
17. Prompt案例分析 |
| 第六部分: AI大模型辅助生成测试计划 |
1. AI大模型辅助生成测试计划
2. 软件测试计划意义
3. AI大模型在测试计划编写中的作用
4. AI大模型自动化生成测试计划的步骤
5. AI大模型与测试团队的协作
6. AI大模型在测试计划生成方面的成功应用
7. AI大模型辅助电子商务网站生成测试计划
8. AI大模型辅助移动应用生成测试计划
9. AI大模型自动驾驶系统案例 生成测试计划
10. AI大模型生成测试计划的实践 |
| 第七部分: AI大模型辅助生成功能测试用例 |
1. AI大模型在功能测试用例生成方面的优势
2. AI大模型自动生成功能测试用例的步骤
3. AI大模型在测试用例自动生成方面的应用案例
4. AI大模型辅助电子商务平台功能测试用例
5. AI大模型辅助社交媒体应用案例 功能测试用例
6. AI大模型辅助电信系统功能测试用例
7. AI大模型辅助生成测试用例的最佳实践
8. AI大模型辅助与领域特定语言的集成 |
| 第八部分: AI大模型辅助生成自动化测试用例 |
1. AI大模型辅助生成自动化测试用例的基本流程和原理
2. AI大模型辅助生成自动化测试用例的基本流程
3. AI大模型辅助生成自动化测试用例的原理
4. AI大模型与测试框架的整合
5. AI大模型与主流UI自动化测试框架整合
6. AI大模型与接口测试工具整合
7. AI大模型与单元测试框架整合
8. AI大模型生成自动化测试用例的效果评估
9. AI大模型生成自动化测试用例的实际案例
10. AI大模型生成自动化测试用例的最佳实践 |
| 第九部分: AI大模型生成接口测试用例 |
1. 接口文档的重要性
2. AI大模型生成接口文档的方法与实践
3. AI大模型生成接口文档的方法
4. AI大模型生成接口文档实践案例
5. AI大模型与接口测试工具协作的最佳实践
6. AI大模型在接口测试中的角色
7. AI大模型理解系统需求和接口规范
8. AI大模型生成测试用例模板
9. AI大模型生成接口测试用例的流程
10. AI大模型与接口测试工具的协作
11. 案例分析 |
| 第十部分: AI大模型辅助设计师提高研发效能 |
1. AI大模型生成测试数据
2. AI大模型生成测试数据的问题
3. AI大模型生成测试数据的优势
4. AI大模型生成测试数据的注意事项
5. AI大模型在功能和性能测试数据生成中的应用
6. AI大模型 辅助功能测试数据生成
7. AI大模型辅助性能测试数据生成
8. AI大模型辅助生成测试数据的挑战与应对策略
9. 案例分析 |
| 第十一部分: AI大模型分析测试结果和测试报告 |
1. AI大模型生成测试总结报告
2. AI大模型赋能敏捷测试总结报告智能生成
3. AI大模型自动生成测试总结报告的流程
4. AI大模型自动化生成测试报告
5. AI大模型在多项目管理的环境中的实践案例
6. AI大模型在测试结果分析中的作用
7. AI大模型助力数据可视化与数据分析效率的提升
8. AI大模型在数据可视化中的作用
9. AI大模型优化数据可视化流程
10. AI大模型在数据可视化领域的挑战与应对策略
11. AI大模型在问题识别和修复中的作用
12. AI大模型辅助问题识别
13. AI大模型指导问题修复
14. 案例分析 |
| 第3章 增强企业私有知识-基于大模型的开发 |
| 第十二部分: SeepSeek大模型 API 应用开发(也可以其他大模型) |
1. DeepSeek-V3 大模型API
2. DeepSeek-R1推理大模型API
3. DeepSeek模型 & 价格
4. DeepSeek模型参数Temperature 设置
5. DeepSeek模型Token 用量计算
6. DeepSeek模型错误码
7. DeepSeek大模型多轮对话
8. DeepSeek大模型对话前缀续写(Beta)
9. DeepSeek大模型FIM 补全(Beta)
10. DeepSeek大模型JSON Output
11. DeepSeek大模型Function Calling
12. DeepSeek大模型上下文硬盘缓存
13. 文本内容补全初探(Text Completion)
14. 聊天机器人初探(Chat Completion)
15. 基于DeepSeek开发智能翻译助手
16. 案例分析 |
| 第十三部分: 私有化部署DeepSeek大模型 |
1. DeepSeek云端部署
2. DeepSeek和国产信创平台适配
3. DeepSeek和国内云平台
4. 利用Ollama私有化部署DeepSeek大模型
5. 使用其他工具私有化部署DeepSeek大模型
6. DeepSeek私有化部署总结 |
| 第十四部分: DeepSeek大模型微调和蒸馏 |
1. DeepSeek 大模型微调
2. 大模型指令微调技术
3. 通用模型的缺点和指令微调的必要性
4. 指令微调跟BERT时代Fine-tune之间区别
5. 指令集的收集与格式化
6. 指令数据集文件制作
7. 大模型微调的三个阶段剖析
8. 大模型微调的两种方法剖析 |
| 第十五部分: 构建大模型企业RAG应用—如何利用已有测试库 |
1. RAG技术概述
2. 加载器和分割器
3. 文本嵌入和 向量存储
4. 检索器和多文档联合检索
5. RAG技术的关键挑战
6. 检索增强生成实践
7. RAG技术文档预处理过程
8. RAG技术文档检索过程 |
| 第十六部分: 增强企业私有知识方案- RAG方案对比 |
1. 通用大模型vs私有大模型,及应该如何选择
2. 如何增加企业私有知识-提示词工程,RAG,模型微调
3. 提示词工程增加样本,实现私有知识的最佳实践
4. 模型微调的最佳实践和难点分析
5. 哪些情况需要企业搭建针对性的私有大模型
6. 深入理解:大模型训练vs模型微调vs增强检索RAG的核心区别、实施成本、实施难度、和应用场景定位
7. 企业私有化知识的推荐方案-RAG增加检索
8. 提示工程、RAG与微调对比
9. 从用户角度看RAG流程
10. 通过RAG实现私有知识适应 |
| 第4章 实战案例分析-构建测试智能体 |
| 第十七部分:每一位工程师都需要的—助理 Agent智能体开发概述 |
1. 智能体的定义与特点
2. 智能体与传统软件的关系
3. 智能体与LLM的关系
4. 从ChatGPT到智能体
5. 智能体的五种能力
6. 记忆,规划,工具,自主决策,推理
7. 多智能体协作
8. 企业级智能体应用与任务规划
9. 软件开发工程师的Agent助手
10. 案例分析-如何为每一位工程师研发工程助理 |
| 第十八章 开发Agent的流程与策略-以Coze平台为主 |
1. 开发Agent的通用流程
2. 开发Agent的实施框架
3. 规划Agent和设计Agent和上线Agent
4. 开发Agent的策略
5. 懂场景和业务,比懂AI技术更重要
6. 使用工具拓展能力,是Agent具有价值的关键
7. 坚持小而美,聚焦特定的应用场景和功能 |
| 第十九部分: 实战案例-测试用例自动化生成Agent |
1. 测试用例自动化生成智能体的需求
2. 测试用例自动化生成智能体的架构设计
3. 测试用例自动化生成智能体主要功能分析
4. 支持多格式数据源:需求来源支持文本文档,语音或者视频资料。
5. 无缝对接现有平台:生成的测试用例可以直接导入现有用例数据库。
6. 自动化用例生成:系统能够自动创建测试用例,减少手动编写的需求。
7. 全面场景覆盖:工具能够识别并生成覆盖所有业务场景的测试用例,包括正常、异常和边缘情况。
8. 标准化用例格式:确保所有生成的测试用例遵循统一的格式和标准。
9. 敏捷开发支持:快速适应需求变更,及时生成新的测试用例。
10. 自学习优化:系统能够基于历史数据和反馈自我学习和优化测试用例生成策略。
11. 应用案例分析 |
| 第二十部分: 实战案例-缺陷分析 Agent |
1. 缺陷分析及定位Agent智能体需求
2. 缺陷分析智能体架构设计
3. 缺陷分析智能体实现
4. 缺陷分析智能体主要功能和特点
5. 自动化缺陷识别:智能体能够自动扫描软件代码,利用静态代码分析等技术识别潜在的缺陷和错误。
6. 历史缺陷模式学习:智能体通过分析历史缺陷数据,使用机器学习算法学习并预测可能的缺陷模式。多模态数据分析:智能体能够处理和分析代码、文档、用户反馈等多种数据类型,以全面理解缺陷报告。
7. 性能优化:智能体能够通过算法和模型的不断优化,提高缺陷分析和修复的效率。 |
| 第二十一部分: 实战案例-接口自动化框架及智能体 |
1. 接口自动化框架及智能体需求
2. 接口自动化框架及智能体的架构设计
3. 接口自动化框架及智能体的实现
4. 接口自动化框架及智能体的主要功能
5. YAML/JSON测试用例:使用 YAML/JSON 编写清晰、易于维护的测试用例。
6. 参数化与数据驱动:支持参数化和数据驱动测试,提高测试用例的复用性。
7. 自动化测试报告:自动生成包含详细请求和响应信息的测试报告。 |