主题 |
课程安排 |
大语言模型技术与应用概览 |
大语言模型技术 |
• AI技术概览
• AI技术的四要素
• AI模型的研发流程
• 深度学习与神经网络
• 大语言模型的定义和特点
• 大语言模型技术演变简史
• 大语言模型训练方法和优化技术
• 大模型面临的挑战
|
大模型在各领域的发展与应用 |
• AI在各行业的落地应用
• 个性化推荐系统
• 商品自动识别搜索
• 智能客服与AI助理
• 数据分析与市场订单趋势预测
• 商品描述与广告自动化生成
• 价格优化与动态定价策略
• 客户反馈分析
• 风险评估与预防欺诈
|
大语言模型Transformer核心技术 |
• Transformer核心原理
• Self-Attention
• 多头注意力机制
• 位置前馈网络
• 残差连接和层归一化
• 位置编码
• 解码器
• Mask(掩码)
• 最后的线性层和 Softmax 层
• 正则化操作
• 模型参数量
|
大模型优化与部署 |
大模型结果优化策略 |
• 增加上下文信息
• 模型后处理
• 大模型微调
• 多模型融合
• 【案例】生产环境数据抽检评测
• 【案例】badcase分析与优化推荐
|
主流大模型介绍 |
• ChatGPT
• Llama
• Qwen
• Llava
• deepseek
|
数据预处理 |
• 数据的重要性
• 数据质量
• 小模型+大数据
• 大模型+小数据
• 数据清洗
• 【案例】数据预处理案例
|
OLlama 部署应用 |
• OLlama简介
• 模型参数
• 网络安全隔离
• 部署OLlama环境
• OLlama常用操作命令
• 离线模型CLI接口
• 模型API接口
• API调用方式
• UI调试界面
• 模型微调
• 【案例】实现离线大模型人机对话 |
大模型评估与提示词工程 |
大模型评估方法 |
- 大模型评测主要指标
- 准确性
- 流畅性
- 多样性
- 相关性
- 一致性
- 安全性
- 效率
- 可解释性
- 泛化能力
- 适应性
- Opencompass 简介
- Opencompass 部署
- 评测集准备
- 【案例】利用 Opencompass 进行大模型评测
【案例】多模态大模型评测
|
提示词工程 |
- 什么是提示词工程?
- 提示词原理
- 如何设计有效提示词
- 提示词的基本结构
- 提示词优化方案
【案例】提示词返回精准答案
|
提示词库与脚本调用大模型 |
• 维护提示词库
• 关键词匹配
• 开发脚本调用大模型
• 【案例】一键式调用大模型
|
上机实践 |
• OLlama部署
• Qwen2.5模型部署
• 常用命令操作
• 3种方式调用大模型练习
• 部署Opencompass
• 进行大模型评测
• 提示词优化练习
• 运行一键式调用大模型
|
Agent技术应用与Dify部署 |
Agent概念与典型架构 |
• AI Agent 概述
• 感知层
• 决策层
• 执行层
• 学习与记忆层
• 安全与伦理层
|
Agent 开发框架和发展 |
• AI Agent 开发框架概述
• 典型框架介绍
• 深度学习在 AI Agent 中的应用
• 多Agent系统
|
Agent 与 LLM 集成 |
• 集成pipeline设计
• 自然语言输入处理
• 基于自然语言的决策
• 执行模块实现
• 自然语言输出生成
• 动作执行与控制
• 模型优化与调参
|
业界的典型案例介绍 |
• 对话系统
• 任务执行系统
• 智能客服系统
• 文本生成系统
• 编程助手
|
Dify 概述与主要功能 |
• Dify平台概述
• Dify的核心功能与优势
• Dify与其他平台对比
• 低代码/无代码开发模式
• 模块化设计与丰富的功能组件
• Prompt工程与模型微调
• 工作流与自动化任务
• 多模态应用开发
|
上机实践 |
• 部署Dify环境
• 启动Dify
• 从应用模版创建
• 创建Agent
• 选择大模型
• 创建聊天助手
• 创建工作流
• 多模态应用开发
|
RAG概述与应用 |
RAG 概述 |
• 什么是RAG
• RAG 架构
• 检索模块
• 生成模块
• 融合模块
|
构建本地知识库 |
• 什么是知识库
• 向量数据库
• 使用Embedding模型将文本转换为数值向量
• 导入文本
• 连接外部知识库
• 调试与优化RAG效果
|
上机实践 |
• 导入本地知识库
• 创建AI agent
• 实现智能对话
|
大模型在DevOps领域的应用 |
大模型在CICD中应用 |
大模型在全链路 CICD 中应用
|
代码理解与重构建议 |
• 代码重构概述
• 通过Llama进行代码解释
• 通过Llama进行代码重构
• 【案例】代码重构效果对比
|
缺陷检测与代码审查 |
• Code review概述
• Code review结果解析
• Code review结果推送
• 【案例】进行自动化code review |
白盒测试代码自动化生成 |
• Llama生成java单元测试代码
• 进行自动化单元测试执行
• 优化单元测试代码
• 【案例】白盒测试集成至CI流水线 |
研发自测自动化用例生成 |
• 生成自动化测试脚本
• 【案例Llama自动生成自动化用例
• 【案例】自动化用例集成至CI流水线 |
代码缺陷修复 |
常见代码缺陷类型
• 通过Llama进行代码缺陷修复
• 【案例】代码缺陷自动化检查 |
UI 自动化测试用例生成 |
优化提示词
• 生成selenium自动化测试用例脚本 |
代码质量评估 |
• 代码质量评价维度
• 开发代码质量评估脚本
• 【案例】实现提交代码分钟级质量评估反馈 |
大模型在智能化运维AIOps的应用 |
智能化运维自动化实践 |
• 生成Jenkins groovy脚本构建CI pipeline
• 根据历史数据做流量预测
• 智能告警与预警
• 监控图像分析与理解
• 智能故障诊断
• 智能故障自愈
|
智能化运维降本增效实践 |
• Docker file扫描优化实践
• 动态缩扩容实践
• 存储优化实践
• 机器资源配比优化实践 |
智能错误定位 |
• 日志等级与规范
• 分析错误日志
• 【案例】通过Llama进行错误自动化定位
• 【案例】通过Llama进行监控图像异常分析 |
高效利用 Llama |
• 下载docker镜像
• 启动docker pod
• 映射多接口地址
• 部署Nginx
• 配置Nginx实现轮询
• 实现接口并发处理
• 【案例】缺陷发现->缺陷修复->缺陷验证闭环 |
上机实践 |
• 利用大模型进行代码分析
• 利用大模型进行代码自动化生成 |
大模型技术趋势、挑战与应对策略 |
LLM 技术趋势 |
• 智力即服务(IQaaS)
• 多模态融合
• 跨学科融合
• 端+云的混合模型
• 可解释
• 高效训练与推理
• 人型机器人
• 边缘智能
• 物联网集成
|
企业应用前景 |
• 智能客服
• 编程助手
• 个人助理
• 智能创作
• 精准营销
• 智能运维
• 自动驾驶 |
挑战和应对策略 |
• 数据隐私与安全
• 计算资源需求
• 模型解释性和透明度
• 数据偏差和公平性
• 伦理和道德问题
• 用户体验与反馈闭环 |
上机实践 |
利用大模型与Agent实现智能化运维AIOps
|