求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center 汽车系统工程   模型库  
会员   
 
 
 
  开班计划 | 认证培训 | 技术学院 | 管理学院 | 嵌入式学院 | 机械 | 军工学院 | 定向培养 | 专家指导 | 角色培养  
 电话 English
成功案例   品质保证
成功案例
中航信 数据湖架构原理与应
某医疗磁 数据采集与处理
某科技公 大数据(Hadoo
诺基亚 Python基础
天津电子 Elasticse
中国电信 数据仓库与数据挖掘
某航天科 MySQL性能优化

相关课程  
并发、大容量、高性能数据库
高级数据库架构设计师
Hadoop原理与实践
HBase原理与高级应用
Oracle 数据仓库
数据仓库和数据挖掘
Oracle数据库开发与管理
 
全部课程 >人工智能  
深度学习原理与实战
47 次浏览  3 次
刘老师
哈佛大学人工智能方向博后/高级访问学者,德高包豪斯大学媒体学员计算机视觉方向访问学者
前华为公司数据科学家,浙江大学计算机专业工学博士
 
时间地点:北京、上海、 深圳 根据报名开班
课程费用:5000元/人
报公开课  
企业内训:可以根据企业需求,定制内训,详见 内训学习手册


认证方式:
培训前了解能力模型。
培训后进行能力评测:
  • 在线考试
  • 能力分析,给出学习建议
  • 合格者颁发证书,作为职业技能资格证明


       深度学习是人工智能的重要引擎,也是推动图像识别、自然语言处理和智能决策快速发展的核心技术。本课程以主流深度学习框架(如 TensorFlow 与 PyTorch )为基础,系统讲解深度学习的基本概念、模型结构与应用方法,帮助学员快速入门并逐步深入掌握深度学习技术。课程从环境搭建与工具使用开始,逐步引导学员理解并实践神经网络的构建与训练流程。

       在课程中,学员将系统学习包括前馈神经网络、卷积神经网络( CNN )、循环神经网络( RNN )、注意力机制与 Transformer 等在内的主流模型架构,并通过动手实验掌握从数据准备、模型搭建、训练调优到性能评估的完整流程。课程将结合计算机视觉、语音识别、文本生成等典型应用场景,带领学员解决真实问题。

    课程亮点:
        1. 主流框架,灵活扩展:课程基于 TensorFlow 与 PyTorch 等主流深度学习框架,支持跨平台与多硬件加速,帮助学员快速掌握核心工具,并具备迁移与扩展能力。
        2. 模型实战驱动:从基础神经网络到 CNN、RNN、Transformer 等前沿模型,学员将通过全程实践掌握模型构建、训练与调优,真正实现“会用、敢用、善用”。
        3. 贴近行业应用:聚焦图像识别、自然语言处理、推荐系统等典型业务场景,结合企业实际案例,提升学员将深度学习技术转化为业务价值的能力。
        4. 端到端流程掌握:课程覆盖从数据准备、特征表示、模型搭建、训练优化到模型部署与推理的全流程,帮助学员建立完整的深度学习项目思维。
        5. 进阶与体系化提升:不仅讲解算法原理,还融入最新研究进展与工程实践经验,帮助学员构建系统化的深度学习知识体系,并具备持续学习与独立创新的能力。
    培训目标:
        1. 掌握深度学习环境搭建方法:能够独立完成深度学习框架(如 PyTorch、TensorFlow)的安装与配置,熟悉 GPU 加速与常用工具的使用。
        2. 理解深度学习核心概念与原理:全面了解神经网络的基本结构、反向传播机制与优化方法,夯实深度学习理论基础。
        3. 熟练运用主流深度学习模型:掌握卷积神经网络(CNN)、循环神经网络(RNN)、Transformer 等主流模型的实现与优化技巧。
        4. 提升实战能力,完成完整项目流程:通过动手实践,掌握从数据准备、模型构建、训练调优到部署上线的完整流程操作。
        5. 解决实际业务问题,形成可落地方案:结合企业典型场景(如汽车视觉识别、金融风控、能源预测、制造质检),学会提出并实现可行的深度学习解决方案。
    培训对象:
    AI算法工程师,AI应用开发工程师
    学员基础:
    了解人工智能技术
    课程安排:2天

    安排
    主题
    神经网络与卷积神经网络核心原理
    神经元模型与前向传播
    • 感知机与决策边界:线性可分与几何直观
    • 仿射变换与参数:权重/偏置的作用与意义
    • 激活函数引入非线性:ReLU/SiLU 选型要点
    • 张量形状与批处理:batch×features 的数据流
    • 数值稳定性:溢出/下溢与归一化处理
    反向传播与梯度下降
    • 损失函数设计:交叉熵 vs MSE 的适配场景
    • 链式法则推导:自动微分与计算图思路
    • 优化器对比:SGD、Momentum、AdamW 取舍
    • 学习率策略:余弦退火、Warmup 的实效
    • 梯度问题:消失/爆炸与梯度裁剪、残差连接
    激活函数与正则化方法 • 激活函数曲线形态:饱和区与可导性影响训练
    • Dropout 机理:训练/推理时的缩放差异
    • 权重衰减与 L2:抑制过拟合的原理
    • BatchNorm/LayerNorm:归一化位置与效果
    • 数据增广与早停:提升泛化与防止过拟合
    卷积神经网络(CNN)结构与原理 • 卷积核/步幅/填充:对感受野与分辨率的影响
    • 池化策略:最大/平均池化与全局平均池化
    • 参数共享与稀疏连接:降低参数量与过拟合
    • 边界效应:valid/same 的差异与选择
    • 特征可视化:滤波器与特征图的解释
    典型网络架构解析(LeNet、ResNet 等) • LeNet-5:手写体识别中的启示
    • AlexNet:ReLU、Dropout、GPU 的突破
    • VGG:同尺寸卷积堆叠与参数规模权衡
    • ResNet:残差学习与瓶颈结构
    • ViT/ConvNeXt:Transformer 思想在 CV 的迁移
    深度学习环境搭建与框架实践
    硬件选择:GPU/TPU 与资源规划 • CPU vs GPU:并行计算与吞吐差异
    • GPU 显存与 Batch Size:OOM 与梯度累积
    • 多卡/分布式:Data/Model/Hybrid 并行
    • TPU/云资源:性价比与预留弹性
    • 采购与预算:性能/成本/维护三角平衡
    常用环境与工具链
    • Python/Conda:虚拟环境与依赖隔离
    • Docker:镜像分层与可复现环境
    • Jupyter/VS Code:实验与调试工作流
    • 驱动/库版本:CUDA、cuDNN 与框架匹配
    • 版本冻结:requirements/lockfile 的实践
    框架对比:TensorFlow 与 PyTorch • 计算图范式:静态图 vs 动态图
    • 生态组件:TFX、TorchElastic、Lightning
    • 数据管道:tf.data vs DataLoader 性能点
    • 分布式训练:MirroredStrategy vs DDP
    • 选型建议:团队经验、生态与部署路径
    实战:构建第一个神经网络模型 • 数据集准备:划分/标准化/数据增广
    • 模型定义:层次结构与参数量估算
    • 训练循环:前向/反向/优化器调用
    • 评估指标:准确率、F1、AUC 选择
    • 可视化:损失/指标曲线与误差分析
    模型训练调优与实验管理 • 超参数网格/贝叶斯搜索:高效找优
    • 学习率与正则化:余弦退火、WD 配置
    • 早停与检查点:最优权重保存策略
    • 记录与追踪:TensorBoard/Weights&Biases
    • 复现实验:随机种子与确定性设置
    计算机视觉与自然语言处理应用
    图像分类与目标检测案例 • 分类基线:数据增广、MixUp/CutMix
    • 迁移学习:冻结/微调策略与层选择
    • 检测框架:YOLOv5/RT-DETR/Faster R-CNN
    • 评价指标:mAP、吞吐/延迟权衡
    • 业务案例:质检/安防/零售货架识别
    图像分割与智能制造应用
    • 语义/实例/全景分割:任务差异
    • U-Net/DeepLab:典型结构与适用场景
    • 轻量化分割:BiSeNet/SegFormer 实践点
    • 数据标注:多通道掩码与一致性审校
    • 产线落地:实时性与误检漏检平衡
    自然语言处理基础与词向量 • 词表示演进:One-hot→Word2Vec/GloVe
    • 子词与 OOV:BPE/WordPiece 的优势
    • 语言模型:n-gram→RNN→Transformer
    • 语义相似度:余弦距离与度量学习
    • 数据清洗:分词/停用词/规范化流程
    文本分类与情感分析 • 特征抽取:TF-IDF vs 表征学习
    • RNN/LSTM/GRU:序列建模优缺点
    • Transformer 分类头:CLS 与 Pooling
    • 失衡样本:重采样与加权损失
    • 评估与解释:F1/混淆矩阵/可解释性
    预训练大模型(BERT、GPT 等) • 预训练任务:MLM、CLM 与 SFT
    • 下游微调:全参、LoRA、Prefix-Tuning
    • Prompt 工程:少样本/思维链技巧
    • 检索增强 RAG:知识接入与更新
    • 成本与风险:延迟、幻觉与合规
    模型导出与推理优化(ONNX/TensorRT)
    硬件选择:GPU/TPU 与资源规划 • 导出流程:TorchScript/ONNX 导出要点
    • 图优化:层融合与常量折叠
    • 量化/剪枝/蒸馏:精度-性能权衡
    • 引擎加速:TensorRT/ONNX Runtime 实操点
    • 多平台部署:CPU/GPU/边缘设备适配
    服务化部署方式(API/微服务/容器)
    • 模型服务框架:TorchServe/Triton/TF Serving
    • API 设计:同步/异步与批处理
    • 容器与编排:Docker/K8s/Helm 基础
    • 灰度与回滚:金丝雀/蓝绿发布策略
    • 观测性:日志、指标、追踪三件套
    数据治理与隐私安全合规 • 数据生命周期:采集→存储→使用→销毁
    • 访问控制:最小权限与审计轨迹
    • 隐私计算:匿名化/差分隐私/联邦学习
    • 合规要点:数据主权与跨境规则意识
    • 风险管理:数据泄露预案与演练
    MLOps 与持续迭代优化 • CI/CD for ML:训练/推理双流水线
    • 特征/模型版本:注册表与谱系追踪
    • 在线监控:数据漂移/概念漂移检测
    • 自动再训练:触发条件与验收闸门
    • 成本控制:弹性伸缩与离线/在线分层
    企业 AI 战略与团队协作模式 • 价值落地地图:业务指标与用例优先级
    • 组织分工:DS/DE/ML/平台/产品协作
    • 研发流程:需求→实验→上线→评估闭环
    • 治理机制:模型评审与风险委员会
    • 成败复盘:里程碑、经验库与知识共享
    课程总结与答疑
       
    47 次浏览  3 次
    其他人还看了课程
    应用ChatGPT,挖掘更多机会  1002 次浏览
    机器学习系统实践  3334 次浏览
    机器学习原理与实战  24 次浏览
    大数据分析、AI算法与可视化技术应用实战  5538 次浏览
    机器人软件开发技术  4824 次浏览
    AI辅助高效编码与调试  410 次浏览
    深度学习建模实战  253 次浏览
    定制内训


    最新活动计划
    基于 UML 和EA进行分析设计 9-9[北京]
    软件架构设计方法、案例实践 9-24[北京]
    AI辅助软件测试方法与实践 9-26[北京]
    代码质量标准与评审方法 11-6[北京]
    OCSMP认证:OCSMP-MBF 11-18[北京]
    Web应用安全、入侵检测 12-11[北京]