还剩58页未读,继续阅读
本资源只提供10页预览,全部文档请下载后查看!喜欢就下载吧,查找使用更方便
文本内容:
深度学习原理课程概述1课程目标2学习内容掌握深度学习核心原理神经网络、CNN、RNN等模型先修知识第一章深度学习简介定义特点多层神经网络的机器学习方法自动特征提取优势处理复杂非线性问题什么是深度学习?定义与机器学习关系深度学习特点使用多层神经网络从数据中学习表示机器学习的子领域,特征自动学习层次结构,端到端学习深度学习的发展历史11943年McCulloch-Pitts神经元21986年反向传播算法32012年AlexNet引发革命42016年后深度学习全面爆发深度学习的应用领域计算机视觉自然语言处理语音识别图像识别、目标检测机器翻译、情感分析语音助手、实时翻译其他领域游戏AI、自动驾驶第二章神经网络基础复杂网络1深度架构学习算法2反向传播激活函数3非线性变换神经元4基本计算单元人工神经元模型数学模型加权和+激活函数,y=f∑wixi+b生物神经元类比树突-细胞体-轴突对应输入-计算-输出激活函数Sigmoid ReLUTanh输出范围0,1,早期常用max0,x,现代网络主流输出范围-1,1,零中心化前向传播输入层接收原始数据隐藏层加权求和+激活函数输出层生成预测结果损失函数均方误差MSE交叉熵回归问题常用,y-ŷ²的平均分类问题标准,-∑y·logŷ作用量化模型预测与真实值差距反向传播算法前向计算获取预测值计算损失对比预测与真实值求梯度使用链式法则计算每层参数梯度更新权重权重-学习率×梯度优化算法SGD最基本,容易振荡Adam自适应学习率,收敛快RMSprop解决梯度爆炸/消失第三章深度神经网络RNNCNN序列数据处理2空间特征学习1GAN3生成建模5自编码器4Transformer无监督学习注意力机制多层感知机()MLP优点缺点•简单易实现•参数量大•通用函数逼近•空间关系丢失结构输入层+多个隐藏层+输出层卷积神经网络()CNN卷积层池化层全连接层通过卷积核提取局部特征降维,提取主要特征最终分类/回归架构CNNLeNet19981手写数字识别先驱2AlexNet2012深度CNN突破,赢得ImageNetVGG20143使用小卷积核堆叠4ResNet2015残差连接,解决深层训练循环神经网络()RNNLSTM GRU结构三门结构,解决长期依赖简化版LSTM,参数更少带循环连接,处理序列自编码器输入原始数据编码器压缩到潜在空间潜在表示低维特征解码器重建原始数据1应用降维、去噪、特征学习2变体变分自编码器VAE、堆叠自编码器生成对抗网络()GAN判别器评估2区分真实与生成数据生成器创建样本1从随机噪声生成假数据生成器改进通过对抗学习提高质量3双网络博弈过程,最终达到纳什均衡第四章深度学习模型训练模型部署1实际应用调优评估2提高性能训练过程3参数学习数据准备4预处理数据预处理标准化转换为均值0方差1,z=x-μ/σ归一化缩放到[0,1]或[-1,1]区间数据增强旋转、缩放、裁剪扩充样本缺失值处理填充、删除或预测批量处理Mini-batch每次使用数据子集训练,平衡效率与精度批量归一化标准化每层输入,加速收敛过拟合问题定义表现检测模型过于复杂,记住训练数据细节训练误差低但测试误差高交叉验证,早停法正则化技术L1正则化L2正则化Dropout添加权重绝对值和惩添加权重平方和惩训练时随机关闭神经罚,产生稀疏罚,权重更小元,防止共适应数据增强扩充训练集,提高泛化能力超参数调优定义搜索空间学习率、层数、神经元数量等网格搜索穷举所有组合,计算开销大随机搜索随机采样,效率更高贝叶斯优化基于先验结果指导搜索迁移学习应用场景方法•数据量少•特征提取•任务相似•微调•计算资源受限•多任务学习概念利用预训练模型知识解决新任务第五章计算机视觉应用1主要任务2关键技术分类、检测、分割、识别、生成CNN架构、特征提取、迁移学习图像分类常用数据集评估指标•MNIST手写数字•准确率•CIFAR-1010类物体•精确率/召回率•ImageNet1000类物体•F1分数原理CNN提取特征,全连接分类目标检测1R-CNN系列区域提议+CNN分类,精确但慢2YOLO系列单次检测,实时性好3SSD多尺度特征图检测4RetinaNet引入Focal Loss解决类别不平衡语义分割FCN U-Net DeepLab全卷积网络,像素级分类U形编解码结构,医学图像分割空洞卷积+CRF,边界精确人脸识别人脸检测定位人脸位置人脸对齐标准化姿态特征提取学习身份表示匹配/分类相似度计算深度模型FaceNet、ArcFace、CosFace图像生成1风格迁移2图像超分辨率将一幅图的艺术风格应用到另一幅图提高低分辨率图像质量3图像修复4图像合成填补图像缺失区域文本转图像,条件生成第六章自然语言处理应用机器翻译文本分类2语言间转换情感分析、主题识别1问答系统3自动回答问题命名实体识别5文本生成识别文本中实体4创作文本内容词嵌入优势Word2Vec捕捉语义关系,king-GloVeCBOW和Skip-gram模型,词向量学man+woman≈queen习基于全局词共现统计的词表示序列到序列模型基本架构机器翻译文本摘要编码器-解码器架构源语言句子转目标语言长文本压缩为短摘要注意力机制基本原理Self-Attention加权关注输入序列的不同部分序列内部元素相互关注Multi-Head Attention优势多组注意力并行计算解决长距离依赖,并行计算模型Transformer核心组件应用•多头注意力•机器翻译•位置编码•文本生成•前馈网络•大规模预训练结构编码器-解码器,全注意力机制和BERT GPT预训练微调应用大规模无标注文本特定下游任务广泛NLP任务BERT双向Transformer,掩码语言模型GPT单向Transformer,自回归语言模型第七章语音识别与合成自然对话1语音互动语音合成2文本转语音语音识别3语音转文本声学处理4特征提取语音识别基础处理流程语言模型预处理特征提取解码后处理→→→声学模型预测词序列概率音频信号到音素映射深度学习在语音识别中的应用1DNN-HMM神经网络声学建模+隐马尔可夫状态转移2RNN/LSTM序列建模,捕捉时序依赖3CTC端到端训练,无需精确对齐4Attention-based编码器-解码器+注意力机制语音合成技术传统方法WaveNet Tacotron拼接式和参数式合成自回归CNN生成原始波形端到端生成梅尔频谱,与声码器结合第八章强化学习环境智能体1提供状态和奖励选择动作2策略奖励43学习最优决策评估动作好坏目标最大化长期累积奖励强化学习基础马尔可夫决策过程MDP状态、动作、转移概率、奖励、折扣因子价值函数评估状态或动作的长期回报Q-learning学习动作-价值函数,离线学习探索与利用尝试新动作与使用已知最优动作的平衡深度强化学习DQNPolicy Gradient深度网络近似Q函数,经验回放+目标网络直接优化策略,REINFORCE算法Actor-Critic结合策略和价值学习,A3C/A2C应用案例AlphaGo/AlphaZero机器人控制自动驾驶围棋、国际象棋、将棋超人类水平运动规划、抓取操作路径规划、决策控制第九章深度学习框架TensorFlow PyTorchKerasGoogle开发,工业部Facebook开发,研究高级API,快速原型署优势友好设计MXNetAmazon支持,多语言简介TensorFlow1计算图静态图定义后编译执行2TensorFlow
2.0特点即时执行模式,更直观3部署优势TensorFlow Serving,移动端TFLite4可视化工具TensorBoard监控训练过程简介PyTorch优势•Pythonic风格•研究友好•自然语言处理强大动态图自动求导边定义边执行,灵活调试动态构建计算图,自动计算梯度其他框架对比TensorFlow PyTorchKeras MXNet各框架都有各自优势,选择应基于项目需求第十章深度学习硬件GPU TPUFPGA并行计算加速,主流训练硬件谷歌定制AI芯片,高效矩阵运算可编程门阵列,低功耗推理加速GPU优势•并行计算能力强•矩阵运算高效•生态系统成熟CUDAcuDNNNVIDIA并行计算平台,GPU编程深度神经网络库,优化基础操作和TPU FPGATPU原理TPU优势专用矩阵乘法单元,为深度学习优化性能/功耗比高,规模化训练FPGA特点FPGA应用硬件可重配置,定制化加速边缘计算,低延迟推理分布式训练同步与异步•同步等待所有更新•异步独立更新,收敛难数据并行模型并行模型复制,每份处理不同数据批次模型分割到不同设备,适合大模型第十一章深度学习前沿研究前沿少样本学习、自动架构设计、可解释AI、隐私保护学习、节能AI元学习1定义学习如何学习,快速适应新任务2Few-shot学习从少量样本学习新类别3MAML模型无关元学习算法4原型网络基于原型表示的度量学习神经架构搜索()NAS性能评估2训练模型测试准确率架构生成1搜索空间中采样候选架构搜索策略更新强化学习/进化算法指导搜索3自动设计神经网络架构,减少人工设计工作量可解释性AI模型可视化局部解释概念分析卷积滤波器、特征图、注意力图LIME、SHAP值解释单个预测TCAV分析高层语义概念总结与展望未来趋势1自监督学习、多模态融合现实挑战2效率、隐私、安全、伦理核心技术3优化算法、模型架构、硬件加速基础理论4数学模型、统计学习、优化理论深度学习正在改变我们的世界,持续学习至关重要。
个人认证
优秀文档
获得点赞 0