还剩58页未读,继续阅读
本资源只提供10页预览,全部文档请下载后查看!喜欢就下载吧,查找使用更方便
文本内容:
高级机器学习理论与实践课程概述与学习目标课程内容学习目标本课程涵盖机器学习的各个方面,包括监督学习、无监督学习、深度学习、强化学习、生成模型、图神经网络和因果推断等机器学习基础回顾机器学习的目标是让计算机从机器学习的核心要素包括数数据中学习,并做出预测或决据、算法、模型、评估和应策用监督学习与非监督学习的区别监督学习无监督学习监督学习是指从标记数据中学习,模型可以根据已知的输入和输无监督学习是指从未标记数据中学习,模型需要自行发现数据中出关系进行预测的规律和模式深度学习框架对比TensorFlow PyTorch是一个强大的开源深是一个灵活且易于使用TensorFlow PyTorch度学习框架,适用于各种规模的的深度学习框架,在研究和开发项目中很受欢迎Keras是一个高层神经网络,可以运行在或等后端Keras APITensorFlow Theano之上数学基础线性代数复习向量、矩阵和张量是线矩阵乘法、逆矩阵、特线性代数为理解深度学性代数中的基本概念征值和特征向量是重要习中的矩阵运算和梯度的数学工具下降算法提供了基础数学基础概率论基础概率分布1常见概率分布包括正态分布、伯努利分布和泊松分布期望和方差2期望和方差是用来描述随机变量的中心趋势和离散程度贝叶斯定理3贝叶斯定理可以用来更新先验概率,得到后验概率数学基础最优化理论梯度下降梯度下降算法是一种常用的优化算法,用于寻找函数的最小值牛顿法牛顿法是一种基于二阶导数的优化算法,通常收敛速度更快随机梯度下降随机梯度下降算法是梯度下降算法的一种变体,适用于大规模数据集损失函数的选择与设计均方误差交叉熵1适用于回归问题适用于分类问题2自定义损失4铰链损失3根据特定任务设计损失函数适用于支持向量机模型评估指标详解准确率1正确预测的样本数量占总样本数量的比例精确率2正确预测的正样本数量占所有预测为正样本的数量的比例召回率3正确预测的正样本数量占所有真实正样本数量的比例F1分数4精确率和召回率的调和平均数AUC5曲线下的面积,反映模型对正负样本的区分能力ROC过拟合与欠拟合的处理过拟合1模型过度学习训练数据,导致在测试集上表现不佳欠拟合2模型没有学习到训练数据的规律,导致在训练集和测试集上表现都不佳处理方法3正则化、数据增强、交叉验证、模型集成等正则化技术深度解析正则化对模型参数施加范数惩罚,可L1L1以使模型参数稀疏,提高泛化能力正则化对模型参数施加范数惩罚,可L2L2以抑制参数过大,防止过拟合在训练过程中随机丢弃一部分神Dropout经元,可以防止模型过度依赖特定神经元降维技术详解PCA12主成分分析特征提取一种常用的降维技术,可以将高维数可以提取数据中的主要成分,保PCA据降维到低维空间留数据中的大部分信息3数据可视化可以将高维数据降维到二维或三PCA维空间,方便进行数据可视化降维技术原理t-SNE降维技术算法UMAP高维数据降维结果集成学习基础方法详解Bagging原理优点是的缩写,通过对训练数据进行可以降低模型方差,提高模型的泛化能力Bagging BootstrapAggregating Bagging多次随机采样,训练多个模型,最后将多个模型的预测结果进行平均或投票,从而得到最终预测结果算法家族Boosting1Adaboost2Gradient Boosting算法通过不断调整样算法通过Adaboost GradientBoosting本权重,将多个弱分类器组合梯度下降的方式,逐步构建多成强分类器个弱学习器3XGBoost是一种高效的梯度提升算法,在很多机器学习竞赛中取得了优XGBoost异的成绩原理与实现XGBoost树结构1使用树结构作为弱学习器XGBoost梯度提升2通过梯度下降的方式,逐步构建多个树模型XGBoost正则化3使用了和正则化,以防止过拟合XGBoost L1L2框架解析LightGBM速度快算法通过采用高效的算法和数据结构,实现了比LightGBM更快的训练速度XGBoost内存消耗低算法通过使用高效的数据结构,减少了内存消耗LightGBM精度高算法在很多任务上都达到了比更高的精度LightGBM XGBoost深度神经网络架构多层感知机卷积神经网络多层感知机是深度神经网络的基卷积神经网络擅长处理图像数础,由多个神经元层组成据,利用卷积操作提取图像特征循环神经网络循环神经网络擅长处理序列数据,可以记忆之前的信息卷积神经网络进阶池化层2通过池化操作降低特征维度,减少计算量卷积层1通过卷积操作提取图像特征全连接层3将卷积层提取的特征映射到输出空间循环神经网络及其变体RNN1基本的循环神经网络,可以处理序列数据LSTM2长短期记忆网络,可以解决的梯度消失问题RNNGRU3门控循环单元,比更简单,但性能也略差LSTM网络详解LSTM遗忘门1控制哪些信息应该被遗忘输入门2控制哪些信息应该被写入到记忆单元输出门3控制哪些信息应该被输出架构解析Transformer12编码器解码器将输入序列编码成特征向量根据编码器的特征向量生成输出序列3注意力机制使用注意力机制来捕捉Transformer序列之间的依赖关系注意力机制深度剖析自注意力机制实现权重矩阵值矩阵迁移学习理论基础预训练模型应用自然语言处理计算机视觉、等预训练模型可以用于各种自然语言处理任务,例、等预训练模型可以用于各种计算机视觉任务,例如BERT GPT-3ResNet VGG如文本分类、问答、机器翻译等图像分类、目标检测、图像分割等少样本学习技术数据增强1通过数据增强技术,生成更多训练样本元学习2使用元学习算法,学习如何从少量样本中学习迁移学习3将已有的知识迁移到新的任务中零样本学习方法属性描述使用属性描述来表示不同类别语义嵌入将属性描述映射到低维空间分类预测根据语义相似度进行分类预测元学习算法详解模型无关元学习学习如何优化模型,而不依赖于特定的模型结构模型相关元学习学习特定模型结构的优化方法强化学习基础智能体,执行动作并接环境,提供状态信息并奖励,评估智能体行为收奖励接收动作的好坏算法Q-learning策略梯度方法策略网络价值函数深度解析DQN原理优势是一种将深度学习与相结合的算法,使用神经网可以处理高维状态空间,提高强化学习的效率DQN Q-learning DQN络来逼近函数Q框架Actor-Critic1Actor2Critic负责选择动作负责评估动作的价值协同学习3和相互协作,共同学习最优策略Actor Critic生成对抗网络原理生成器1生成假数据,试图欺骗判别器判别器2判别真假数据,试图识别生成器的假数据对抗训练3生成器和判别器相互对抗,共同学习架构详解DCGAN卷积生成器使用卷积操作生成图像数据卷积判别器使用卷积操作判别真假图像数据条件生成对抗网络文本到图像生成根据文本描述生成图像图像到图像翻译将一种图像转换为另一种图像自编码器理论解码器2将低维特征向量还原成原始数据编码器1将输入数据压缩成低维特征向量重建误差通过最小化重建误差来训练自编码器3变分自编码器概率分布1使用概率分布来表示数据的潜在表示变分推断2使用变分推断来学习数据的潜在表示生成模型3可以从数据的潜在表示中生成新的数据对比学习方法相似样本1来自同一类别的样本不同样本2来自不同类别的样本对比损失3通过对比损失来学习数据的相似性自监督学习技术12掩码自编码器对比学习通过掩盖部分输入,学习数据的重建通过对比学习,学习数据的相似性能力3生成对抗网络通过对抗训练,学习生成数据的分布图神经网络基础图卷积网络图结构卷积滤波器图注意力网络节点特征注意力机制聚合操作每个节点都包含一些特征信息使用注意力机制来学习节点之间的关将邻居节点的信息进行聚合系知识图谱应用信息检索问答系统12通过知识图谱,可以更有效地知识图谱可以帮助问答系统理检索信息解用户的意图,并给出更准确的答案推荐系统3知识图谱可以为推荐系统提供更丰富的用户和商品信息因果推断基础贝叶斯深度学习先验分布1对模型参数的先验知识似然函数2数据在给定模型参数下的概率后验分布3模型参数在给定数据下的概率概率图模型贝叶斯网络使用有向图来表示变量之间的依赖关系马尔可夫随机场使用无向图来表示变量之间的依赖关系不确定性建模概率模型使用概率分布来描述模型的不确定性贝叶斯推理使用贝叶斯推理来更新模型参数的置信度模型解释性方法特征重要性分析,识别影响模型预测的关决策树模型,可以直观地解释模型的预测值,衡量每个特征对模型预测的贡Shapley键特征逻辑献模型压缩技术量化与剪枝量化剪枝将模型参数转换成更小的数据类型,例如将浮点数转换成整数删除模型中不重要的连接或神经元,例如删除权重较小的连接分布式训练技术数据并行模型并行12将数据分成多个部分,在多个将模型分成多个部分,在多个机器上进行训练机器上进行训练参数服务器3使用参数服务器来存储和更新模型参数模型部署最佳实践模型选择1选择最适合任务的模型模型优化2对模型进行优化,提高模型的性能模型部署3将模型部署到生产环境模型监控4监控模型的性能,及时进行更新技术AutoML自动特征工程自动选择和提取特征,提高模型的性能自动模型选择自动选择最适合任务的模型自动超参数优化自动搜索最佳的超参数设置神经架构搜索强化学习进化算法梯度下降使用强化学习来搜索最佳的模型架使用进化算法来搜索最佳的模型架使用梯度下降来搜索最佳的模型架构构构超参数优化方法。
个人认证
优秀文档
获得点赞 0