还剩58页未读,继续阅读
本资源只提供10页预览,全部文档请下载后查看!喜欢就下载吧,查找使用更方便
文本内容:
系统与芯片DNN欢迎参加《DNN系统与芯片》课程,这是一门关于深度神经网络系统架构与专用芯片设计的综合性课程在这个人工智能快速发展的时代,深度学习已经渗透到我们生活的方方面面,而支撑这些智能应用的核心就是高效的DNN系统与专用芯片本课程将带领大家深入了解DNN的基本原理、系统架构、芯片设计、评测方法以及产业生态无论您是对人工智能芯片感兴趣的初学者,还是希望在这一领域深耕的研究者,这门课程都将为您提供全面而深入的知识体系课程概述课程目标学习内容掌握DNN系统与芯片的基本原课程内容涵盖DNN基础知识、理与设计方法,了解前沿技术系统架构、芯片设计技术、案发展趋势,培养AI芯片领域的例分析、评测方法、产业生态专业能力和创新思维通过系以及未来发展趋势等多个方面,统性学习,使学生能够理解并从理论到实践,全面覆盖DNN参与DNN芯片的设计与优化工芯片领域的关键知识点作考核方式课程考核包括平时作业(30%)、课堂讨论(10%)、项目设计(30%)和期末考试(30%)项目设计要求学生完成一个DNN加速器的简化设计,并进行性能评估第一部分基础DNN神经网络基础了解人工神经元结构,神经网络发展历史,以及基本数学模型,为深入学习DNN奠定基础深度学习模型学习常见的深度学习模型结构,包括CNN、RNN、Transformer等,理解它们的设计原理和适用场景训练与优化掌握神经网络训练的核心算法,包括反向传播、梯度下降等优化方法,以及批处理、正则化等训练技巧性能评估学习评估DNN模型性能的指标和方法,理解准确率、召回率、F1分数等评价指标的含义和应用什么是深度神经网络()?DNN定义与传统神经网络的区别深度神经网络是一种含有多个隐藏传统神经网络通常只有1-2个隐藏层的人工神经网络,通过多层非线层,而DNN可以有数十甚至上百性变换,实现对数据的层次化特征个隐藏层这种深度结构使得网络提取和表示学习每一层由多个神能够学习更加复杂的特征表示,从经元组成,层与层之间通过权重连而处理更加复杂的问题接的优势DNN强大的特征自动提取能力,无需人工设计特征;具有优越的表示学习能力,可以发现数据中的潜在规律;具有端到端的学习能力,可以直接从原始数据学习到最终结果的发展历史DNN1943-1958神经元模型1943年,McCulloch和Pitts提出了首个数学神经元模型;1958年,Rosenblatt发明了感知机,这是第一个可以学习的神经网络模型1969-1986低谷与复兴1969年,Minsky和Papert指出单层感知机的局限性,导致研究陷入低谷;1986年,Hinton等人发表反向传播算法,使多层神经网络的训练成为可能2006-2012深度学习兴起2006年,Hinton提出深度信念网络;2012年,AlexNet在ImageNet竞赛中取得突破性成绩,深度学习开始引起广泛关注并迅速发展2012至今蓬勃发展各种深度学习模型不断涌现,如GAN、Transformer等;计算能力和数据量的增加进一步推动了深度学习的发展;专用硬件如GPU、TPU的出现加速了DNN的训练和推理的基本结构DNN输入层接收外部数据并传递给网络的第一层输入层的神经元数量等于输入特征的维度,如图像的像素数、文本的词向量维度等输入层不进行计算,只负责数据的传递隐藏层位于输入层和输出层之间的计算层DNN的核心特征是拥有多个隐藏层,每层执行不同级别的特征提取隐藏层通过激活函数引入非线性变换,增强网络的表达能力输出层产生网络最终预测结果的层输出层的神经元数量和激活函数取决于任务类型,如分类任务通常使用Softmax激活函数,回归任务可能使用线性激活函数常见的模型DNN前馈神经网络卷积神经网络()循环神经网络()CNN RNN最基本的深度神经网络结构,信息只从输专为处理具有网格结构的数据(如图像)设计用于处理序列数据的网络,具有记忆入层向输出层单向传播,层与层之间全连设计的网络通过卷积层、池化层和全连能力网络中的隐藏状态可以保存之前的接每个神经元接收上一层所有神经元的接层的组合,自动学习空间特征卷积操信息,使RNN能够处理变长序列输入输入,经过加权求和和激活函数处理后,作利用局部感受野和权重共享,大大减少LSTM和GRU是两种重要的RNN变体,解将结果传递给下一层了参数数量决了传统RNN的长期依赖问题适用于结构化数据处理,如表格数据分类、广泛应用于计算机视觉领域,如图像分类、广泛应用于自然语言处理、语音识别、时回归等任务结构简单但计算量大,参数目标检测、图像分割等代表模型有间序列预测等领域能够捕捉数据中的时冗余,在处理图像、语音等数据时效率较LeNet、AlexNet、VGG、ResNet等序依赖关系低的工作原理DNN前向传播损失计算信息从输入层流向输出层,每层根据权重比较网络输出与真实标签的差异,计算损和偏置计算输出通过将输入数据送入网失函数值常用的损失函数包括均方误差络,按照层次结构逐层计算,最终得到预(回归)和交叉熵(分类)等测结果梯度下降反向传播根据梯度信息更新网络参数,使损失函数误差从输出层向输入层反向传递,计算每值减小参数更新公式新参数=旧参数个参数的梯度通过链式法则,将损失函-学习率×梯度数对每层参数的偏导数传递回去的应用领域DNN计算机视觉深度学习彻底变革了计算机视觉领域,实现了图像分类、目标检测、图像分割、人脸识别等任务的突破性进展CNN是这一领域的主要模型,如ResNet可达到超越人类的图像分类准确率实际应用包括自动驾驶视觉系统、安防监控、医学影像分析等自然语言处理DNN在文本分类、情感分析、机器翻译、问答系统等NLP任务中表现卓越RNN、LSTM和Transformer等模型能够有效处理序列数据,捕捉语言的上下文信息代表性应用有智能客服、自动写作、语义搜索、语言翻译等语音识别深度学习模型如深度卷积神经网络和循环神经网络大幅提高了语音识别的准确率端到端的语音识别系统可以直接从原始音频信号学习到文本转录广泛应用于语音助手、实时翻译、会议记录、语音控制等场景第二部分系统架构DNN应用层面向用户的AI应用和服务框架层深度学习框架和工具系统层运行时环境和资源管理硬件层处理器和加速器DNN系统是一个复杂的软硬件协同系统,从底层硬件到上层应用形成一个完整的技术栈硬件层提供计算资源,系统层负责资源调度和管理,框架层提供编程接口和优化工具,应用层则面向最终用户提供AI服务高效的DNN系统需要在各层之间实现无缝协作,充分发挥硬件性能,同时为开发者提供良好的抽象和编程体验系统的基本组成DNN数据预处理包括数据收集、清洗、转换、增强和标注等环节高质量的数据是训练成功的基础,预处理步骤决定了模型能够学习到的信息质量模型训练通过优化算法和大量数据迭代更新模型参数训练过程计算密集,通常需要高性能硬件如GPU集群,并结合分布式训练策略以加速推理部署将训练好的模型部署到实际应用环境中推理阶段注重低延迟、高吞吐量和能效,针对不同场景可选择云端、边缘或端侧部署方式训练系统架构DNN单机训练所有训练过程在单台计算机上完成,可利用多核CPU或多个GPU适用于中小规模模型和数据集,架构简单,易于实现和调试典型配置包括多GPU服务器,如8×NVIDIA V100/A100的服务器面临的主要挑战是计算资源有限,难以应对超大规模模型训练单机多GPU训练需要解决GPU间通信和内存管理问题分布式训练将训练任务分散到多台计算机上并行执行常见的并行策略包括数据并行、模型并行和混合并行数据并行将数据分割到不同节点,各节点拥有完整模型副本;模型并行将模型分割到不同节点,适用于超大模型关键技术包括高效的通信原语(如AllReduce)、梯度同步/异步更新策略、容错机制等参数服务器架构一种特殊的分布式训练架构,将系统分为参数服务器和工作节点参数服务器存储和更新模型参数,工作节点负责计算梯度这种架构灵活性高,便于扩展,但可能存在参数服务器成为瓶颈的问题近年来,基于AllReduce的去中心化架构逐渐取代参数服务器架构,特别是在GPU集群训练中推理系统架构DNN云端推理边缘推理在数据中心部署推理服务,具有强大的计算能在网络边缘节点(如基站、网关)部署推理服力和资源灵活性适用于复杂模型和高吞吐量务,兼顾计算能力和网络延迟场景•优势低延迟、减轻云端负担、降低带宽•优势计算资源丰富,可部署大模型需求•挑战网络延迟、服务成本、隐私问题•挑战计算资源受限、管理复杂性端侧推理混合推理直接在终端设备(如手机、IoT设备)上进行结合云端、边缘和端侧推理的优势,根据任务推理计算,数据本地处理特性动态分配计算资源•优势实时响应、保护隐私、离线工作能•优势资源利用率高、适应性强力•挑战系统复杂度高、协调开销大•挑战算力有限、能耗约束、存储空间小框架介绍DNNTensorFlow PyTorchMXNet由Google开发的开源深度学习框架,基于由Facebook开发的开源深度学习框架,以一个轻量级、可扩展的深度学习框架,由数据流图计算TensorFlow
2.0引入了即动态计算图和Python风格的编程接口著称Apache基金会支持,Amazon AWS采用时执行模式,提高了易用性为首选深度学习框架优势生产环境支持强大,部署工具丰富,优势直观易用的API,动态计算图便于调优势支持命令式和符号式编程,具有出色TensorFlow Lite和TensorFlow.js支持移试,卓越的研究生产力,广泛应用于学术界的扩展性和内存效率,支持多种编程语言如动和Web部署生态系统完善,有PyTorch
1.0后加强了生产部署能力,通过Python、R、Julia等Gluon API提供了类TensorFlow Extended等工具链TorchScript实现静态图优化似PyTorch的灵活接口优化技术DNN模型压缩量化剪枝减小模型大小的技术总称,包括知识蒸馏、将模型参数和计算从高精度(如32位浮点移除神经网络中不重要的连接或神经元,低秩分解和模型剪枝等方法知识蒸馏通数)转换为低精度表示(如8位整数)的过减少计算复杂度剪枝方法包括结构化剪过教师-学生模型传递知识,将大模型的能程量化可分为训练后量化和量化感知训枝(移除整个卷积核或通道)和非结构化力迁移到小模型中低秩分解将高维权重练训练后量化直接将训练好的模型参数剪枝(移除单个权重)重要性评估方法矩阵分解为低维矩阵的乘积,减少参数数转为低精度;量化感知训练在训练过程中有基于幅值的剪枝、基于敏感度的剪枝等量这些技术可显著减小模型体积,使其模拟量化效果,使模型适应低精度计算剪枝通常结合再训练过程,恢复模型精度适合在资源受限设备上部署量化可大幅降低模型大小和推理延迟,同高效剪枝可保持精度的同时大幅减少计算时提高能效量第三部分芯片设计基础DNNDNN芯片设计是一个复杂的系统工程,需要结合深度学习算法特性和硬件架构优化原则,实现高效的神经网络加速器第三部分将详细介绍DNN芯片的设计基础,包括设计动机、基本架构、关键技术以及性能评估方法等内容我们将讨论为什么需要专用的DNN芯片,研究各种DNN芯片架构和它们的设计原则,探讨计算单元设计、存储层次结构和数据流设计等关键技术通过这部分学习,同学们将能够理解DNN芯片的工作原理和设计方法为什么需要专用芯片?DNN通用处理器的局限性计算特点DNN传统CPU架构以串行处理为主,不计算密集型大量矩阵乘法和卷积适合神经网络大规模并行计算;虽运算;规律性强操作模式固定,然GPU具有并行计算能力,但其控制逻辑简单;并行度高可以在架构针对图形渲染优化,对于某些数据和模型层面实现大规模并行;DNN操作效率不高;通用处理器访存密集需要频繁读取权重和特的内存带宽和缓存结构也不完全匹征图数据,存储带宽要求高配DNN的数据访问模式能效和性能需求云端AI服务器要求极高的吞吐量和能效比;移动设备和物联网终端有严格的功耗和面积限制;实时应用如自动驾驶需要低延迟;专用芯片可针对这些特定需求进行优化,提供10-100倍的性能和能效提升芯片设计目标DNN高吞吐量低功耗提高单位时间内处理的数据量,支持大规减少计算和数据移动的能耗,提高能效比模并行计算通过优化计算单元阵列、流TOPS/W采用低功耗设计技术,如门水线设计和调度策略,最大化硬件利用率控时钟、动态电压频率调整等灵活性低延迟支持多种网络结构和算法,适应AI技术的降低单次推理的响应时间,满足实时应用快速发展提供可编程接口和灵活的计算需求通过优化内存访问模式、减少数据资源配置能力传输距离来降低延迟芯片架构分类DNN应用专用集成电路现场可编程门阵列定制ASICFPGAGPU为特定深度学习任务定制的芯片,硬件完通过硬件描述语言可重配置的芯片,能够在传统GPU架构基础上,添加专门针对深全针对DNN计算优化实现定制硬件加速器度学习的硬件加速单元•优势最高的性能和能效,适合大规•优势可重配置,开发周期短,适合•优势兼顾通用计算能力和DNN加速,模部署快速原型验证生态系统完善•劣势灵活性低,开发成本高,设计•劣势性能和能效低于ASIC,资源有•劣势能效比低于专用ASIC,灵活性周期长限,成本较高与效率的折中•代表产品Google TPU、华为昇腾、•代表产品Intel/Altera、Xilinx AI加•代表产品NVIDIA Tensor Core寒武纪MLU速解决方案GPU、AMD CDNA架构芯片关键技术DNN芯片系统架构整体硬件规划与资源分配并行计算2多维并行架构设计存储优化3多级存储层次与带宽提升数据流设计高效数据传输与复用策略DNN芯片设计中的关键技术形成了一个相互依存的体系芯片系统架构决定了整体硬件资源的组织方式和功能划分,是其他技术的顶层设计并行计算策略通过多维并行性充分利用硬件资源,提高计算效率存储优化技术通过精心设计的多级存储层次结构,减少数据移动和能耗数据流设计则是整个系统的基础,它定义了数据如何在芯片内流动和复用,直接影响计算效率和能耗这些技术协同工作,共同决定了DNN芯片的性能和能效存储层次结构设计片上存储靠近计算单元的高速缓存,提供低延迟、高带宽数据访问典型组件包括寄存器文件、局部缓冲区和全局缓冲区寄存器直接服务于计算单元,容量最小但速度最快;局部缓冲区为计算阵列的一部分服务;全局缓冲区则被整个芯片共享,容量更大但访问速度较慢片外存储容量更大但访问延迟更高的内存,如DRAM、HBM和GDDR片外存储存放无法放入片上存储2的权重参数和大型特征图由于片外存储访问的高延迟和能耗,芯片设计中通常采用预取和批处理等技术来掩盖存储延迟,提高带宽利用率存储带宽优化通过各种技术提高存储系统整体性能常用策略包括数据压缩(减少传输数据量)、多级数据预取(掩盖访问延迟)、智能缓存替换策略(提高缓存命中率)、存储访问合并(减少访存次数)以及异构内存架构设计(平衡带宽、容量和功耗)计算单元设计阵列脉动阵列系统阵列MAC最基本的DNN计算单元结构,由大量乘加一种流式处理架构,数据沿着预定方向在处理更复杂的二维处理单元网络,支持多种数据流Multiply-Accumulate单元组成每个单元间流动,每个单元完成计算后将结果传递模式,具有更高的灵活性和可扩展性MAC执行权重与激活值的乘法并累加结果给相邻单元特点可以根据不同计算模式动态调整数据路特点结构简单、灵活性高,但数据复用效率特点数据复用效率高,控制逻辑简单,互连径,支持多种神经网络层的高效计算,但控制较低,适合小规模或需要频繁重配置的场景复杂度低,非常适合卷积和矩阵乘法代表实逻辑复杂代表产品如Graphcore的IPU采用典型实现如NVIDIA早期GPU中的CUDA核心现有Google TPU和寒武纪的DianNao系列类似架构数据流设计1权重无关数据流Weight2输出无关数据流Output3行无关数据流Row StationaryStationaryStationary将权重加载到计算单元中并固定,激活值将部分和保持在计算单元中,权重和激活一种混合策略,优化卷积计算中一行卷积和部分和在计算单元间移动这种设计最值流动以计算完整的输出这种设计减少核和输入特征图的重用它同时考虑了权大化了权重的重用,减少了权重的加载次了部分和的移动,避免了中间结果的频繁重、激活值和部分和的数据局部性,试图数和移动距离特别适合于权重数量大但传输,有助于降低能耗适合于输出特征在复杂的设计空间中找到平衡点适用于重用机会多的网络层,如全连接层其缺图较大的场景缺点是权重和激活值的重卷积神经网络,特别是当卷积核尺寸较大点是可能增加激活值和部分和的移动量,用效率可能不够理想,需要更多的数据传时效果更佳MIT的Eyeriss架构采用了这尤其是在特征图尺寸较大时输带宽种数据流设计第四部分芯片案例分析DNN1谷歌TPU2016首个面向深度学习的商用加速器,矩阵运算单元MXU基于脉动阵列设计2NVIDIA V1002017首次引入Tensor Core,大幅提升矩阵运算性能3寒武纪MLU1002018中国首个商用云端AI芯片,采用独特的智能处理器单元架构4华为昇腾9102019基于达芬奇架构,计算密度和能效比行业领先5新一代架构2020-至今更高性能、更低功耗、支持更多AI模型和应用场景第四部分将深入分析几个典型的DNN芯片案例,包括Google TPU、NVIDIA TeslaV
100、寒武纪MLU100和华为昇腾910等通过对这些商用芯片的架构特点、技术创新和性能表现的剖析,帮助学生理解DNN芯片设计的实际应用和演进趋势Google TPU架构特点性能分析TPUTensor ProcessingUnit采用脉TPU v1相比同期CPU和GPU,在深度学动阵列架构,核心是一个巨大的矩阵乘习推理任务上性能提升15-30倍,能效法单元MXU,由256×256个MAC组成提升30-80倍原因在于专用矩阵处采用权重无关数据流,将权重固定在计理单元提供高并行度;大容量片上缓冲算单元中片上存储包括统一缓冲区减少内存瓶颈;CISC指令集减少控制开UB,容量达24MB,极大减少了片外销;针对CNN和RNN等主流网络优化内存访问TPU v1主要针对8位整数推理TPU的设计简洁高效,但灵活性较低,优化,后续版本增加了浮点计算和训练主要适合已知且稳定的网络模型支持应用场景TPU最初用于Google搜索、翻译、Photos等产品的推理加速TPU v2/v3扩展到训练场景,并通过Cloud TPU向外部开放TPU Pod将多个TPU芯片通过高速互连组网,支持超大模型训练TPU EdgeCoral面向边缘计算场景,功耗和尺寸大幅降低TPU的发展路线体现了Google对AI全场景部署的战略布局NVIDIA TeslaV100架构技术GPU Tensor Core NVLinkTeslaV100基于NVIDIA Volta架构,采Tensor Core是V100最大的创新,专为NVLink是NVIDIA开发的高速GPU互连技用台积电12nm工艺,拥有
21.1亿个晶体管深度学习矩阵计算设计的专用硬件单元术,V100上每个NVLink接口提供芯片包含80个流处理器SM,每个SM包每个Tensor Core每时钟周期可执行一个25GB/s双向带宽,单芯片总共支持6个含64个FP32CUDA核心,32个FP64核心,4×4矩阵乘法累加操作D=A×B+C NVLink接口,总带宽达300GB/s以及8个TensorCore总共配备16GBNVLink解决了多GPU系统中PCIe带宽不HBM2显存,带宽达900GB/s使用混合精度计算FP16乘法+FP32累加,足的问题,支持GPU之间直接高速通信,极大提升了深度学习训练和推理性能在对分布式训练性能至关重要DGX-1等系V100维持了NVIDIA CUDA通用计算架构FP16精度下,V100峰值算力达125统利用NVLink构建了高性能GPU网络,的灵活性,同时引入专用加速单元提升深TFLOPS,比纯FP32实现提高了近8倍为大规模AI训练提供了强大硬件基础度学习性能,是异构计算思路的代表性产这种混合精度策略成为行业标准品寒武纪MLU100智能处理器单元片上互联网络编程模型MLU100采用台积电16nm MLU100采用层次化的片寒武纪提供了工艺,主频
1.2GHz,峰值上互联网络,连接各个计CNMLCambricon性能128TOPSINT8核算核心和片上存储采用Neuware Machine心计算架构是寒武纪自主多级存储架构,包括寄存Learning编程接口,支设计的智能处理单元IPU,器文件、局部存储和全局持各种深度学习框架如包含多个计算核心每个存储,总容量达数MB内TensorFlow、PyTorch核心内部包含向量运算单存控制器支持DDR4和等开发者可通过CNML元、张量运算单元、标量GDDR5/5X/6,提供高带API直接编程,也可使用寒运算单元和控制单元这宽外部存储访问片上互武纪的编译器工具链将现种异构计算架构既支持传联网络设计采用类似网络有模型转换为MLU平台可统计算,又对深度学习计交换机的架构,支持多核执行的代码寒武纪还提算做了专门优化心并行计算时的高效数据供了BANG C/C++编程语交换言,支持更低层次的硬件编程,类似于NVIDIA的CUDA华为昇腾910Da Vinci架构AI Core性能优势昇腾910基于华为自主研发的达芬奇架构昇腾910的核心计算模块是AI Core,包含昇腾910在FP16半精度下理论算力可达320Da Vinci,采用7nm工艺制造,集成了超了两类主要计算单元CUBIC用于密集算TFLOPS,INT8整数算力可达640TOPS,过1000亿个晶体管该架构采用了一颗芯力场景和VECTOR用于稀疏算力场景是当时全球算力最强的AI处理器在片支持所有场景的设计理念,集成了用于CUBIC基于脉动阵列设计,主要用于矩阵乘ResNet-50推理基准测试中,昇腾910的性训练的立方Cube计算单元和用于推理的法等规整计算;VECTOR则更类似于传统能是业界第二名的2倍以上尤其值得注意向量Vector计算单元,支持全场景AI应用GPU架构,灵活性更高这种异构设计使芯的是其强大的功耗效率,能效比达到
4.8芯片面积为456平方毫米,总功耗350W,片能够高效处理不同类型的神经网络模型和TOPS/W,使其在数据中心部署中具有竞争具有业界领先的计算密度算子,提高资源利用率优势华为Atlas计算卡和服务器采用多个昇腾芯片组合,提供可扩展的AI计算解决方案第五部分芯片设计挑战DNN计算效率存储效率2高性能计算单元设计与调度内存层次优化与带宽管理灵活与通用能耗效率支持多种网络与算法低功耗设计与能效优化DNN芯片设计面临着多方面的技术挑战,这些挑战相互关联又各有侧重计算效率关注如何最大化硬件资源利用率;存储效率关注如何克服内存墙问题;能耗效率关注如何降低功耗提高能效比;灵活性关注如何支持多样化的网络模型和算法这些挑战之间存在着内在的权衡取舍,设计者需要根据应用场景的需求,在专用化与通用性、性能与能效、复杂度与成本之间找到最佳平衡点本部分将深入分析这些挑战及其解决方案计算效率挑战计算密集性DNN模型需要大量的乘加运算,例如ResNet-50单次推理需要约38亿次浮点运算挑战在于设计高效的计算单元阵列,最大化并行度并保持高利用率MAC阵列、脉动阵列等不同架构各有优缺点,需要根据目标工作负载特性选择此外,稀疏计算(跳过零值计算)和低精度计算(如INT8/INT4)可以显著提高计算效率内存访问瓶颈DNN计算受内存带宽限制严重,内存墙问题尤为突出数据移动的能耗远高于计算本身,例如32位浮点数据在片外DRAM和片上寄存器之间移动的能耗是一次浮点加法的约200倍挑战在于减少数据移动并最大化数据复用解决方案包括优化数据流设计、增大片上缓存、实现智能预取策略等并行化难题DNN计算存在多种并行维度批处理级并行、算子内并行、流水线并行等挑战在于如何协调这些并行维度以最大化吞吐量不同神经网络层(如卷积、全连接、LSTM等)具有不同的计算特性和并行模式,难以用统一架构高效支持此外,负载均衡和资源分配也是并行系统的关键挑战存储效率挑战存储容量限制存储带宽瓶颈存储层次优化现代DNN模型参数量巨大,如GPT-3包含DNN计算是内存带宽受限的,计算单元常设计高效的存储层次结构需要考虑多个维1750亿参数,超过任何单个芯片的存储容因等待数据而闲置芯片内部带宽差异巨度的权衡容量vs带宽、并行访问vs能效、量即使较小的模型如ResNet-50,其大寄存器能提供TB/s级带宽,而片外通用性vs专用性不同类型的网络层对存参数也达25MB,加上中间激活值,总存DRAM仅有数百GB/s储访问模式要求不同储需求更大挑战在于如何通过多级存储层次结构掩挑战在于如何为特定模型定制最优存储挑战在于如何在有限的芯片面积内分配盖访存延迟;如何设计高效的片上网络层次;如何设计智能的数据预取和置换策足够的片上存储;如何有效管理片上和片NoC连接计算和存储单元;如何通过数略;如何进行计算和存储的协同优化;如外存储的数据交换;如何通过模型压缩、据复用和访存优化最大化带宽利用率;如何在编译器层面自动优化数据放置和移动量化和稀疏化减少存储需求何探索新型存储技术如HBM、计算存储等部分解决方案包括软硬件协同存储管理和特定领域的存储优化能耗效率挑战灵活性与通用性挑战支持多种网络模型适应模型演化AI技术迅速发展,从CNN、RNN到模型结构和算法不断优化迭代,芯片Transformer和GNN,网络结构不断设计周期(通常2-3年)难以跟上算创新硬件设计必须支持多样化的神法创新速度如何设计出具有前瞻性经网络模型,包括不同的层类型、不的架构,能够支持未来可能出现的新同的参数规模和不同的计算密度这型网络结构?如何在芯片设计固化后,要求在专用性和通用性之间找到平衡通过软件层面的创新来支持新模型?点过于专用难以适应新模型,过于这些都是DNN芯片设计者需要面对的通用则性能和能效不佳长期挑战可编程性设计在通用处理器和固定功能加速器之间寻找最佳平衡点通常采用的方案包括领域特定指令集ISA设计,如NVIDIA的PTX和Google TPU的CISC指令;可配置的数据路径,支持不同的数据流模式;可重构的计算阵列,能够根据不同层类型调整计算资源配置;定制编译器和运行时系统,优化资源分配和调度第六部分新兴芯片技术DNN随着传统CMOS技术逐渐接近物理极限,研究人员开始探索各种创新计算范式,以突破现有DNN芯片的性能和能效瓶颈第六部分将介绍四类前沿技术模拟计算、存内计算、光学神经网络和量子神经网络这些新兴技术各有特点模拟计算利用电路的物理特性直接执行计算,绕过数字逻辑;存内计算将计算功能集成到存储单元中,消除数据移动开销;光学神经网络利用光子器件进行超高速低功耗计算;量子神经网络则探索量子计算原理以实现指数级加速这些技术虽然大多处于实验室阶段,但代表了未来DNN芯片的可能发展方向模拟计算电流域计算电荷域计算混合信号处理基于电流叠加原理实现模拟乘加运算电利用电荷存储和转移实现计算,如开关电结合模拟和数字电路的优势,前端使用模流模式神经网络利用晶体管的非线性特性容电路和电荷耦合器件CCD电荷域模拟计算核心,后端采用数字处理典型架或电阻网络直接执行矩阵运算,将数字值拟计算可实现高精度的乘加和卷积运算,构包括模拟矩阵乘法单元、数字控制逻转换为电流,通过基尔霍夫定律自然实现同时保持较低功耗辑、ADC/DAC接口电路等组件加法特点噪声抑制能力强、动态范围大、能IBM的模拟存算一体芯片将8位精度提升至特点高并行度、低功耗、高集成度单效高MIT的原型芯片展示了电荷域CNN时钟周期内300TOPS/W混合信号架构个模拟乘法器面积和功耗可比数字实现小加速器可实现10-100倍能效提升挑战包是当前最实用的模拟计算方案,但100倍但面临信噪比、温度漂移、器件括电荷泄漏、开关噪声和复杂的时序控制ADC/DAC转换开销和设计复杂性仍是主不匹配等精度挑战,通常精度有限(4-8要挑战位)存内计算SRAM基础存内计算新型非易失性存储器利用SRAM位单元的结构特性直接在存储基于ReRAM、MRAM、PCM等新型存储阵列内执行布尔逻辑和简单算术运算通器件的存内计算提供了更高的集成度和能过激活多行并利用位线上的电流叠加效应,效ReRAM通过物理器件的电阻变化直可以实现并行的按位运算例如,IBM的接实现矩阵乘法,每个交叉点的电导率表真北芯片将神经元权重存储在SRAM中并示权重值理论上,ReRAM存内计算可直接进行计算,消除了数据搬运开销实现TB/s带宽和TOPS/W级能效最新SRAM存内计算的优势在于与传统CMOS研究如清华大学的Thinker系列芯片已展工艺完全兼容,能够实现高度并行的低精示了ReRAM在DNN加速中的实用性然度矩阵运算,但面临着面积效率低、能耗而,器件变异性、写入能耗、有限的耐久较高的问题性和精度是主要挑战3D存储技术通过3D集成技术将计算逻辑与存储单元紧密结合,如通过硅通孔TSV连接的3D堆叠结构三星和SK海力士的HBM-PIM(处理器内存中处理)原型展示了在内存芯片内集成简单计算逻辑的可行性英特尔的3D XPoint和Foveros技术为异构集成提供了平台3D存储计算结合了高带宽、大容量和低访问延迟,但散热问题、制造复杂性和成本仍然是商业化的障碍光学神经网络光学矩阵乘法利用光的叠加性质自然实现矩阵乘法运算通过将电信号转换为光强度,使用空间光调制器SLM或微镜阵列DMD编码输入矩阵,然后利用光束通过透镜系统实现傅里叶变换,最终通过光电探测器阵列读取结果光学矩阵乘法的理论速度可达电子实现的数千倍,且能耗显著降低MIT、斯坦福等机构已展示了原型系统,如Lightmatter公司的Envise光学AI加速器光学非线性激活实现全光学神经网络的关键挑战是光学非线性激活函数当前解决方案包括电光混合方法(将光信号转换为电信号,执行非线性激活后再转回光信号);非线性光学材料(利用材料本身的非线性光学效应);以及可饱和吸收体等特殊器件理想的光学非线性需要高响应速度、低功耗和良好的集成性,这方面的研究仍处于早期阶段全光学神经网络集成光信号处理、传输和计算功能的完整神经网络系统理论上,全光学神经网络可以实现亚皮秒级的响应时间和极低的能耗硅光子学技术使得在标准芯片上集成光波导、分束器、调制器等关键组件成为可能挑战包括器件尺寸缩小、系统稳定性、光电接口效率和制造工艺成熟度等欧普托Optalysys和光明Lightmatter等初创公司正积极推动这一技术的商业化量子神经网络量子比特量子门操作量子计算的基本单位,与经典比特不同,量量子计算中的基本操作单元,如Hadamard子比特可以处于状态|
0、|1或两者的叠门、CNOT门等,可以操纵量子比特状态⟩⟩加态这种叠加特性使得n个量子比特可以量子神经网络可以通过一系列参数化量子门表示2^n个经典状态,理论上为指数级加速实现,类似于经典神经网络中的层和权重提供了可能量子比特的物理实现包括超导量子变分电路QVC是实现量子神经网络的环路、离子阱、光子、自旋和拓扑量子比特常用方法,它将输入编码为量子态,通过参等目前,超导量子比特是最成熟的技术路数化量子电路进行变换,最后测量得到输出线,IBM和Google等公司已实现50-100量挑战在于量子门操作的噪声和退相干问题,子比特的原型系统限制了当前量子电路的深度量子退火算法一种特殊的量子计算方式,专注于解决组合优化问题量子退火器通过量子隧穿效应探索解空间,有潜力加速某些机器学习任务,如特征选择、聚类和受限玻尔兹曼机RBM训练D-Wave系统是目前最大的商用量子退火器,拥有5000多个量子比特近期研究表明,量子退火可以在某些特定问题上实现百倍加速,但通用性受限量子-经典混合算法,如量子近似优化算法QAOA正成为连接当前量子硬件与实际应用的桥梁第七部分芯片评测与基准DNN定义评测指标执行标准测试分析测试结果提出优化方向确定性能、能效、精度等关键指标使用公认基准套件进行测试对比不同架构优劣并识别瓶颈基于分析结果指导下一代设计准确评测DNN芯片性能是指导芯片设计和选型的关键环节有效的评测不仅需要全面的性能指标体系,还需要标准化的基准测试集和科学的测试方法然而,由于DNN芯片应用场景多样,架构各异,建立公平一致的评测体系存在挑战本部分将介绍DNN芯片评测的核心指标、主流基准测试、科学的评测方法学以及如何分析评测结果,帮助学生掌握DNN芯片性能评估的专业知识,为芯片设计和选型提供科学依据性能评测指标TOPS吞吐量每秒处理的算术操作数,通常以TOPS万亿次操作/秒为单位是衡量芯片原始计算能力的关键指标,但需区分理论峰值和实际可持续性能ms延迟完成单次推理所需的时间,通常以毫秒ms计对实时应用如自动驾驶至关重要,需考虑端到端延迟包括数据传输时间TOPS/W能效比单位功耗下的计算性能,通常以TOPS/W表示衡量芯片能源利用效率,对数据中心和移动设备尤为关键TOPS/mm²面积效率单位芯片面积的计算能力,影响生产成本和集成度评估芯片设计的经济性和可量产性的重要指标常用基准测试MLPerf AI-Benchmark DAWNBench由ML Commons协会开发的业界最权威专注于移动设备AI能力的基准测试,评估由斯坦福大学开发的端到端深度学习基准,的AI基准测试套件,包括训练和推理两个手机、平板等设备上的神经网络推理性能强调训练时间和推理成本不同于仅关注子集MLPerf Inference涵盖图像分类、测试包括图像分类、人脸识别、图像增强、计算性能的基准,DAWNBench考虑了达目标检测、机器翻译等多个领域的标准模深度估计等11个子测试到目标精度所需的总体资源投入型,如ResNet-
50、SSD-MobileNet、AI-Benchmark支持多种框架评估,如BERT等TensorFlow Lite、NNAPI、高通AI评估指标包括达到目标准确率的训练时测试分为数据中心、边缘设备和移动设备Engine等测试结果转化为综合分数,便间和成本;实现目标推理延迟下的最低推场景,评估不同精度FP32/FP16/INT8下于跨设备比较这一基准在评估移动SoC理成本这种端到端评估方法更贴近实际的性能和效率主要指标包括吞吐量、延的AI加速器性能方面具有广泛影响力应用场景,促进了训练算法和硬件协同优迟和功耗为保证公平性,MLPerf制定了化其他知名基准还包括Baidu严格的测试规则和验证流程DeepBench(针对低层神经网络操作)和EEMBC MLMark(嵌入式系统)评测方法学软件仿真在芯片设计早期使用软件模型评估性能和功能正确性包括指令级模拟器、循环精确模拟器和RTL仿真等多个层次优点是灵活性高,可以快速评估不同设计选择;缺点是精度有限,特别是在功耗估计方面代表工具包括gem
5、DRAMSim、CACTI等软件仿真特别适合架构探索阶段,可以在实际硬件制造前发现和解决潜在问题FPGA原型验证使用FPGA实现芯片设计的关键部分,进行硬件级功能验证和初步性能评估相比软件仿真,FPGA原型提供更真实的性能数据和更快的验证速度,允许在实际硬件上运行完整的神经网络模型FPGA原型验证是芯片设计的重要中间环节,可以早期发现时序、接口和系统集成问题但需注意FPGA和ASIC之间的差异,如时钟频率、存储带宽等实际芯片测试对生产出的实际芯片进行全面测试,是最终、最可靠的评测方法测试过程包括设置标准测试环境,包括硬件平台、操作系统、驱动程序和框架版本;准备测试数据集和模型;执行基准测试并收集性能、功耗、温度等数据;统计分析结果并与设计目标和竞品比较实际测试需控制变量,确保可重复性,并通过多次测试减少随机误差影响评测结果分析第八部分芯片产业生态DNN12016-2018市场起步期谷歌TPU推出,英伟达Volta架构引入TensorCore,创业公司如Graphcore、Cerebras崛起,AI芯片市场规模达数十亿美元22019-2021快速发展期中国AI芯片企业如寒武纪、地平线、燧原等获得大额融资,Intel收购Habana Labs,AWS推出自研芯片Inferentia,市场规模突破百亿美元32022-2024整合优化期行业整合加剧,技术路线趋于明确,应用场景细分化,大语言模型训练推动高端芯片需求爆发,市场规模预计达数百亿美元42025及以后成熟多元期新型计算架构商业化,专用化与通用化并存,全场景AI部署,产业链全球分工明确,市场规模有望超过千亿美元芯片市场概况DNN$65B37%2023年市场规模年复合增长率全球AI芯片市场规模达650亿美元,同比增长42%预计2024-2030年AI芯片市场CAGR达37%70%45%云端市场占比英伟达市场份额数据中心AI训练和推理芯片占总市场约70%英伟达在高性能AI芯片市场占据主导地位AI芯片市场正经历前所未有的增长,主要驱动因素包括大规模语言模型LLM训练需求激增;AI技术从实验室走向商业应用;边缘计算和AIoT场景扩展;以及全球数字化转型加速市场呈现出云端高端市场集中度高,边缘和终端市场分散的特点从区域分布看,北美地区以研发创新和高端芯片设计为主导;亚太地区特别是中国、韩国、台湾在制造和新兴应用领域快速发展;欧洲则在特定垂直领域如工业AI、自动驾驶等领域具有竞争力市场竞争格局正从初期的百花齐放逐渐走向分化整合,技术门槛和规模效应使得头部企业优势明显芯片设计公司DNN初创公司科技巨头传统半导体公司以技术创新为驱动的AI芯片创业企业,聚焦特定应用场依托现有技术和市场优势进军AI芯片领域的大型科技公基于现有半导体技术和客户基础转型AI芯片的传统芯片景或技术路线代表企业包括Graphcore英国,司NVIDIA凭借GPU架构和CUDA生态在AI训练市场巨头Intel通过收购Nervana、Habana Labs和IPU架构专注高性能AI训练;Cerebras美国,超大芯占据主导地位;Google开发TPU系列,主要服务于自Movidius布局AI加速器市场,并在Xeon处理器中集成片设计,单芯片集成上万核心;SambaNova美国,身AI业务和云服务;Amazon推出Inferentia和AI加速功能;AMD收购Xilinx增强FPGA和AI能力,推数据流架构融合软硬件协同设计Trainium芯片,优化AWS云服务成本和性能出结合CPU与AI加速器的异构芯片中国创业公司如寒武纪云端和终端智能处理器、地平其他巨头如Facebook推出AI推理加速器MTIA、高通、联发科等移动芯片厂商在手机SoC中集成AI处理线自动驾驶和AIoT、燧原科技云端训练和推理等也Microsoft自研NPU也在积极布局自研AI芯片,主要器,如高通的Hexagon DSP和NPU传统半导体公司获得了显著发展创业公司面临的主要挑战是规模化量目的是降低AI基础设施成本、提高性能,并减少对其他的优势是成熟的制造、验证和销售渠道,但面临创新速产、生态建设和持续融资压力供应商的依赖度和专业化程度的挑战芯片制造DNN晶圆代工厂先进制程负责芯片实际制造的专业厂商,如台积电AI芯片普遍采用最先进的制造工艺,提升性TSMC、三星和英特尔代工能和能效•台积电占据高端AI芯片代工70%以上市•高端AI芯片已进入3nm/5nm时代2场份额•先进封装如CoWoS提供高带宽低延迟互•三星在高带宽存储HBM领域具有优势连•英特尔通过IDM
2.0战略拓展代工业务•EUV光刻技术成为关键制造工艺供应链挑战封装技术AI芯片面临全球供应链紧张和地缘政治风险创新封装对大型AI芯片至关重要,解决散热、供电和互连问题•关键材料和设备供应有限•
2.5D封装集成HBM存储与处理器•贸易限制影响跨国技术合作•液体冷却解决大功率散热问题•本地化生产成为战略选择•芯粒Chiplet技术提高良率和可扩展性芯片应用领域DNN数据中心移动终端大规模训练和推理服务的核心基础设施智能手机、平板电脑和笔记本等便携设典型应用包括云AI服务、大语言模型训备典型应用包括相机增强、语音助手、练、搜索引擎和推荐系统等对芯片要AR功能和本地大语言模型对芯片要求求高性能、高可靠性和良好散热主要低功耗、小尺寸和成本控制主要产品产品如NVIDIA A100/H
100、Google如高通骁龙系列、苹果A/M系列、联发TPU v
4、AWS Trainium等,功耗普遍科天玑系列和三星Exynos等功耗通常在300W以上,单芯片算力可达数百在1-10W范围,优化场景性能和能效TOPS市场增长迅速,预计2025年达随着端侧AI应用增多,预计年增长率保到400亿美元以上持在25%以上物联网设备智能家居、工业传感器、安防设备等物联网终端典型应用包括人脸识别、异常检测、预测性维护等对芯片极致要求低功耗通常mW级、低成本和特定任务优化主要产品如英特尔Movidius、ARM Ethos系列、寒武纪边缘系列等这一领域特点是高度碎片化和定制化,适合专用ASIC和超低功耗设计随着AIoT浪潮,预计将成为数量最大的AI芯片应用领域第九部分系统软件栈DNN应用层深度学习框架和应用程序中间件编译器、运行时和库驱动层3硬件驱动和底层接口硬件层AI加速器和处理器DNN系统软件栈是连接AI应用与硬件加速器的关键桥梁,决定了加速器能否充分发挥性能潜力完整的软件栈从底层硬件抽象到高层应用支持,形成了一个复杂的生态系统随着AI芯片架构日益多样化,软件栈的兼容性和优化能力变得尤为重要第九部分将深入探讨DNN系统软件栈的各个组成部分,包括编译器优化技术、运行时系统设计、驱动程序开发以及开发工具链构建通过理解软件栈的工作原理和优化方法,学生将能够掌握AI系统的全栈优化思路,为设计高效的DNN系统奠定基础编译器优化图优化针对计算图结构进行的高层次优化,包括算子融合、图重写、常量折叠、冗余消除和死代码消除等TensorFlow的XLA、PyTorch的TorchScript和NVIDIA的TensorRT都实现了先进的图优化技术例如,将连续的卷积和批归一化层融合成单一操作,可减少内存访问和计算开销图优化通常是硬件无关的,可以显著减少操作数量和内存占用算子融合合并多个相邻的基本操作为单一优化实现,减少内存访问和同步开销常见的融合模式包括卷积+ReLU+池化融合;矩阵乘法+偏置+激活函数融合;逐元素操作链融合等算子融合需考虑硬件特性,如寄存器容量、共享内存大小和指令集支持自动融合策略通常基于模式匹配和代价模型,如TVM的AutoTVM和MLIR的融合框架内存分配优化减少内存占用并优化访问模式以提高缓存命中率技术包括内存重用在不同操作间复用缓冲区、数据布局转换调整数据在内存中的存储顺序、分块计算Tiling,将大矩阵分解为小块处理和预取优化内存优化对于边缘设备尤为关键,如Google的MLIR通过Linalg优化实现了高效的内存管理先进编译器还支持异构内存管理,考虑SRAM、共享内存、HBM等不同特性运行时系统任务调度内存管理DNN运行时系统的任务调度负责将计算图中高效的内存管理是DNN运行时系统的核心功的操作高效地分配到可用硬件资源上现代调能,直接影响性能和可扩展性现代内存管理度器采用多级调度策略宏观层面的任务级调器通常包含自定义内存分配器,如NVIDIA度决定算子在不同处理器CPU/GPU/NPU间的cub::CachingDeviceAllocator,避免频的分配;中观层面的批处理调度将多个请求合繁调用系统malloc/free;内存池技术,预分并以提高吞吐量;微观层面的线程调度优化单配大块内存并进行细粒度管理;张量生命周期个算子内的并行执行调度策略需要平衡延迟、分析,实现内存复用和虚拟内存技术;分页和吞吐量、能耗和资源利用率等多个目标,常见交换机制,支持超大模型训练此外,异构内的算法包括静态调度如HEFT算法和动态调存管理也变得越来越重要,如HBM、DDR和度如工作窃取NVM的协同使用,以及Unified Memory等透明访问技术负载均衡在多核/多设备环境中实现计算负载的均衡分配,确保资源高效利用负载均衡策略包括静态分区,预先将任务划分为大小相近的块;动态分配,使用工作队列和任务窃取实现自适应负载分配;混合并行,结合数据并行、模型并行和流水线并行以适应不同算子特性;代价感知调度,基于历史性能数据预测任务执行时间并优化分配TensorFlow的分布式运行时、PyTorch的RPC框架和MXNet的KVStore都实现了复杂的负载均衡机制,以适应异构计算环境驱动程序设计硬件抽象层提供统一接口封装底层硬件差异,简化上层软件开发硬件抽象层HAL通常包括寄存器映射与访问接口,直接操作硬件寄存器;DMA和中断管理,高效处理大量数据传输;电源和时钟管理,控制芯片功耗状态;错误检测与恢复机制,提高系统可靠性典型的例子如NVIDIA的CUDA DriverAPI和Intel的oneAPI LevelZero,都提供了对硬件的低级抽象,同时保持足够的灵活性内核态驱动运行在操作系统内核空间的驱动组件,负责硬件资源管理和安全访问内核驱动主要功能包括设备发现与初始化;内存管理与地址转换;中断处理与事件通知;资源调度与保护内核驱动需要考虑稳定性和安全性,遵循操作系统内核开发规范为提高性能,现代AI芯片驱动通常采用零拷贝技术、批处理中断和内存池预分配等优化如Google TPU驱动集成到Linux内核,实现了高效的硬件管理用户态库运行在用户空间的库,提供编程接口和性能优化用户态库往往包含硬件指令生成与优化;内存分配与缓存管理;算子实现库,如基础线性代数;事件与性能监控工具;多设备协调与同步机制常见的实现如CUDA RuntimeAPI、ROCm运行时和寒武纪CNRT,都提供了丰富的用户态功能现代趋势是增加用户态功能,减少内核态切换,通过技术如NVIDIA GPUDirect、Linux io_uring等实现高效的用户态操作开发工具链模型转换工具性能分析工具调试工具将训练框架的模型转换为目标硬件可执行的优化格式主要测量、可视化和分析DNN系统性能的专用工具代表性工辅助开发者诊断和修复DNN系统中的问题包括模型调试工具包括TensorRTNVIDIA、OpenVINOIntel、TVM具有NVIDIA NsightSystems/Compute、Intel VTune、器、内存检查器和低级硬件调试工具模型调试器如和MLIR等这些工具通常提供模型解析、图优化、量化、AMD ROCmProfiler等这些工具提供时间线跟踪、热点TensorFlow Debugger和PyTorch的算子映射和代码生成等功能分析、内存分析和硬件计数器监控等功能autograd.detect_anomaly可检查梯度问题和数值异常高级转换工具还支持自动混合精度、算子自动调优和硬件感先进的性能分析工具支持分布式系统跟踪、自动瓶颈识别和知优化例如,TensorRT的INT8量化器可自动确定最佳量优化建议如Google的Perfetto提供了跨平台、跨进程的硬件级调试工具如NVIDIA CUDA-GDB和Intel Graphics化参数,保持精度的同时提高性能;华为的MindSpore支事件追踪能力;PyTorch Profiler能够识别GPU利用率低、Debugger提供对内核执行和内存访问的细粒度控制现代持多种后端硬件的自适应编译优化内存带宽受限等常见问题并给出改进建议调试工具越来越注重易用性和自动化,如TensorBoard的调试器插件提供可视化界面,自动识别模型训练中的常见问题;华为MindSpore Debugger支持条件断点和自动异常检测第十部分芯片未来展望DNN随着传统摩尔定律放缓和AI模型规模持续增长,DNN芯片技术正面临新的拐点,需要探索创新架构和计算范式第十部分将展望DNN芯片的未来发展趋势,探讨异构计算、3D集成、新型计算范式和AI芯片安全等前沿话题这些新兴技术正从实验室走向产业化,有望引领下一代AI计算基础设施的变革了解这些趋势不仅对把握技术发展方向至关重要,也为学生未来的研究和职业发展提供了宝贵的前瞻性视角本部分内容将帮助学生建立对AI芯片技术长期演进的系统认识,培养技术创新和战略思维能力异构计算趋势近存计算分布式智能CPU+GPU+FPGA+ASIC未来AI系统将更加倾向于集成多种计算架构,将计算单元移动到靠近存储的位置,减少数AI计算将从集中式向分布式演进,形成从云形成异构计算平台每种架构各有所长据移动成为主流趋势近存计算包括存储到边缘的协同智能网络多层次部署包括CPU处理控制流和通用计算;GPU处理密集器内计算CIM,在存储阵列内执行逻辑和算云端大模型提供全局智能;边缘节点进行中并行工作负载;FPGA提供可重配置性和低延术操作;处理器内存PIM,在内存芯片中集间处理和决策;终端设备执行实时感知和初迟;ASIC实现极致性能和能效成处理单元;存储处理单元SPU,优化存储步分析这种分层架构需要考虑通信开销、控制器的计算能力隐私保护和资源约束这种异构架构需要统一的编程模型和智能调度器Intel OneAPI、AMD ROCm和三星已推出搭载PIM的HBM2-PIM产品,在内联邦学习等技术允许在保护数据隐私的前提NVIDIA CUDA生态正向这一方向发展例如,存中集成了AI加速单元;美光的自动驾驶存下进行协作训练;模型分片和蒸馏技术使得Intel Xeon+Habana Gaudi+Altera FPGA的储器也采用了近存计算理念这一趋势将重在资源受限设备上部署复杂模型成为可能组合已用于Microsoft Azure云服务,实现不塑系统架构,模糊传统的处理器-存储边界,未来的挑战在于优化模型分割策略,平衡通同AI工作负载的最优分配未来的挑战在于创造数据中心式的分布式计算范式这要求信、计算和存储开销,同时保证系统可靠性降低异构系统的编程复杂性和优化任务调度软件栈对数据位置有感知能力,实现数据驱和安全性华为的全场景AI战略和Google的算法动的计算调度Federated Learning都体现了这一趋势集成技术3D3D封装3D互连通过垂直堆叠多个芯片实现更高集成度和性能用于连接3D堆叠芯片的高密度、低延迟信号通3D封装技术主要包括晶片堆叠Die路主要技术包括穿硅通孔TSV,垂直贯Stacking,将多个晶片直接堆叠;硅中介层穿硅晶片的导体通道,提供芯片间高带宽连接;Silicon Interposer,使用硅基板连接多个微凸点Micro-bump,芯片表面的微型连接芯片;封装内扇出Fan-Out,扩大连接区域点,用于芯片与芯片或芯片与基板的连接;混并嵌入多个芯片这些技术能够显著提高系统合键合Hybrid Bonding,通过金属与金属集成度,减少信号传输距离AMD已采用3D直接键合实现超高密度互连TSV技术已在堆叠技术在Zen3处理器中实现了3D V-HBM内存中广泛应用,单个HBM2E堆栈可提Cache,将缓存容量提升三倍;英特尔的供高达
3.6TB/s带宽未来的3D互连将朝着更Foveros技术实现了计算芯片和IO芯片的垂直小TSV尺寸、更高密度和更低功耗方向发展,集成支持更复杂的3D集成架构Chiplet技术将大型芯片设计分解为多个功能模块Chiplet,然后在先进封装中组合的方法相比单片大芯片,Chiplet技术具有更高的良率、更低的成本和更好的可扩展性AMD的EPYC处理器已成功采用芯片小拼图策略,将多个CPU核心芯片与IO芯片组合;Intel的Ponte VecchioGPU也采用多个Chiplet构建在AI芯片领域,Chiplet技术使不同功能模块(如计算核心、存储控制器、互连接口等)可以采用不同工艺制造,然后集成为单一系统未来挑战包括标准化Chiplet接口和增强异质Chiplet间的互连效率新型计算范式类脑计算概率计算模拟生物神经系统的计算架构,通过脉冲神经网利用随机性和不确定性进行计算,适合处理自然络SNN和神经形态硬件实现高效计算与传统存在不确定性的AI任务概率计算抛弃了传统的DNN不同,SNN使用时间编码和事件驱动处理,确定性计算模型,使用随机比特流或随机电路实潜在能效可提高1-2个数量级Intel的Loihi芯片现计算,可以显著降低硬件复杂度和功耗斯坦实现了包含128个神经核心、
1.3亿突触的神经形福大学的AX神经网络加速器使用随机计算单元,态处理器;IBM的TrueNorth芯片包含4096个在保持相似精度的同时能效提升5倍;MIT的概率神经核心,每核256个神经元这些芯片在模式计算ASIC在贝叶斯推理任务上展示了显著的性能识别、异常检测等任务上展现了极低的能耗然和能效优势概率计算特别适合传感器数据处理、而,类脑计算仍面临编程模型复杂、缺乏大规模强化学习和贝叶斯网络,但需要解决精度控制和应用验证等挑战可扩展性问题可逆计算利用计算过程的可逆性减少能耗的新型计算模式传统不可逆计算必然产生热量和能耗,而理论上,可逆计算可以接近零能耗适用于AI的可逆计算包括可逆神经网络,如RevNet,每层计算都可逆,无需存储中间激活值;可逆逻辑门电路,实现信息无损操作;量子可逆计算,利用量子系统的本征可逆性虽然完全可逆计算仍处于理论阶段,但部分可逆计算已用于优化神经网络训练,如谷歌的Reformer模型使用可逆层减少内存占用未来挑战在于开发实用的可逆计算硬件和适配的算法框架芯片安全AI硬件木马防护针对芯片制造过程中可能植入的恶意电路的防御措施AI芯片的复杂性和全球供应链使其面临严重的硬件木马威胁,恶意电路可能导致信息泄露、功能失效或后门激活防护技术包括逻辑加密,通过密钥控制芯片功能;物理不可克隆函数PUF,利用芯片制造过程中的随机性生成唯一指纹;形式化验证,严格证明设计无后门;运行时监测,实时检测异常行为英特尔SGX和ARMTrustZone等安全扩展为AI处理提供了隔离执行环境,防止未授权访问和修改侧信道攻击防御防止通过观察芯片物理特性(如功耗、电磁辐射、时序等)推断敏感信息的安全措施AI芯片特别容易受到侧信道攻击,攻击者可能通过这些方法窃取模型参数或推断输入数据防御策略包括常量时间实现,使操作执行时间不依赖敏感数据;功耗均衡,减少操作与功耗的相关性;噪声注入,添加随机化元素混淆物理信号;安全分区,隔离敏感操作与非敏感操作谷歌TPU和NVIDIA最新GPU都采用了侧信道防护设计,如功耗掩蔽和时序均衡有效的侧信道防御需要软硬件协同设计,平衡安全性与性能开销隐私保护计算在处理敏感数据时保护用户隐私的计算技术随着AI应用于医疗、金融等敏感领域,隐私保护成为关键需求硬件级隐私保护技术包括同态加密加速器,支持对加密数据直接计算;安全多方计算硬件,支持多方在不泄露各自数据的情况下协作计算;联邦学习专用硬件,优化分布式训练并保护本地数据;差分隐私硬件,为敏感数据添加精确校准的噪声IBM开发的同态加密加速器可将加密计算速度提升10000倍;英特尔SGX已被用于构建隐私保护的AI推理服务隐私保护计算面临的挑战是如何减小性能开销,使其在实际应用中可行总结与展望课程回顾本课程系统介绍了DNN系统与芯片的核心知识,从DNN基础理论到系统架构、芯片设计、评测方法、产业生态和未来趋势,构建了完整的知识体系我们学习了计算单元设计、存储层次结构、数据流设计等关键技术,分析了Google TPU、NVIDIA GPU等主流芯片案例,探讨了模拟计算、存内计算等新兴技术,并理解了软件栈对芯片性能发挥的重要作用技术发展趋势DNN芯片技术正经历快速迭代,未来发展呈现几个明显趋势计算架构多样化,从通用GPU到领域专用ASIC;异构计算成为主流,多种架构协同工作;存算融合深入发展,从近存计算到存内计算;新型器件加速创新,如量子计算和光学计算;软硬件协同设计加强,架构感知算法和算法感知架构相互促进;低功耗高能效设计至关重要,支持边缘AI应用;系统化思维越发重要,从单芯片到全栈优化未来研究方向面向未来,DNN芯片领域的重要研究方向包括面向超大模型的高效加速架构,支持万亿参数模型训练和推理;超低功耗边缘AI芯片,支持物联网设备长期离线工作;新型计算范式探索,如神经形态计算、量子机器学习等;软硬件协同设计方法学,降低设计复杂度并提高效率;安全与隐私增强型AI芯片,支持隐私计算和抵御攻击;可重构和自适应AI架构,适应快速变化的算法;高度专业化的领域特定加速器,如自动驾驶、机器人、生物医疗等垂直领域参考文献与推荐阅读基础理论学术论文在线资源•Ian Goodfellow,Yoshua Bengio,Aaron•ISCA,MICRO,HPCA等计算机架构顶会论•AI芯片相关开源项目GitHub仓库Courville,《深度学习》文•芯片厂商技术文档和开发者资源•Vivienne Sze等,《高效深度学习计算》•ASPLOS,EuroSys等系统会议AI硬件相关•深度学习框架与编译器文档论文•Tianshi Chen等,《深度神经网络硬件加速•行业分析报告和市场研究器设计》•ISSCC,VLSI等芯片设计会议论文•各大学和研究机构公开课程资料•Yu Wang等,《智能芯片—人工智能时代的•Google TPU、NVIDIA GPU架构白皮书核心引擎》•MLPerf评测报告和分析文章。
个人认证
优秀文档
获得点赞 0