LLM推理入门指南:剖析模型性能

2024年05月07日08:31:13 科技 5856
LLM推理入门指南:剖析模型性能 - 天天要闻
在本系列文章《》中,作者对transformer解码器的文本生成算法进行了高层次概述,着重介绍了两个阶段:提示的处理阶段和逐个生成补全词元的多步生成阶段。上一篇文章《》中,深入探讨了kv cache优化。


本文将转变方向,探索可能影响机器学习模型速度的不同性能瓶颈。本文所详细介绍的概念广泛适用于任何ml模型,无论是用于训练还是推理,不过提供的示例主要聚焦于llm推理设置。


作者 | pierre lienhart
oneflow编译
翻译|张雪聃

1

四种性能瓶颈


如果你对模型性能不太满意,并且打算继续改进,那么第一步就是确定性能瓶颈的类型。瓶颈主要有四类——其中三类与硬件限制相关,另一类与软件相关。


我们先来看看硬件瓶颈。每一个都有其对应的特定操作模式。


  • 计算受限模式:大部分处理时间(即时延)被用于执行算术运算(见图1)。与其他模式相比,由于主要成本是计算,计算受限模式是最具成本效益的,因此我们应该以此为目标。

图1:计算受限过程图(计算和数据传输时间分别用黄色和蓝色表示)


  • 内存带宽受限模式:大部分处理时间花在了芯片内存和处理器之间搬运数据,如权重矩阵、中间计算等(见图2)。

图2:内存带宽受限过程图(计算和数据传输时间分别用黄色和蓝色表示)

  • 通信受限模式(引文[1]中未涵盖):仅适用于计算和数据分布在多个芯片之间的情况。大部分处理时间花在了芯片之间的网络数据传输(见图3)。

图3:通信受限过程图(计算、数据传输和网络通信时间分别用黄色、蓝色和绿色表示)


注意:我用“芯片”这个词是因为这些概念适用于任何类型的芯片:cpu、gpu、定制化芯片(如google的tpu、aws的neuron cores等)。


需注意的是,现代硬件和框架经过了高度优化且计算和数据传输任务常常出现部分重叠的现象(见图4)。简单起见,我们在本文中将继续假设它们按顺序进行。



图4:出现重叠数据传输的通信受限过程


最后一种模式称为计算开销受限,与软件引起的限制相关。在这种模式下,大部分处理时间花在了调度工作并将其提交给硬件上 —— 基本上,我们花更多的时间去弄清楚要做什么,而不是在硬件上执行实际操作(见图5)。计算开销受限的情况在使用非常灵活的语言(例如python)或框架(例如pytorch)时更有可能出现,这些语言或框架不需要在运行时明确指定全部所需的信息(如张量数据类型、目标设备、要调用的kernel等)。这些缺失的信息必须在运行时推理出来,相应的cpu周期称为计算开销。现在的加速硬件与cpu相比速度更快,以至于计算开销影响硬件利用率,进而影响成本效益的情况很可能发生 —— 基本上,有时硬件处于空闲状态,等待软件提交下一个工作项。

图5:计算开销受限过程图(计算、数据传输和软件开销时间分别用黄色、蓝色和紫色表示)


执行模型的反向或正向传播涉及运行多kernel的执行(~ gpu函数调用)。所有kernel都在相同的模式下运行是不可能实现的。问题的关键在于确定大部分执行时间都花在哪个模式上。由此,优先事项就变成针对主要瓶颈进行优化,找出下一个最重要的瓶颈,依此类推。


正确地判断瓶颈类型至关重要。每个问题需要不同的解决方案。如果判断错误,可能会浪费不少时间,即使实施这种优化确实有所帮助,但结果可能依旧令人失望。


2

判断限制因素


这篇文章中我们不会深入讨论细节问题,但博文[1]强调了当计算开销受限制时,运行时不会随着增加的计算或数据传输成比例地扩展。换句话说,如果你将计算或数据传输容量加倍,但运行时未相应增加,那么你的程序很可能受到计算开销限制。否则,你可能受到硬件限制,但区分计算与内存带宽等瓶颈需要访问诸如flop计数和数据传输量等指标,即使用性能分析器(profiler)。


当我们重新把llm纳入讨论范围时,请记住,训练和推理的预填充阶段通常是计算受限,而推理解码阶段通常在大多数硬件上是内存带宽受限。因此,主要用于训练的优化(例如低精度矩阵乘法)如果应用于减少由解码时延为主的总推理时延,可能就不会那么有帮助。


3

基于瓶颈类型优化以降低时延


让我们看看针对每种瓶颈类型的优化。


如果处于计算受限模式下,你可以:


  • 升级到更强大、更昂贵、峰值flops更高的芯片。


  • 针对特定操作,如矩阵乘法,可以使用专门的、更快的核心,如nvidia tensor cores。例如,nvidia h100 pcie [2]使用通用cuda核心的峰值计算性能为51 tflops,而使用专门的tensor cores(全精度)可达到378 tflops。


  • 减少所需的操作数。更具体地说,对于ml模型,这可能意味着,使用更少的参数来实现相同的结果。剪枝或知识蒸馏等技术可以帮助实现这一点。


  • 使用较低精度和更快速的数据类型进行计算。例如,对于相同的nvidia h100 pcie,8位tensor cores的峰值flops(1,513 tflops)是16位峰值flops(756 tflops)的两倍,是32位峰值flops(378 tflops)的两倍。但这需要量化所有的输入(例如,权重矩阵和激活函数),并使用专门的低精度kernel。


如果处于内存带宽受限模式下,你可以:


  • 升级到更强大、更昂贵、有更高的内存带宽的芯片


  • 减少所搬运数据的大小,例如使用模型压缩技术,如量化或不太流行的剪枝和知识蒸馏。就llm而言,数据大小问题主要通过仅包含权重的量化技术(例如gtpq [5] 和awq [6] 量化算法)与kv cache量化来解决。

  • 减少内存操作次数。gpu上的运行任务可以归结为执行一系列kernel(gpu函数调用)的有向图。对于每个kernel,必须从内存中获取输入并将输出写入其中。kernel融合,即将最初分散在多个kernel中的操作作为单个kernel调用执行,可以减少内存操作次数。算子融合(见图6)可以由编译器自动执行,也可以通过编写自己的kernel来手动执行(这更难,但对于复杂的融合是必要的)。


对于transformer模型而言,针对注意力层开发高效融合的kernel仍然是一个十分活跃的领域。许多优化的kernel都基于流行flashattention算法[7]。transformer融合kernel库包括flashattention、meta的xformers和现已弃用的nvidia fastertransformer(已合并到nvidia tensorrt-llm中)。


LLM推理入门指南:剖析模型性能 - 天天要闻


图6:应用于cnn的水平和垂直层(操作)融合的示例,初始状态(上方)和最终状态(下方)[8]


如果处于通信受限模式下,你可以:


  • 升级到更强大、更昂贵、具有更高的网络带宽的芯片


  • 通过选择更高效的分区和集合通信策略来减少通信量。例如,通过引入新的张量并行策略,[9]扩展了来自[10]中用于transformer模型的流行张量并行布局,使通信时间能够更好地扩展(即防止它们成为瓶颈),以适应大量芯片或批大小。


例如,[10]中的张量并行布局保持权重分片不变,而激活分片在芯片之间移动。例如,在预填充阶段和对于非常大的序列批次,例如,[9]指出激活可能比权重更大。因此,从通信的角度来看,保持激活不变并将权重分片移动会更有效,就像他们所采用的“权重聚合(weight-gathered)”分区策略那样。


如果处于计算开销受限模式下,你可以:


  • 通过使用不太灵活但更高效的语言,如c++,来换取更少的计算开销。

  • 将kernel分组提交以分摊跨多个kernel提交的计算开销,而不是按每个kernel都算一次计算开销。


  • 这在需要多次提交相同的“短命(short-lived)”kernel组时特别有益(例如在迭代工作负载中)。cuda graph(自pytorch 1.10版以来已集成)通过提供工具捕获由代码块引起的所有gpu活动,形成一个kernel启动的有向图,实现一次性提交,从而服务于这一目的。



你可以通过使用模型编译器进一步优化图。


在任何情况下,你再次通过牺牲灵活性来减少计算开销,因为追踪/编译需要参数(如张量大小、类型等)是静态的,因此运行时(runtime)保持不变。控制流结构,如if-else,在这一过程中通常也会丢失。


在对灵活性有需求但同时与aot编译不兼容的情况中(例如,动态张量形状、控制流等),即时(jit)编译器能通过在模型代码在执行之前进行动态优化来提供帮助(虽然不如aot编译器彻底)。例如,pytorch 2.x 引入了一个名为torchdynamo的jit编译器。由于无需修改你的pytorch程序即可使用它,因此你可以使用jit编译器减少计算开销,同时保持python开发体验的易用性。


附注:模型优化器和(aot)编译器之间是否有区别?在我看来,这个区分比较模糊。我在概念上对这两个术语的区分如下。


首先,它们都是提前执行的。典型的aot编译器工作流程是:跟踪来自支持框架(如pytorch、tensorflow、mxnet等)的代码,将计算图提取到中间表示(ir)中,应用与硬件无关的优化(如代数重写、循环展开loop unrolling、算子融合等)生成优化后的图形,最后为目标硬件创建可部署的工件,包括硬件感知优化(选择最合适的内核、数据移动优化等)。一些aot模型编译器的示例包括pytorch的torchinductor、xla和meta的glow。


模型优化器是一种工具,包含aot编译,但通常针对特定硬件(例如,openvino针对英特尔硬件,tensorrt和tensorrt-llm针对nvidia硬件),能够执行额外的后训练优化,如量化或剪枝。


到现在,我们只聚焦于时延(处理单个请求所需的时间),接下来让我们通过深入探讨计算和内存带宽受限模式,重新引入吞吐量(单位时间内可以处理的请求数量)。


4

瓶颈 = f(硬件,算术强度)


有趣的是,处理相同输入的相同算法可以是计算受限模式,也可以是内存带宽受限,这取决于所使用的硬件。适用的模式由算法的算术强度确定,即每个访问的字节执行的算术操作数量。


我们想要的是能使我们处于或更具成本效益的计算受限模式的强度值。正如我们将看到的那样,较高的强度与更好的吞吐量和成本效率相关。然而,一些强度驱动因素可能会降低延迟。我们不得不在时延和吞吐量之间进行权衡。


设b为每次运行从内存传输的数据字节数,p为每次运行执行的浮点运算次数(flops)。设bw_mem(以tb/s表示)为硬件的内存带宽,bw_math(以tflops表示)为数学带宽,也称为峰值flops。设 t_mem 为移动数据字节所花费的时间,t_math 为算术运算所花费的时间。


处于计算受限模式意味着在算术运算上花费的时间比传输数据多(见图7)。

LLM推理入门指南:剖析模型性能 - 天天要闻

图7:计算受限与内存带宽受限模式对比图(计算和数据传输时间分别用黄色和蓝色表示)


因此,当以下条件满足时,我们处于计算受限状态:



a是算法的算术强度,其维度为flop/byte。每字节传输的数据进行的算术运算越多,算术强度就越高。


如方程所示,要使算法处于计算受限状态,其算术强度必须超过峰值flops与内存带宽的比率有关的硬件相关比值。相反,内存带宽受限意味着操作强度低于相同带宽比率(见图8)。


图8:内存带宽 / 计算受限边界


让我们来看一些关于在nvidia硬件上进行半精度矩阵乘法(即使用张量核心)的实际数据(表1):


LLM推理入门指南:剖析模型性能 - 天天要闻

表1:用于训练或为llm提供服务的常用nvidia数据中心gpu的规格


这意味着什么?以nvidia a10为例,带宽比为208意味着在该特定硬件上搬运一字节的数据与执行208 flops的速度相同。因此,如果在nvidia a10上运行的算法每传输一字节不能执行至少208次flops(或等效地每传输半精度数执行416次flops),那么它必然会花费更多的时间在数据传输上而不是在计算上,即它是内存带宽受限。换句话说,算法的算术强度低于硬件带宽比率的情况下,就是内存带宽受限。证明完毕。


已知llm推理过程的解码阶段具有较低的算术强度(在下一篇博文中详细介绍),这导致它在大多数硬件上成为内存带宽受限。与nvidia h100相比,nvidia h200针对这种低强度工作负载具有更有利的带宽比率。这解释了nvidia将h200宣传为“为生成式ai推理提速”的原因,因为其硬件设计针对的是这种内存受限情况。


现在我们将算术强度与时延和吞吐量联系起来:

注意这里的吞吐量表示为tflops而不是每秒请求数,但两者是直接成比例的。另外,吞吐量以tflops表示突显了它与硬件利用率的联系,因此与成本效率有关。为了使这种联系更明显,吞吐量更精确地表示为每个芯片-秒(chip-second)的请求数量,每个请求的芯片秒数越低,即吞吐量越高,成本效率越高(参见[9]第4节)。


如果我们将算术强度作为自变量绘制在x轴上,将(最大可实现的)吞吐量作为因变量绘制在y轴上,我们就得到了所谓的(简单)屋顶线模型[12](图9)。


LLM推理入门指南:剖析模型性能 - 天天要闻

图9:屋顶线模型图


让我们进行一个小小的思维实验,以更好地理解为什么此图中的吞吐量值是最大可实现的水平。显而易见,在计算受限模式下:没有什么可以阻止我们利用全部计算能力,我们只受到硬件峰值容量的限制。在内存带宽受限模式下,我们在1秒内可以获取的最大数据量由硬件的内存带宽bw_mem确定。考虑到算法的算术强度a,因此我们在1秒内可以实现的最大flop数量是bw_mem乘以a。

 

增加算法的算术强度会产生什么影响?我们可以考虑三种情况(图10):


LLM推理入门指南:剖析模型性能 - 天天要闻

图10:算术强度增加的三种情况


  • 情景1:算术强度的增加太小,无法摆脱内存带宽受限的状态,但吞吐量线性增长。系统仍然受到内存带宽的限制,因此对时延的影响取决于更大强度如何影响该特定算法的数据传输。


  • 情景2:算术强度的增加使系统转换到计算受限模式。吞吐量增加到硬件的峰值吞吐量。现在处于计算受限状态,时延的影响取决于更高强度如何改变该算法的总操作量。


  • 情景3:由于已经处于计算受限状态并且达到了峰值吞吐量,增加强度不会提供吞吐量增益。时延的影响仍取决于更高强度如何影响该算法的总计算量。


如何具体增加算术强度?这完全取决于算法的具体情况。在下一篇文章中,我们将考查控制transformer解码器块算术强度的关键参数。例如,我们会看到如何通过提高批大小来增加某些操作的算术强度。


一些已经讨论过的优化方法也可以增加算术强度,从而提高吞吐量和资源利用率。对于transformer模型(其解码阶段受内存带宽限制),通过操作融合和数据(权重矩阵、kv cache)量化来减少数据传输的数量和大小,来改善算术强度。


目前为止,我们进行了一个关键的假设,即算法的实现充分利用了硬件资源。例如,在传输数据时,假设算法的实现使用了硬件的理论内存带宽的100%。显然,在实践中并非总是如此(尽管一些实现达到了接近最佳资源利用率),那么次优的资源使用对分析有何影响呢?


很简单:上述带宽数字必须被实际实现的数字所替代。次优系统位于它自己的屋顶线曲线上,位于最优化的屋顶线曲线下方(见图11)。现在有两个提高吞吐量的自由度:增加算术强度和/或改善算法的实现以更好地利用硬件资源。


LLM推理入门指南:剖析模型性能 - 天天要闻

图11:具有次优资源利用的屋顶线模型


让我们通过一个实际的改进实现的示例来总结。在版本2.2之前,flashattention kernel的实现在应用于推理的解码阶段时可能会变得非常不理想。先前的数据加载实现使得kernel在解码阶段利用内存带宽方面的效率较低。更糟的是,随着批大小的增加,带宽利用实际上进一步降低;因此,对于由于内存限制需要较小批次的长序列,性能受到的影响最大。flashattention团队通过解决这个问题(主要是通过在kv cache序列长度维度上并行加载数据)发布了一个名为flashdecoding的优化解码阶段kernel,为长序列长度实现了显著的时延改进。[13]


5

总结


通过本文,我们了解了影响模型时延的四种瓶颈类型。识别模型时延主要成因的类别至关重要,因为每种类别都需要特定的缓解策略。


不考虑分布式设置以简化问题,实际的硬件操作要么是计算受限,要么是内存带宽受限。kernel的算术强度决定了绑定的模式。在较低强度的内存带宽受限模式下,最大可实现的吞吐量与算术强度呈线性关系。相反,在计算受限模式下,吞吐量受到峰值硬件flops的限制。根据影响强度的因素,我们可能能够增加强度以提高最大吞吐量,甚至可能达到计算受限的性能。然而,这种强度增益可能会增加时延


在下一篇文章中,我们将运用这些新知识来研究llm,具体探讨transformer解码器块的算术强度。


参考文献(请上下滑动) 

[1]: making deep learning go brrrr from first principles (he, 2022)


[2]: nvidia h100 product specifications


[3]: llm.int8(): 8-bit matrix multiplication for transformers at scale (dettmers et al., 2022) + github repository


[4]: smoothquant: accurate and efficient post-training quantization for large language models (xiao et al., 2022) + github repository


[5]: gptq: accurate post-training quantization for generative pre-trained transformers (frantar et al., 2022) + github repository


[6]: awq: activation-aware weight quantization for llm compression and acceleration (lin et al., 2023) + github repository


[7]: flashattention: fast and memory-efficient exact attention with io-awareness (dao et al., 2022), flashattention-2: faster attention with better parallelism and work partitioning (dao, 2023) + github repository.


[8]: deploying deep neural networks with nvidia tensorrt (gray et al., 2017)


[9]: efficiently scaling transformer inference (pope et al., 2022)


[10]: megatron-lm: training multi-billion parameter language models using model parallelism shoeybi et al., 2019)


[11]: blog post — accelerating pytorch with cuda graphs (ngyuen et al., 2021)


[12]: roofline: an insightful visual performance model for multicore architectures (williams et al., 2009)


[13]: blog post — flash-decoding for long-context inference (dao et al., 2023)


LLM推理入门指南:剖析模型性能 - 天天要闻

siliconllm的吞吐最高提升2.5倍,时延最高降低2.7


LLM推理入门指南:剖析模型性能 - 天天要闻

数据中心+pcie:siliconllm的吞吐最高提升2.8倍;消费卡场景:siliconllm的吞吐最高提升1.7


LLM推理入门指南:剖析模型性能 - 天天要闻

system prompt场景:siliconllm的吞吐最高提升11倍;moe模型:推理 siliconllm的吞吐最高提升5

科技分类资讯推荐

App能“取现”能“代还”?小心非法套现危及个人信息安全 - 天天要闻

App能“取现”能“代还”?小心非法套现危及个人信息安全

如果有这样一款App,简单操作几下就能让你的信用卡额度提现到自己的储蓄卡内,甚至动动手指就能让信用卡的还款日推迟到下个周期,听上去是不是非常有诱惑力?然而,其中却暗藏着巨大的陷阱和风险。2023年7月,湖南汨罗警方破获一起信用卡非法套现案,抓获涉案人员19人,查明套现金额约40亿元,非法获利约1.2亿元。目前,这...
珂芝 K98 机械键盘开售:Leaf-Spring Gasket 结构,279 元起 - 天天要闻

珂芝 K98 机械键盘开售:Leaf-Spring Gasket 结构,279 元起

IT之家 5 月 19 日消息,珂芝 K98 机械键盘目前已经在京东现货开售,这款键盘主打“Leaf-Spring Gasket 结构”,可选极地雪 / 沙漠绿洲 / 星岩灰色(价格取决于轴体),IT之家整理价格信息如下:彩虹轴:279 元风雨轴:299 元波塞冬轴:369 元据介绍,这款机械键盘外壳采用厚胶位注塑工艺,键盘背部拥有 3D 冰晶纹装饰,裸..
全球第一款!中国公司泄露Intel二代酷睿Ultra掌机 - 天天要闻

全球第一款!中国公司泄露Intel二代酷睿Ultra掌机

快科技5月19日消息,Intel预计会在马上到来的台北电脑展上公开下一代酷睿Ultra处理器Arrow Lake、Lunar Lake的更多具体信息,而来自我国深圳的微步公司,第一家公布了基于Lunar Lake的掌机,将在本次展会上首次亮相。这款掌机名为“GP10”,采用10.95英寸大屏,分辨率1920x1200,刷新率120Hz,支持触摸。内存容量16
海信推出 Vidda NEW S100 Pro 电视:100 英寸 192 分区,8999 元 - 天天要闻

海信推出 Vidda NEW S100 Pro 电视:100 英寸 192 分区,8999 元

IT之家 5 月 19 日消息,海信今天在京东上架一款 Vidda NEW S100 Pro 电视,这款电视主打“100 英寸 144Hz”,不过仅有 192 分区,该电视将于 5 月 21 日凌晨 0 点开售,首发价 8999 元。据介绍,这款电视配备 3840 x 2160 分辨率 144Hz 面板,拥有 192 分区,覆盖 85% DCI-P3 色域,
中核集团:全国最大海上光伏电站开工建设,2025 年全容量并网 - 天天要闻

中核集团:全国最大海上光伏电站开工建设,2025 年全容量并网

IT之家 5 月 19 日消息,据中核集团消息,5 月 19 日,我国最大的海上光伏项目 —— 中核田湾 200 万千瓦滩涂光伏示范项目在江苏连云港正式开工建设。▲ 图源中核集团公众号,下同据介绍,项目预计于 2024 年 9 月首次并网,2025 年全容量并网,在运行期 25 年内年平均上网电量 22.34 亿千瓦时,能够满足中等发达国家约 23...
长治振兴小镇“研学热”持续升温 “教育+科技”是亮点 - 天天要闻

长治振兴小镇“研学热”持续升温 “教育+科技”是亮点

田小丽立夏之后,暑气渐显。长治振兴小镇“研学热”持续升温,研学团接踵而至。5月11日,来自长治市实验小学的学生走进振兴小镇,开展“感触科技魅力 体验非遗传承”趣味研学游活动。5月18日,长治市平顺县苗庄中心校、北社中心校研学团队走进振兴小镇开展“红色教育点亮心灯 劳动实践助力成长”研学游活动。……科技创新、...
聚焦数据要素×、AI安全等话题,2024西湖论剑·数字安全大会举行 - 天天要闻

聚焦数据要素×、AI安全等话题,2024西湖论剑·数字安全大会举行

5月18日,以“智绘安全 乘数而上”为主题的2024第十二届西湖论剑·数字安全大会在杭州国际博览中心举行。作为国内首个进入第十二年的数字安全行业盛会,大会聚焦探讨“数字安全助力数据要素×产业落地”“AI引领数字安全变革”等议题,全面、深入探讨人工智能浪潮下的数字安全新质生产力实现路径,旨在为国内数字安全领域提...