searchusermenu
  • 发布文章
  • 消息中心
点赞
收藏
评论
分享
原创

深度学习模型蒸馏算法:Patient-KD、DistilBERT、DynaBERT、TinyB

2023-10-26 01:57:19
14
0

1.模型压缩概述:

1.1模型压缩的原理:

        理论上来说,深度学习神经网络模型越深,非线性程度也就越大,对现实问题的表达能力越强,但代价是训练成本和模型大小的增加。同时,在模型部署时,大模型的预测速度较低且需要更好的硬件支持。而且,随着深度学习越来越多的参与到各行各业中,很多情况下,需要将模型在移动手机端、IoT端等部署,这种部署环境受到能耗和设备体积的限制,端侧硬件的计算能力和存储能力相对较弱,突出的诉求主要体现在以下三点:

  • 首先是速度,比如像人脸闸机、人脸解锁手机等应用,对响应速度比较敏感,需要做到实时响应;
  • 其次是存储,比如电网周边环境监测这个应用场景中,要图像目标检测模型部署在可用内存只有200M的监控设备上,且当监控程序运行后,剩余内存会小于30M;
  • 最后是耗能,离线翻译这种移动设备内置AI模型的能耗直接决定了它的续航能力。

 

       以上三点诉求都需要我们根据终端环境对现有模型进行小型化处理,在不损失精度的情况下,让模型的体积更小、速度更快,能耗更低。

       但如何能产出小模型呢?常见的方式包括:设计更高效的网络结构、将模型的参数量变少、将模型的计算量减少,同时提高模型的精度。 可能会疑惑为什么不直接设计一个小模型呢?因为实际业务的子垂类众多,任务复杂度不同,在这种情况下,人工设计有效小模型难度非常大,需要非常强的领域知识。而模型压缩可以在经典小模型的基础上,稍作处理就可以快速拔高模型的各项性能,达到“多快好省”的目的。

       上图是分类模型使用了蒸馏和量化的效果图。横轴是推理耗时,纵轴是模型准确率。 图中最上边红色星星对应的是在MobileNetV3_large model基础上,使用蒸馏后的效果,相比它正下方的蓝色星星,精度有明显的提升。 图中所标浅蓝色星星,对应的是在MobileNetV3_large model基础上,使用了蒸馏和量化的结果,相比原始模型,精度和推理速度都有明显的提升。 可以看出,在人工设计的经典小模型基础上,经过蒸馏量化可以进一步提升模型的精度和推理速度。

 

1.2模型压缩的基本方法:

       模型压缩可以通过以下几种方法实现,如下图所示:

  • 剪裁:类似“化学结构式的减肥”,将模型结构中对预测结果不重要的网络结构剪裁掉,使网络结构变得更加 ”瘦身“。比如,在每层网络,有些神经元节点的权重非常小,对模型加载信息的影响微乎其微。如果将这些权重较小的神经元删除,则既能保证模型精度不受大影响,又能减小模型大小。
  • 神经网络架构搜索(NAS):类似“化学结构式的重构”,以模型大小和推理速度为约束进行模型结构搜索,从而获得更高效的网络结构。
  • 量化:类似“量子级别的减肥”,神经网络模型的参数一般都用float32的数据表示,但如果我们将float32的数据计算精度变成int8的计算精度,则可以牺牲一点模型精度来换取更快的计算速度。
  • 蒸馏:类似“老师教学生”,使用一个效果好的大模型指导一个小模型训练,因为大模型可以提供更多的软分类信息量,所以会训练出一个效果接近大模型的小模型。

除此以外,还有权重共享、低秩分解等技术也可实现模型压缩。后续重点介绍一些模型蒸馏算法。

 

2.Patient-KD:

2.1. Patient-KD 简介:

 

 

图2: Vanilla KD和PKD比较 

 

       BERT预训练模型对资源的高需求导致其很难被应用在实际问题中,为了缓解这个问题,论文中提出了Patient Knowledge Distillation(Patient KD)方法将原始大模型压缩为同等有效的轻量级浅层网络。同时,作者对以往的知识蒸馏方法进行了调研,如图2所示,图2是Vanilla KD和PKD的比较,vanilla KD在QNLI和MNLI的训练集上可以很快的达到和teacher model相媲美的性能,但在测试集上则很快达到饱和。对此,作者提出一种假设,在知识蒸馏的过程中过拟合会导致泛化能力不良。为缓解这个问题,论文中提出一种“耐心”师生机制,即让Patient-KD中的学生模型从教师网络的多个中间层进行知识提取,而不是只从教师网络的最后一层输出中学习

 

2.2. 模型实现:

Patient-KD中提出如下两个知识蒸馏策略:

  1. PKD-Skip: 从每k层学习,这种策略是假设网络的底层包含重要信息,需要被学习到(如图1.a所示);
  2. PKD-last: 从最后k层学习,假设教师网络越靠后的层包含越丰富的知识信息(如图1.b所示)。

图1.a: PKD-Skip 学生网络学习教师网络每两层的输出; 图1.b: PKD-Last 学生网络从教师网络的最后六层学习

 

         因为在BERT中仅使用最后一层的[CLS] token的输出来进行预测,且在其他BERT的变体模型中,如SDNet,是通过对每一层的[CLS] embedding的加权平均值进行处理并预测。由此可以推断,如果学生模型可以从任何教师网络中间层中的[CLS]表示中学习,那么它就有可能获得类似教师网络的泛化能力。

      因此,Patient-KD中提出特殊的一种损失函数的计算方式:

其中,对于输入xi,所有层的[CLS]的输出表示为:

其中,Ipt表示要从中提取知识的一组中间层,以从BERT12压缩到BERT6为例,对于PKD-Skip策略,Ipt=2,4,6,8,10;对于PKD-Last策略,Ipt=7,8,9,10,11。M表示学生网络的层数,N是训练样本的数量,上标s和t分别代表学生网络和教师网络。

同时,Patient-KD中也使用了LDSLCES两种损失函数用来衡量教师和学生网络的预测值的距离和学生网络在特定下游任务上的交叉熵损失。

最终的目标损失函数可以表示为:

 

2.3. 实验结果:

       作者将模型预测提交到GLUE并获得了在测试集上的结果,如表1所示。与fine-tuning(FT)和vanilla KD这两种方法相比,使用PKD训练的BERT3BERT6在除MRPC外的几乎所有任务上都表现良好。其中,PKD代表Patient-KD-Skip方法。对于MNLI-m和MNLI-mm,六层模型比微调(FT)基线提高了1.1%和1.3%,

        此外,如表2所示,6层的BERT6−PKDB在7个任务中有5个都达到了和BERT-Base相似的性能,其中,SST-2(与 BERT-Base 教师相比为-2.3%)、QQP(-0.1%)、MNLI-m(-2.2%)、MNLI-mm(-1.8%)和 QNLI (-1.4%)),这五个任务都有超过6万个训练样本,这表明了PKD在大数据集上的表现往往更好

        尽管这两种策略都比vanilla KD有所改进,但PKD-Skip的表现略好于PKD-Last。作者推测,这可能是由于每k层的信息提炼捕获了从低级到高级的语义,具备更丰富的内容和更多不同的表示,而只关注最后k层往往会捕获相对同质的语义信息。

 

       表4展示了BERT3BERT6BERT12的推理时间即参数量, 实验表明Patient-KD方法实现了几乎线性的加速,BERT6BERT3分别提速1.94倍和3.73倍。

 

3.DistilBERT:

3.1. DistilBERT 简介:

         近年来,大规模预训练语言模型成为NLP任务的基本工具,虽然这些模型带来了显著的改进,但它们通常拥有数亿个参数(如图1所示),而这会引起两个问题:首先,大型预训练模型需要的计算成本很高;其次,预训练模型不断增长的计算和内存需求可能会阻碍语言处理应用的广泛落地。因此,作者提出DistilBERT,它表明小模型可以通过知识蒸馏从大模型中学习,并可以在许多下游任务中达到与大模型相似的性能,从而使其在推理时更轻、更快。

 

3.2. 模型实现:

  • 学生网络结构:

       学生网络DistilBERT具有与BERT相同的通用结构,但token-type embedding和pooler层被移除,层数减半。学生网络通过从教师网络中每两层抽取一层来进行初始化。

  • Training loss:

     Lce 训练学生模仿教师模型的输出分布:

其中,titsi分别是教师网络和学生网络的预测概率。

同时使用了Hinton在2015年提出的softmax-temperature

其中,T控制输出分布的平滑度,当T变大时,类别之间的差距变小;当T变小时,类别间的差距变大。zi代表分类ii的模型分数。在训练时对学生网络和教师网络使用同样的temperature T,在推理时,设置T=1,恢复为标准的softmax。
        最终的loss函数为LceMask language model loss Lmlm(参考BERT)和 cosine embedding loss Lcos(student和teacher隐藏状态向量的cos计算)的线性组合。

 

3.3. 实验结果:

       根据表1-3可以看到,DistilBERT与BERT相比减少了40%的参数,同时保留了BERT 97%的性能,但提高了60%的速度

 

4.DynaBERT:

4.1. DynaBERT 简介:

       预训练模型,如BERT,在自然语言处理任务中的强大之处是毫无疑问,但是由于模型参数量较多、模型过大等问题,在部署方面对设备的运算速度和内存大小都有着极高的要求。因此,面对实际产业应用时,比如将模型部署到手机上时,就需要对模型进行瘦身压缩。最近的模型压缩方式基本上都是将大型的BERT网络压缩到一个固定的小尺寸网络。而实际工作中,不同的任务对推理速度和精度的要求不同,有的任务可能需要四层的压缩网络,而有的任务会需要六层的压缩网络。DynaBERT(dynamic BERT)提出一种不同的思路,它可以通过选择自适应宽度和深度来灵活地调整网络大小,从而得到一个尺寸可变的网络

 

4.2. 模型实现:

      DynaBERT的训练阶段包括两部分,首先通过知识蒸馏的方法将teacher BERT的知识迁移到有自适应宽度的子网络student DynaBERTW中,然后再对 DynaBERTW进行知识蒸馏得到同时支持深度自适应和宽度自适应的子网络 DynaBERT。训练过程流程图如图1所示。

 

  • 宽度自适应 Adaptive Width:

       一个标准的transfomer中包含一个多头注意力(MHA)模块和一个前馈网络(FFN)。在论文中,作者通过变换注意力头的个数 Nh和前馈网络中中间层的神经元个数 dff 来更改transformer的宽度。同时定义一个缩放系数 mw来进行剪枝,保留MHA中最左边的 [mwNH]个注意力头和 FFN中 [mwdff]个神经元。

        为了充分利用网络的容量,更重要的头部或神经元应该在更多的子网络中共享。因此,在训练宽度自适应网络前,作者在 fine-tuned BERT网络中根据注意力头和神经元的重要性对它们进行了排序,然后在宽度方向上以降序进行排列。这种选取机制被称为 Network Rewiring

 

       如何界定注意力头和神经元的重要性呢?作者去掉某个注意力头或神经元前后的loss变化,就是该注意力头或神经元的重要程度,变化越大则越重要。

  • 训练宽度自适应网络:

         首先,将BERT网络作为固定的教师网络,并初始化 DynaBERTW。然后通过知识蒸馏将知识从教师网络迁移到 DynaBERTW中不同宽度的学生子网络。其中,mw=[1.0,0.75,0.5,0.25]

       模型蒸馏的loss定义为: 

其中, λ1,λ2是控制不同损失函数权重的参数, lpred、lemb、lhidn分别定义为:lpred代表预测层的loss,SCE 代表交叉熵损失函数。lemb代表嵌入层的loss,MSE代表均方差损失函数。lhidn则为隐藏层的loss。

  • 训练深度自适应网络:

       训练好宽度自适应的DynaBERTW后,就可以将其作为教师网络训练同时具备宽度自适应和深度自适应的DynaBERT了。为了避免宽度方向上的灾难性遗忘,在每一轮训练中,仍对不同宽度进行训练。深度调节系数 md对网络层数进行调节,在训练中定义 md=[1.0,0.75,0.5]。深度方向上的剪枝根据 mod(d+1,1md)=0来去掉特定层。

      模型蒸馏的loss定义为:

 

4.3. 实验结果:

 

         从上表和上图可以看到,论文中提出的DynaBERT和DynaRoBERTa可以达到和 BERTBASE 及 DynaRoBERTa相当的精度,但是通常包含更少的参数,FLOPs或更低的延迟。在相同效率的约束下,从DynaBERT中提取的子网性能优于DistilBERT和TinyBERT

 

5.TinyBERT:

5.1. TinyBERT 简介:

          预训练模型的提出,比如BERT,显著的提升了很多自然语言处理任务的表现,它的强大是毫无疑问的。但是他们普遍存在参数过多、模型庞大、推理时间过长、计算昂贵等问题,因此很难落地到实际的产业应用中。TinyBERT是由华中科技大学和华为诺亚方舟实验室联合提出的一种针对transformer-based模型的知识蒸馏方法,以BERT为例对大型预训练模型进行研究。四层结构的 TinyBERT4在 GLUE benchmark 上可以达到 BERTbase96.8%及以上的性能表现,同时模型缩小7.5倍,推理速度提升9.4倍。六层结构的 TinyBERT6 可以达到和 BERTbase 同样的性能表现。

      TinyBERT主要做了以下两点创新:

  1. 提供一种新的针对 transformer-based 模型进行蒸馏的方法,使得BERT中具有的语言知识可以迁移到TinyBERT中去。
  2. 提出一个两阶段学习框架,在预训练阶段和fine-tuning阶段都进行蒸馏,确保TinyBERT可以充分的从BERT中学习到一般领域和特定任务两部分的知识。

5.2. 模型实现:

5.2.1知识蒸馏:

       知识蒸馏的目的在于将一个大型的教师网络 T 学习到的知识迁移到小型的学生网络 SS中。学生网络通过训练来模仿教师网络的行为。fS 和 fT代表教师网络和学生网络的behavior functions(行为函数)。这个行为函数的目的是将网络的输入转化为信息性表示,并且它可被定义为网络中任何层的输出。在基于Transformer的模型的蒸馏中,MHA(multi-head attention)层或FFN(fully connected feed-forward network)层的输出或一些中间表示,比如注意力矩阵 A都可被作为行为函数使用。

其中, L(⋅)是一个用于评估教师网络和学生网络之间差异的损失函数,x 是输入文本,X代表训练数据集。因此,蒸馏的关键问题在于如何定义行为函数和损失函数

 

5.2.2 Transformer Distillation:

        假设TinyBert有M层transformer layer,teacher BERT有N层transformer layer,则需要从teacher BERT的N层中抽取M层用于transformer层的蒸馏。n=g(m)定义了一个从学生网络到教师网络的映射关系,表示学生网络中第m层网络信息是从教师网络的第g(m)层学习到的,也就是教师网络的第n层。TinyBERT嵌入层和预测层也是从BERT的相应层学习知识的,其中嵌入层对应的指数为0,预测层对应的指数为M + 1,对应的层映射定义为 0=g(0)和 N+1=g(M+1)。在形式上,学生模型可以通过最小化以下的目标函数来获取教师模型的知识:

其中, Llayer是给定的模型层的损失函数(比如transformer层或嵌入层),fm代表第m层引起的行为函数,λm表示第m层蒸馏的重要程度。

         TinyBERT的蒸馏分为以下三个部分:transformer-layer distillation、embedding-layer distillation、prediction-layer distillation

  • Transformer-layer Distillation:

       Transformer-layer的蒸馏由attention based蒸馏和hidden states based蒸馏两部分组成,如图2所示。

        attention based蒸馏,BERT学习的注意力权重可以捕获丰富的语言知识,这些语言知识包括对自然语言理解非常重要的语法和共指信息。因此,TinyBERT提出attention based蒸馏,其目的是使学生网络很好地从教师网络处学习到这些语言知识。具体到模型中,就是让TinyBERT网络学习拟合BERT网络中的多头注意力矩阵,目标函数定义如下:

其中,h代表注意力头数,代表学生或教师的第 i个注意力头对应的注意力矩阵,l代表输入文本的长度。论文中提到,使用注意力矩阵 A 而不是 softmax(A)是因为实验结果显示这样可以得到更快的收敛速度和更好的性能表现。

        hidden states based蒸馏是对transformer层输出的知识进行了蒸馏处理,目标函数定义为:

其中,分别代表学生网络和教师网络的隐状态,是FFN的输出。d和 d′代表教师网络和学生网络的隐藏状态大小,且 d′<d,因为学生网络总是小于教师网络。是一个可训练的线性变换矩阵,将学生网络的隐藏状态投影到教师网络隐藏状态所在的空间。

  • Embedding-layer Distillation:

          Embedding loss和hidden states loss同理,其中 ES,ET代表学生网络和教师网络的嵌入,和隐藏状态矩阵的形状相同,同时 We和 Wh的作用也相同。

  • Prediction-layer Distillation:

其中,zS,zT分别是学生网络和教师网络预测的logits向量,CE代表交叉熵损失,t 是temperature value,当 t=1时,表现良好。

            对上述三个部分的loss函数进行整合,则可以得到教师网络和学生网络之间对应层的蒸馏损失如下:

 

5.3. 实验结果:

        作者在GLUE基准上评估了TinyBERT的性能,模型大小、推理时间速度和准确率如表1所示。实验结果表明,TinyBERT在所有GLUE任务上都优于 BERTTINY,并在平均性能上获得6.8%的提升。这表明论文中提出的知识整理学习框架可以有效的提升小模型在下游任务中的性能。同时,TinyBERT4以~4%的幅度显著的提升了KD SOTA基准线(比如,BERT-PKD和DistilBERT),参数缩小至~28%,推理速度提升3.1倍。与teacher BERTbase相比,TinyBERT在保持良好性能的同时,模型缩小7.5倍,速度提升9.4倍。

 

0条评论
0 / 1000