当前位置:首页>科技 >内容

AutoML模型压缩技术利用强化学习将压缩流程自动化

2023-10-07 12:39:30科技漂亮的斑马

麻省理工学院的韩松团队和谷歌云的研究人员提出了AutoML模型压缩技术,利用强化学习将压缩过程自动化,完全不需要人工,速度更快,性能更高

AutoML模型压缩技术利用强化学习将压缩流程自动化

麻省理工学院的韩松团队和谷歌云的研究人员提出了AutoML模型压缩技术,利用强化学习将压缩过程自动化,完全不需要人工,速度更快,性能更高。

模型压缩是在计算资源有限和能源预算紧张的移动设备上有效部署神经网络模型的关键技术。

在许多机器学习应用中,如机器人、自动驾驶和广告排名,深度神经网络经常受到延迟、功耗和模型大小预算的限制。许多研究提出通过压缩模型来提高神经网络的硬件效率。

模型压缩技术的核心是确定各层的压缩策略,因为它们具有不同的冗余度,这通常需要人工实验和领域专业知识来探索模型大小、速度和精度之间的大设计空间。这个设计空间非常大,手工探索方法通常是次优的,手工模型压缩非常耗时。

因此,韩松团队提出了AutoML for Model Compression (AMC),利用强化学习来提供模型压缩策略。

纸张地址:

https://arxiv.org/pdf/1802.03494.pdf

负责这项研究的麻省理工学院助理教授韩松博士说:

“计算力转换算法”是AutoML系列的热门话题,AMC属于“计算力转换力”:把训练中的计算力换成推理中的计算力。完成一次训练后,模型可能会在云上或移动端部署上千次,所以推理的速度和功耗非常重要。

我们用AutoML作为一次性投入,优化模型的硬件效率,然后在推理的时候就可以事半功倍。例如,AMC将MobileNet推断的计算复杂度从569M MACs降低到285M MACs,并将Pixel-1手机上的速度从8.1fps提高到14.6fps,top-1的准确率仅损失0.1%。AMC采用合适的搜索空间,搜索压缩策略只需要4个GPU小时。

综上所述,AMC以“训练计算力”换取“推理计算力”,减少对“人力”的依赖。最后感谢Google Cloud AI对这个项目的支持。

谷歌云R&D总监李佳也表示:“AMC是我们在模型压缩方面的尝试。我希望有了这种技术,更多移动和计算资源有限的应用将成为可能。”

“Cloud AutoML产品设计让机器学习的过程变得更简单,让即使没有机器学习经验的人也能享受到机器学习带来的好处。虽然AutoML已经有了很大的进步,但它仍然是一项比较早期的技术,还有很多方面需要改进和创新。”李佳说。

用AI做模型压缩,完全不需要人工。

研究人员的目标是自动找到任何网络的压缩策略,以实现比人工设计的基于规则的模型压缩方法更好的性能。

这部作品的创新之处体现在:

1、AMC的基于学习的模型压缩优于传统的基于规则的模型压缩。

2、使用有限资源进行搜索

3、细粒度操作的连续操作空间

4、使用少量GPU进行快速搜索(ImageNet上1个GPU,4小时)

目的:自动化压缩过程,无需人工操作。使用AI进行模型压缩是自动的,速度更快,性能更高。

这种基于学习的压缩策略优于传统的基于规则的压缩策略,压缩比更高,在节省人力的同时更好地保持了准确性。

在4FLOP减少的情况下,我们在ImageNet上对VGG-16模型进行压缩,准确率比手动模型压缩策略提高了2.7%。

我们把这个自动压缩流水线应用到MobileNet上,推断的延迟加速在Android手机上是1.81倍,在Titan XP GPU上是1.43倍,ImageNet Top-1的准确率只下降了0.1%。

AutoML模型压缩:基于学习而非规则

图1:1:AutoML模型压缩(AMC)引擎概述。左图:AMC代替人工,完全自动化模型压缩过程,表现优于人类。右:把AMC当做一个强化学习的话题。

先前的研究提出了许多基于规则的启发式模型压缩方法。然而,因为深度神经网络中的层不是独立的,所以这些基于规则的剪枝策略不是最优的,并且不能从一个模型转移到另一个模型。随着神经网络结构的快速发展,我们需要一种自动的方法来压缩它们,以提高工程师的效率。

AutoML for Model Compression(AMC)使用强化学习来自动对设计空间进行采样,并提高模型压缩的质量。图1显示了AMC引擎的概况。在压缩网络中,ACM引擎通过基于学习的策略自动执行这一过程,而不是依赖基于规则的策略和工程师。

我们观察到压缩模型的精度对每一层的稀疏性非常敏感,这就需要细粒度的动作空间。因此,我们不是在离散的空间中搜索,而是通过DDPG代理提出一种连续的压缩比控制策略,通过试错来学习:精度损失时惩罚,模型降低加速时鼓励。演员-评论家的结构也有助于减少差异,促进更稳定的培训。

根据不同的场景,我们提出了两种压缩策略搜索协议:

对于延迟关键的AI应用(例如,移动app、自动驾驶汽车和广告排名),我们建议在最大硬件资源(例如,翻牌、延迟和模型大小)下进行资源受限压缩,以实现最佳精度。

对于质量关键的AI应用(比如Google Photos),我们提出了保证精度的压缩,可以在不损失精度的情况下实现最小尺寸模型。

DDPG代理商

DDPG代理用于连续动作空间(0-1)。

输入每层的状态嵌入,输出稀疏率。

压缩方法的研究

用于模型大小压缩的细粒度修剪

粗粒度/通道修剪以加速推理。

搜索协议

有限的资源压缩,以达到理想的压缩比,同时获得尽可能高的性能。

精度保证了压缩,在保持最小模型尺寸的同时,完全保持了原有的精度。

为了保证压缩的准确性,我们定义了一个准确性和硬件资源的奖励函数。有了这个奖励函数,可以在不损害模型精度的情况下探索压缩的极限。

对于资源受限的压缩,只需使用Rerr=-Error。

对于保证精度的压缩,要考虑精度和资源(比如flops):r flops=-error log(flops)。

实验和结果:完全超越手动参数调整。

为了证明其通用性和普遍适用性,我们在几个神经网络上对AMC引擎进行了评估,包括VGG、雷斯网和MobileNet,我们还测试了压缩模型从分类到目标检测的泛化能力。

ResNet-50强化学习代理的剪枝策略

ACM在不损失精度的情况下将模型压缩到更低的密度(人类学家:ResNet50压缩3.4倍;AMC:ResNet50压缩了5倍)

大量实验表明,AMC提供的性能优于人工调优的启发式策略。对于ResNet-50,我们在不降低精度的情况下,将专家调优的压缩比从3.4倍提高到5倍。

AMC加速MobileNet。

此外,我们将MobileNet的FLOP降低了2倍,达到了70.2%的Top-1精度,优于0.75 MobileNet的帕累托曲线,在Titan XP中实现了1.53倍的加速,在一部Android手机中实现了1.95倍的加速。

AMC和人类专家压缩MobileNet的精度和推理时间比较

结论

传统的模型压缩技术使用手动特征,这需要领域专家探索很大的设计空间,权衡模型的大小、速度和精度,但结果通常不是最优的,并且非常耗费人力。

本文提出了AutoML模型压缩(AMC ),通过强化学习自动搜索设计空间,大大提高了模型压缩的质量。我们还设计了两种新的奖励方案来执行资源受限压缩和精度保证压缩。

在Cifar和ImageNet上,采用AMC方法对MobileNet、MobileNet- v2、ResNet和VGG进行压缩,得到了令人信服的结果。该压缩模型可以很好地从分类任务扩展到检测任务。在谷歌Pixel 1手机上,我们将MobileNet的推理速度从8.1 fps提高到了16.0 fps。AMC促进了深度神经网络在移动设备上的高效设计。

声明本站所有作品图文均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系我们

Top