速神经网络的训练算法LARS/LAMB工作原理 --UC Berkeley在读博士生尤洋

本文主要是介绍速神经网络的训练算法LARS/LAMB工作原理 --UC Berkeley在读博士生尤洋,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


为什么深度学习很慢?
如果我们利用并行计算,怎样才能完美的利用大量的processor?
为什么large batch size会引起精度降低?
新优化器
参考:
快速神经网络的训练算法 --UC Berkeley博士尤洋
本片文章介绍的两种算法不仅可以优化并行计算,在普通硬件环境中运行也是有效的。算法是由UC Berkeley博士尤洋开发。在固定精度的情况下,新算法可以更快的达到要求,在固定训练时间的情况下,可以有更好的精度。
目前深度学习面临的一个问题是,没有一个通用的优化器。Adaptive optimizers (Adam/AdaGrad)在ImageNet上面表现就不是很好,这导致现在很多ImageNet都在用Momentum进行优化。反过来Momentum在BERT的训练上面也表现平平。

为什么深度学习很慢?
现在大部分的算法都是SGD的变形。SGD随机梯度下降算法:
(Mini-Batch) SGD:
1.Take B data points each iteration (B: batch size)
2.Compute gradients of woeights based on B data points
3.Update the weights: W = W - learning_rate * ▽W

由上图我们可以看到ResNet50的计算量非常大,而BERT的计算量是ResNet的50倍左右。

如果我们利用并行计算,怎样才能完美的利用大量的processor?
有三种思路,第一种并行计算神经网络的层。每台机器负责运算神经网络中的几层。这种思路显然是不对的,因为神经网络需要前向与反向传递,这种传递是顺序的数据依赖,所以在计算的时候只有一台机器在运作其他机器在等待。
第二种思路是并行计算每一层中不同的节点。这种思路可行,但是这就需要一个很宽的神经网络。每一层都都很多神经元。而相比于神经网络的宽度,深度明显要更重要。

根据上图可以看出,宽而浅的神经网络的表现并没有深度网络好。进而我们有了第三种思路:数据并行。

这种思路也是现今的主流,但是这种思路也有一个问题,那就是需要比较大的batch size。在忽略收敛性的前提下增加batch size可以加快并行速度。

上图我们可以看到batch size增加,GPU的速度也增加了。

从上图的表中我们可以看到,t1远大于t2,增加batch size可以减小迭代次数从而加快计算速度。这样加快深度神经网络的训练就可以转化为,如何去增加训练的batch size。

但是问题随之而来,大的batch size会引起精度降低。所以增加训练的batch size又可以转化成如何在增加batch size的情况下保持模型的精度。

为什么large batch size会引起精度降低?
一般来说有两种解释,第一种是泛化问题(Generalization problem),模型具有较高training accuracy,但是test accuracy却很低。这种解释是Intel公司2017年提出的。论文地址:https://openreview.net/pdf?id=H1oyRlYgg

Generalization problem:

Regular batch: |Test loss - Train loss| is small
Large batch: |Test loss - Train loss| is large
泛化问题具体解释可以去论文原文中找到,这里就不在赘述。

想要解决这种问题,可以利用Batch Normalization。利用BN之后test accuracy下降从原来的0.05降低到了0.01左右(batch size = 4096)。
第二种解释是因为优化难度问题,很难去找到正确的超参。这种解释是17年由Facebook公司提出的。论文地址:https://openreview.net/pdf?id=H1oyRlYgg
论文里面提出了两种解决方法,第一种是在增加batch size的同时增加learning rate,两者增加相同的倍数。第二种方法是warmup热身,从小的learning rate一点点增加然后再回复到原始的learning rate。

新优化器
在尤洋博士的研究中,他发现Large batch size在深度神经网络中,每一层的梯度权重比有很大的不同。如下图所示:

这张图我们可以看到第1层和第6层的比值相差很大。这就意味着用相同的learning rate去更新权重的话,会导致第一层更新的效率跟第六层的更新效率相差很大。如果learning rate适应第6层的话,第1层很有可能无法收敛。这就导致了神经网络的准确率下降。
所以这里引入了尤洋博士的新算法Layer-wise Adaptive Rate Scaling(LARS)。新的算法主要改变了learning rate。算法如图:


LARS算法使得每一层的学习率都有所不同,这样就减少因为学习率导致无法收敛的情况。(学习率修正)
在经过LARS优化之后AlexNet的large batch size的test accuracy的效果也变得很好。

增加了batch size训练速度也有大幅度提升。
在文章的第一步我们提到了神经网络中没有一个通用的优化器,那么LARS是否可以用于其他模型的优化。


由上面两张图中我们可以看到LARS在ResNet中表现的很好,在BERT上面虽然在8k左右的时候表现比原来的优化器表现要好,但是当batch size增加到16k以上的时候,表现却出现了下滑。

由此,尤洋博士提出了新优化器Layer-wise Adaptive Moments for Batch(LAMB):

新的算法结合了Adam和刚才提出的layer-wise修正(LARS)。
在应用LAMB优化器后,BERT的训练时间在保持精度的同时降低了60倍。

LAMB优化器在ResNet的训练ImageNet中也击败了Momentum优化器。

并且在小的数据集中表现也非常好。


参考:
https://www.bilibili.com/video/av54050301
https://arxiv.org/pdf/1904.00962v3.pdf
https://openreview.net/pdf?id=H1oyRlYgg
 

这篇关于速神经网络的训练算法LARS/LAMB工作原理 --UC Berkeley在读博士生尤洋的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/670538

相关文章

ShardingProxy读写分离之原理、配置与实践过程

《ShardingProxy读写分离之原理、配置与实践过程》ShardingProxy是ApacheShardingSphere的数据库中间件,通过三层架构实现读写分离,解决高并发场景下数据库性能瓶... 目录一、ShardingProxy技术定位与读写分离核心价值1.1 技术定位1.2 读写分离核心价值二

深度解析Python中递归下降解析器的原理与实现

《深度解析Python中递归下降解析器的原理与实现》在编译器设计、配置文件处理和数据转换领域,递归下降解析器是最常用且最直观的解析技术,本文将详细介绍递归下降解析器的原理与实现,感兴趣的小伙伴可以跟随... 目录引言:解析器的核心价值一、递归下降解析器基础1.1 核心概念解析1.2 基本架构二、简单算术表达

深入浅出Spring中的@Autowired自动注入的工作原理及实践应用

《深入浅出Spring中的@Autowired自动注入的工作原理及实践应用》在Spring框架的学习旅程中,@Autowired无疑是一个高频出现却又让初学者头疼的注解,它看似简单,却蕴含着Sprin... 目录深入浅出Spring中的@Autowired:自动注入的奥秘什么是依赖注入?@Autowired

从原理到实战解析Java Stream 的并行流性能优化

《从原理到实战解析JavaStream的并行流性能优化》本文给大家介绍JavaStream的并行流性能优化:从原理到实战的全攻略,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的... 目录一、并行流的核心原理与适用场景二、性能优化的核心策略1. 合理设置并行度:打破默认阈值2. 避免装箱

Python中的filter() 函数的工作原理及应用技巧

《Python中的filter()函数的工作原理及应用技巧》Python的filter()函数用于筛选序列元素,返回迭代器,适合函数式编程,相比列表推导式,内存更优,尤其适用于大数据集,结合lamb... 目录前言一、基本概念基本语法二、使用方式1. 使用 lambda 函数2. 使用普通函数3. 使用 N

MyBatis-Plus 与 Spring Boot 集成原理实战示例

《MyBatis-Plus与SpringBoot集成原理实战示例》MyBatis-Plus通过自动配置与核心组件集成SpringBoot实现零配置,提供分页、逻辑删除等插件化功能,增强MyBa... 目录 一、MyBATis-Plus 简介 二、集成方式(Spring Boot)1. 引入依赖 三、核心机制

redis和redission分布式锁原理及区别说明

《redis和redission分布式锁原理及区别说明》文章对比了synchronized、乐观锁、Redis分布式锁及Redission锁的原理与区别,指出在集群环境下synchronized失效,... 目录Redis和redission分布式锁原理及区别1、有的同伴想到了synchronized关键字

Linux中的HTTPS协议原理分析

《Linux中的HTTPS协议原理分析》文章解释了HTTPS的必要性:HTTP明文传输易被篡改和劫持,HTTPS通过非对称加密协商对称密钥、CA证书认证和混合加密机制,有效防范中间人攻击,保障通信安全... 目录一、什么是加密和解密?二、为什么需要加密?三、常见的加密方式3.1 对称加密3.2非对称加密四、

setsid 命令工作原理和使用案例介绍

《setsid命令工作原理和使用案例介绍》setsid命令在Linux中创建独立会话,使进程脱离终端运行,适用于守护进程和后台任务,通过重定向输出和确保权限,可有效管理长时间运行的进程,本文给大家介... 目录setsid 命令介绍和使用案例基本介绍基本语法主要特点命令参数使用案例1. 在后台运行命令2.

Spring Security 单点登录与自动登录机制的实现原理

《SpringSecurity单点登录与自动登录机制的实现原理》本文探讨SpringSecurity实现单点登录(SSO)与自动登录机制,涵盖JWT跨系统认证、RememberMe持久化Token... 目录一、核心概念解析1.1 单点登录(SSO)1.2 自动登录(Remember Me)二、代码分析三、