Additive Powers-of-Two (APoT) Quantization:硬件友好的非均匀量化方法

本文主要是介绍Additive Powers-of-Two (APoT) Quantization:硬件友好的非均匀量化方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Additive Powers-of-Two Quantization:硬件友好的非均匀量化方法

      • 摘要
      • 方法
        • Additive Powers-of-Two量化 (APoT)
          • 量化表示
          • 均匀量化表示
          • Powers-of-Two (PoT) 量化表示
          • Additive Powers-of-Two(APoT)量化表示
        • 参数化Clipping函数 (RCF)
        • 权重归一化
        • APoT量化伪代码
      • 实验结果
        • CIFAR-10
        • ImageNet

本文是电子科大&哈佛大学&新加坡国立联合发表在 ICLR2020 上的一篇非均匀量化(APoT)的工作。本文,在非均匀量化中通过采用Additive Powers-of-Two(APoT)加法二次幂量化,综合考虑了计算上有效性,低比特量化导致的模型精度下降问题。并实现了不错的量化效果!

  • 论文题目:Additive Powers-of-Two Quantization: A Non-uniform Discretization for Neural Networks
  • 论文链接:https://arxiv.org/pdf/1909.13144v2.pdf
  • 论文代码:https://github.com/yhhhli/APoT_Quantization

摘要

本文首先提出了Additive Powers-of-Two(APoT)加法二次幂量化,一种针对钟形和长尾分布的神经网络权重,有效的非均匀性量化方案。通过将所有量化数值限制为几个二次幂相加,这APoT量化有利于提高计算效率,并与权重分布良好匹配。其次,本文通过参数化Clipping函数以生成更好的更新最佳饱和阈值的梯度。最后,提出对权重归一化来调整权重的输入分布,使其在量化后更加稳定和一致。实验结果表明,本文提出的方法优于最先进的方法,甚至可以与全精度模型竞争,因此证明了本文提出的APoT量化的有效性。例如,本文在 ImageNe t上的 3bit 量化 ResNet-34 仅下降了 0.3% 的 Top-1 和 0.2% Top-5 的准确性。

方法

Additive Powers-of-Two量化 (APoT)

三种量化方法示意图

量化表示

W ^ = Π Q ( α , b ) ⌊ W , α ⌉ \hat{\boldsymbol{W}}=\Pi_{\mathcal{Q}(\alpha, b)}\lfloor\boldsymbol{W}, \alpha\rceil W^=ΠQ(α,b)W,α

  • W ∈ R C out × C in × K × K \boldsymbol{W} \in \mathbb{R}^{C_{\text {out}} \times C_{\text {in}} \times K \times K} WRCout×Cin×K×K
  • α \alpha α 代表裁剪阈值。
  • ⌊ ⋅ , α ⌉ \lfloor \cdot , \alpha\rceil ,α 代表Clip函数,将权重裁剪到 [ − α , α ] [-\alpha, \alpha] [α,α]
  • W \boldsymbol{W} W中每个元素通过 Π ( ⋅ ) \Pi(\cdot) Π() 映射成量化值
  • Q ( α , b ) \mathcal{Q}(\alpha, b) Q(α,b)代表量化候选数值
  • b b b 代表量化位宽
均匀量化表示

Q u ( α , b ) = α × { 0 , ± 1 2 b − 1 − 1 , ± 2 2 b − 1 − 1 , … , ± 1 } \mathcal{Q}^{u}(\alpha, b)=\alpha \times\left\{0, \frac{\pm 1}{2^{b-1}-1}, \frac{\pm 2}{2^{b-1}-1}, \ldots,\pm 1\right\} Qu(α,b)=α×{0,2b11±1,2b11±2,,±1}

Powers-of-Two (PoT) 量化表示

Q p ( α , b ) = α × { 0 , ± 2 − 2 b − 1 + 1 , ± 2 − 2 b − 1 + 2 , … , ± 2 − 1 , ± 1 } \mathcal{Q}^{p}(\alpha, b)=\alpha \times\left\{0, \pm 2^{-2^{b-1}+1}, \pm 2^{-2^{b-1}+2}, \ldots, \pm 2^{-1},\pm 1\right\} Qp(α,b)=α×{0,±22b1+1,±22b1+2,,±21,±1}

基于Powers-of-Two (PoT) 的非均匀量化模式有一个好处是在计算过程中可以采用移位的方式代替复杂的乘法运算,因此幂次的非均匀量化可以显著提高计算效率。如下公示所示:

2 k x = { x if  k = 0 x < < k if  k > 0 x > > k if  k < 0 2^{k} x=\left\{\begin{array}{lr} x & \text { if } k = 0 \\ x << k & \text { if } k > 0 \\ x >> k & \text { if } k < 0 \end{array}\right. 2kx=xx<<kx>>k if k=0 if k>0 if k<0

基于Powers-of-Two (PoT) 的非均匀量化十分适配基于钟型的weights形式,可以实现0附近权重集中的位置量化表示多,长尾部分量化表示少。

Additive Powers-of-Two(APoT)量化表示

PoT 量化虽然十分适配基于钟型的weights形式,但是,对于增加bit数是没有明显增益。比如,我们将位宽从 b b b设置为 b + 1 b+1 b+1 [ 0 , ± 2 − 2 b − 1 + 1 ] \left[0, \pm 2^{-2^{b-1}+1}\right] [0,±22b1+1]范围内的间隔(interval)不会发生变化,只是在 [ − 2 − 2 b − 1 + 1 , 2 − 2 b − 1 + 1 ] \left[-2^{-2^{b-1}+1}, 2^{-2^{b-1}+1}\right] [22b1+1,22b1+1]范围进一步缩小间隔。这个问题被定义为 rigid resolution(刚性分辨率)问题。为解决此问题,本文提出了APoT量化表示。

Q a ( α , k n ) = γ × { ∑ i = 0 n − 1 p i } where  p i ∈ { 0 , 1 2 i , 1 2 i + n , … , 1 2 i + ( 2 k − 1 ) n } \mathcal{Q}^{a}(\alpha, k n)=\gamma \times\left\{\sum_{i=0}^{n-1} p_{i}\right\} \text { where } p_{i} \in\left\{0, \frac{1}{2^{i}}, \frac{1}{2^{i+n}}, \ldots, \frac{1}{2^{i+\left(2^{k}-1\right) n}}\right\} Qa(α,kn)=γ×{i=0n1pi} where pi{0,2i1,2i+n1,,2i+(2k1)n1}

  • γ \gamma γ 是一个缩放系数,以确保 Q a \mathcal{Q}^{a} Qa 中的最大级别是 γ \gamma γ
  • k k k 称为基位宽,即每个加法项的位宽 n n n 是加法项的数量。
  • 当设置了位宽 b b b和基位宽 k k k时, n n n可由 n = b k n=\frac{b}{k} n=kb计算得到。
参数化Clipping函数 (RCF)

传统的STE仅仅对clip函数边界以外的阈值梯度值进行更新,对于边界以内的阈值参数梯度均为零,这不利于寻找最优的clip阈值边界。

∂ W ^ ∂ α ≈ ∂ ⌊ W , α ⌉ ∂ α = sign ⁡ ( W ) if  ∣ W ∣ > α else  0 \frac{\partial \hat{W}}{\partial \alpha} \approx \frac{\partial\lfloor W, \alpha\rceil}{\partial \alpha}=\operatorname{sign}(W) \text { if }|W|>\alpha \text { else } 0 αW^αW,α=sign(W) if W>α else 0

针对传统STE梯度约束不完整的问题,本文对权重内外的阈值边界梯度均进行梯度约束,以便于更快更好的训练得到最优阈值。

W ^ = α Π Q ( 1 , b ) ⌊ W α , 1 ⌉ \hat{\boldsymbol{W}}=\alpha \Pi_{\mathcal{Q}(1, b)}\left\lfloor\frac{\boldsymbol{W}}{\alpha}, 1\right\rceil W^=αΠQ(1,b)αW,1

∂ W ^ ∂ α = { sign ⁡ ( W ) if  ∣ W ∣ > α Π Q ( 1 , b ) W α − W α if  ∣ W ∣ ≤ α \frac{\partial \hat{\boldsymbol{W}}}{\partial \alpha}=\left\{\begin{array}{ll} \operatorname{sign}(\boldsymbol{W}) & \text { if }|\boldsymbol{W}|>\alpha \\ \Pi_{\mathcal{Q}(1, b)} \frac{\boldsymbol{W}}{\alpha}-\frac{\boldsymbol{W}}{\alpha} & \text { if }|\boldsymbol{W}| \leq \alpha \end{array}\right. αW^={sign(W)ΠQ(1,b)αWαW if W>α if Wα


class _pq(torch.autograd.Function):@staticmethoddef forward(ctx, input, alpha):input.div_(alpha)                          # weights are first divided by alphainput_c = input.clamp(min=-1, max=1)       # then clipped to [-1,1]sign = input_c.sign()input_abs = input_c.abs()if power:input_q = power_quant(input_abs, grids).mul(sign)  # project to Q^a(alpha, B)else:input_q = uniform_quant(input_abs, b).mul(sign)ctx.save_for_backward(input, input_q)input_q = input_q.mul(alpha)               # rescale to the original rangereturn input_q@staticmethoddef backward(ctx, grad_output):grad_input = grad_output.clone()             # grad for weights will not be clippedinput, input_q = ctx.saved_tensorsi = (input.abs()>1.).float()sign = input.sign()grad_alpha = (grad_output*(sign*i + (input_q-input)*(1-i))).sum()return grad_input, grad_alpha
权重归一化

权重归一化为裁剪(Clip)和投影(projection)提供了相对一致且稳定的输入分布,这便于在训练过程中更平滑地优化不同层和迭代。 此外,将权重的平均值设为零可以使得量化更加对称。权重归一化公式如下,主要是通过权重值减均值除方差完成,使得归一化后的权重分布满足均值为0方差为1。

W ~ = W − μ σ + ϵ , where  μ = 1 I ∑ i = 1 I W i , σ = 1 I ∑ i = 1 I ( W i − μ ) 2 \tilde{\boldsymbol{W}}=\frac{\boldsymbol{W}-\mu}{\sigma+\epsilon}, \text { where } \mu=\frac{1}{I} \sum_{i=1}^{I} \boldsymbol{W}_{i}, \sigma=\sqrt{\frac{1}{I} \sum_{i=1}^{I}\left(\boldsymbol{W}_{i}-\mu\right)^{2}} W~=σ+ϵWμ, where μ=I1i=1IWi,σ=I1i=1I(Wiμ)2

权重归一化使得训练参数更加一致

APoT量化伪代码

APoT量化伪代码

实验结果

CIFAR-10

CIFAR-10量化结果

ImageNet

ImageNet量化结果-表格

ImageNet量化结果-柱状图


更多内容关注微信公众号【AI异构】

这篇关于Additive Powers-of-Two (APoT) Quantization:硬件友好的非均匀量化方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/282705

相关文章

判断PyTorch是GPU版还是CPU版的方法小结

《判断PyTorch是GPU版还是CPU版的方法小结》PyTorch作为当前最流行的深度学习框架之一,支持在CPU和GPU(NVIDIACUDA)上运行,所以对于深度学习开发者来说,正确识别PyTor... 目录前言为什么需要区分GPU和CPU版本?性能差异硬件要求如何检查PyTorch版本?方法1:使用命

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义

SpringMVC 通过ajax 前后端数据交互的实现方法

《SpringMVC通过ajax前后端数据交互的实现方法》:本文主要介绍SpringMVC通过ajax前后端数据交互的实现方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价... 在前端的开发过程中,经常在html页面通过AJAX进行前后端数据的交互,SpringMVC的controll

Java中的工具类命名方法

《Java中的工具类命名方法》:本文主要介绍Java中的工具类究竟如何命名,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录Java中的工具类究竟如何命名?先来几个例子几种命名方式的比较到底如何命名 ?总结Java中的工具类究竟如何命名?先来几个例子JD

Spring Security自定义身份认证的实现方法

《SpringSecurity自定义身份认证的实现方法》:本文主要介绍SpringSecurity自定义身份认证的实现方法,下面对SpringSecurity的这三种自定义身份认证进行详细讲解,... 目录1.内存身份认证(1)创建配置类(2)验证内存身份认证2.JDBC身份认证(1)数据准备 (2)配置依

python获取网页表格的多种方法汇总

《python获取网页表格的多种方法汇总》我们在网页上看到很多的表格,如果要获取里面的数据或者转化成其他格式,就需要将表格获取下来并进行整理,在Python中,获取网页表格的方法有多种,下面就跟随小编... 目录1. 使用Pandas的read_html2. 使用BeautifulSoup和pandas3.

Spring 中的循环引用问题解决方法

《Spring中的循环引用问题解决方法》:本文主要介绍Spring中的循环引用问题解决方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录什么是循环引用?循环依赖三级缓存解决循环依赖二级缓存三级缓存本章来聊聊Spring 中的循环引用问题该如何解决。这里聊

Java学习手册之Filter和Listener使用方法

《Java学习手册之Filter和Listener使用方法》:本文主要介绍Java学习手册之Filter和Listener使用方法的相关资料,Filter是一种拦截器,可以在请求到达Servl... 目录一、Filter(过滤器)1. Filter 的工作原理2. Filter 的配置与使用二、Listen

Pandas统计每行数据中的空值的方法示例

《Pandas统计每行数据中的空值的方法示例》处理缺失数据(NaN值)是一个非常常见的问题,本文主要介绍了Pandas统计每行数据中的空值的方法示例,具有一定的参考价值,感兴趣的可以了解一下... 目录什么是空值?为什么要统计空值?准备工作创建示例数据统计每行空值数量进一步分析www.chinasem.cn处

Windows 上如果忘记了 MySQL 密码 重置密码的两种方法

《Windows上如果忘记了MySQL密码重置密码的两种方法》:本文主要介绍Windows上如果忘记了MySQL密码重置密码的两种方法,本文通过两种方法结合实例代码给大家介绍的非常详细,感... 目录方法 1:以跳过权限验证模式启动 mysql 并重置密码方法 2:使用 my.ini 文件的临时配置在 Wi