GRU 的总结

2024-06-07 14:48
文章标签 总结 gru

本文主要是介绍GRU 的总结,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

       书接LSTM的介绍(LSTM的总结),这一节来介绍GRU。GRU(Gate Recurrent Unit)是循环神经网络(Recurrent Neural Network, RNN)的一种。和LSTM(Long-Short Term Memory)一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。

       从LSTM的介绍可以知道,一个时间 t 要计算的很多,三个门/权重向量 z,完了还要计算两种信息:全局的和局部的,计算量非常大。基于此,诞生了GRU,它跟LSTM有相当的效果,但是比LSTM的计算更简单,更节省时间和算力。

       简单来看下GRU的基础单元跟基本的RNN一样,都是两个输入h_t-1和x_t,两个输出h_t和y_t,如下图所示:

        再来看下那个蓝色的GRU模块的具体计算吧,先看下面的计算图,为了方便对GRU的理解,顺便放一张LSTM的计算图,对比理解,其中,左边的是LSTM的计算图,右边的GRU的计算图:

                        

        如图所示,看着非常复杂,但是很好拆解,下面就来拆解一下:

     (1)“门”的计算。跟LSTM一样,结合前一步的输出h_t-1和当前输入x_t来计算信息提取要用的权重。

       但是跟LSTM不一样的地方是,LSTM有三个权重(门),GRU只有两个门,看别人的叫法是重置门和更新门,其实他们的计算都跟LSTM极其相似(其实我想说是一样的),计算公式如下:

preview

       图里面的 r 就是重置门,z 就是更新门。然后这里用的激活函数都是sigmod,这个跟KSTM一样,LSTM的三个门的计算也是两个信息的拼接,然后乘一个权重矩阵W,最后再sigmoid一样,得到后面要用的权重向量,也就是常说的“门”。

(2)第二步,来看下有了门之后怎么利用他们来夺取信息。

        在LSTM里,单元间循环利用的有两种信息:长时信息c_t和局部信息h_t,而在GRU里面只有一个h_t。从GRU的计算过程来看,这个h_t的作用其实相当于LSTM里面的c_t,就是长时信息。有了这个认知,后面就好理解了。

       现在有了长时信息 h_t 和当前输入 x_t,跟LSTM比起来,就差了一个局部信息了。在LSTM里面的局部信息其实是,通过遗忘门 Z_f 在长时信息 c_t 里面提取然后传到下一个时间刻的。在GRU的设计里,其实也是通过一个重置门 r 直接从长时信息里面提取的,在GRU里面,当前时刻 t 能用到局部信息的计算如下:

 好家伙,这里的 (h_t-1)'  就是通过重置门 r 从长时信息里提取的局部信息。

(3)当前信息的处理,第二步得到了局部信息,现在问题就来了,这个局部信息要怎么用呢。

        记得在LSTM里面,局部信息是直接跟外部输入拼接了之后乘一个权重,然后用tanh做了下压缩,形成了当前的信息。在GRU里面的做法也是一样的,把局部信息 (h_t-1)'  和外部输入 x_t 拼接,然后乘权重过tanh,形成当前的信息。具体的计算公式如下:

preview

(4)到这一步了,我们已经有了长时信息 h_t-1,局部信息 (h_t-1)' ,融合了外部输入 x_t 后的当前信息 h',还有一个第一步计算的一直没用过的更新门z。那么如何通过这些信息产生一个新的输出 h_t呢。

       其实,在LSTM里面,最后生成的长时信息,就是前一步的长时信息和这一步的当前信息,通过权重各取一部分融合在一起的。在GRU里面,也是这种思想,但是参数相对会少很多,GRU里面新的长时信息 h_t 的计算如下:

好了,这就是一个GRU单元最后的输出了。

       其实整体分析完,发现GRU比LSTM计算快的地方应该就是少了一个门的计算吧。毕竟虽然是只有一个长时信息 h_t (在LSTM里面用 c_t 表示,在GRU里面用 h_t 表示)在循环利用,但是该计算的局部信息都计算了。在LSTM里面是在上一个时刻计算好了,传给下一个时刻使用,而在GRU里面则是直接在当前单元利用长时信息计算,甚至计算的模式和思想都一样。。。。就是设计用的参数不一样。。。。。只能说,都是大佬啊,能做这样的改编。。。。

       “如果只是对gru和lstm来说的话,一方面GRU的参数更少,因而训练稍快或需要更少的数据来泛化。另一方面,如果你有足够的数据,LSTM的强大表达能力可能会产生更好的结果。”——深入理解lstm及其变种gru

 

注:文章中所有的配图来自于李宏毅老师NLP课程,被用在知乎博主的博客中,公式也是这位博主的(实在是懒得自己手打。。。。),博主的LSTM和GRU都讲的很好,简单明了,没我这么啰嗦,博客地址为:人人都能看懂的GRU

这篇关于GRU 的总结的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1039484

相关文章

SQL中JOIN操作的条件使用总结与实践

《SQL中JOIN操作的条件使用总结与实践》在SQL查询中,JOIN操作是多表关联的核心工具,本文将从原理,场景和最佳实践三个方面总结JOIN条件的使用规则,希望可以帮助开发者精准控制查询逻辑... 目录一、ON与WHERE的本质区别二、场景化条件使用规则三、最佳实践建议1.优先使用ON条件2.WHERE用

Nginx Location映射规则总结归纳与最佳实践

《NginxLocation映射规则总结归纳与最佳实践》Nginx的location指令是配置请求路由的核心机制,其匹配规则直接影响请求的处理流程,下面给大家介绍NginxLocation映射规则... 目录一、Location匹配规则与优先级1. 匹配模式2. 优先级顺序3. 匹配示例二、Proxy_pa

Android学习总结之Java和kotlin区别超详细分析

《Android学习总结之Java和kotlin区别超详细分析》Java和Kotlin都是用于Android开发的编程语言,它们各自具有独特的特点和优势,:本文主要介绍Android学习总结之Ja... 目录一、空安全机制真题 1:Kotlin 如何解决 Java 的 NullPointerExceptio

MySQL基本查询示例总结

《MySQL基本查询示例总结》:本文主要介绍MySQL基本查询示例总结,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录Create插入替换Retrieve(读取)select(确定列)where条件(确定行)null查询order by语句li

Linux区分SSD和机械硬盘的方法总结

《Linux区分SSD和机械硬盘的方法总结》在Linux系统管理中,了解存储设备的类型和特性是至关重要的,不同的存储介质(如固态硬盘SSD和机械硬盘HDD)在性能、可靠性和适用场景上有着显著差异,本文... 目录一、lsblk 命令简介基本用法二、识别磁盘类型的关键参数:ROTA查询 ROTA 参数ROTA

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义

Python实现图片分割的多种方法总结

《Python实现图片分割的多种方法总结》图片分割是图像处理中的一个重要任务,它的目标是将图像划分为多个区域或者对象,本文为大家整理了一些常用的分割方法,大家可以根据需求自行选择... 目录1. 基于传统图像处理的分割方法(1) 使用固定阈值分割图片(2) 自适应阈值分割(3) 使用图像边缘检测分割(4)

Windows Docker端口占用错误及解决方案总结

《WindowsDocker端口占用错误及解决方案总结》在Windows环境下使用Docker容器时,端口占用错误是开发和运维中常见且棘手的问题,本文将深入剖析该问题的成因,介绍如何通过查看端口分配... 目录引言Windows docker 端口占用错误及解决方案汇总端口冲突形成原因解析诊断当前端口情况解

java常见报错及解决方案总结

《java常见报错及解决方案总结》:本文主要介绍Java编程中常见错误类型及示例,包括语法错误、空指针异常、数组下标越界、类型转换异常、文件未找到异常、除以零异常、非法线程操作异常、方法未定义异常... 目录1. 语法错误 (Syntax Errors)示例 1:解决方案:2. 空指针异常 (NullPoi

Java反转字符串的五种方法总结

《Java反转字符串的五种方法总结》:本文主要介绍五种在Java中反转字符串的方法,包括使用StringBuilder的reverse()方法、字符数组、自定义StringBuilder方法、直接... 目录前言方法一:使用StringBuilder的reverse()方法方法二:使用字符数组方法三:使用自