关键词短语生成的无监督方法12——Train.py

2023-11-07 23:50

本文主要是介绍关键词短语生成的无监督方法12——Train.py,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2021SC@SDUSC

文章目录

    • 一、model.train()与model.eval()
    • 二、训练模型
    • 三、总结

一、model.train()与model.eval()

由于训练模型和评估模型由model.train()和model.eval()两个函数支撑,故我首先对它们展开学习与分析。

model.train()和model.eval()的区别主要在于Batch Normalization和Dropout两层。

model.train()
在这里插入图片描述
启用Batch Normalization和Dropout。
如果模型中有BN层(Batch Normalization和Dropout,需要在训练时添加model.train()。model.train()是保证BN层能够用到每一批数据的均值和方差。对于Dropout,model.train()是随机取一部分网络连接来训练更新参数。

model.eval()
在这里插入图片描述
不启用 Batch Normalization和Dropout。
如果模型中有BN层(Batch Normalization)和Dropout,在测试时添加model.eval()。model.eval()是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。对于Dropout,model.eval()是利用到了所有网络连接,即不进行随机舍弃神经元。

训练完train样本后,生成的模型model要用来测试样本。在model(test)之前,需要加上model.eval(),否则的话,有输入数据,即使不训练,它也会改变权值。这是model中含有BN层和Dropout所带来的的性质。
在做one classification的时候,训练集和测试集的样本分布是不一样的,尤其需要注意这一点。

model.train()/modeal.eval():

    def train(self, mode=True):self.training = modefor module in self.children():module.train(mode)return selfdef eval(self):return self.train(False)

需要记住当前的self.training的值是True还是False。

以Dropout为例,进入其对应的源代码,下方对应的self.training就是第一步中的self.training,原因在于Dropout继承了 _DropoutNd类,而 _DropoutNd由继承了Module类,Module类中自带变量self.training,通过这种方法,来控制train/eval模型下是否进行Dropout。

class Dropout(_DropoutNd):@weak_script_methoddef forward(self, input):return F.dropout(input, self.p, self.training, self.inplace)

PyTorch会关注是训练还是评估模型的原因是dropout和BN层。这项技术在训练中随机去除神经元。
在这里插入图片描述
如果右边被删除的神经元是唯一促成正确结果的神经元。一旦移除了被删除的神经元,它就迫使其他神经元训练和学习如何在没有被删除神经元的情况下保持准确。这种dropout提高了最终测试的性能,但它对训练期间的性能产生了负面影响,因为网络是不全的。

二、训练模型

在分析了model.train()和model.eval()后,对train()函数展开分析。

#训练模型
def train(iterator):#启用batch normalization和drop outmodel.train()#定义损失值epoch_loss = 0#声明计数器cnt=0m = 0for i,(src,trg) in enumerate(iterator):#for i,(x,cls) in enumerate(iterator):src = src.long().permute(1,0).to(device)trg = trg.long().permute(1,0).to(device)

代码分段解析: 此段代码启用batch normalization和drop out并定义函数损失值epoch_loss,通过枚举迭代器,初始化src、trg,存储数据集。

		#置零梯度optimizer.zero_grad()#前向传播求出预测值prediction和隐藏值hiddenoutput = model.forward(src, trg)output_dim = output.shape[-1]    output = output[1:].view(-1, output_dim)trg = trg[1:].reshape(5*trg.shape[1])#求lossloss = criterion(output, trg)  #反向传播求梯度loss.backward()#更新所有参数optimizer.step()

代码分段解析: 此段代码为训练神经网络的基本过程,即zero_grad+forward+loss+backward+step

  1. zaro_grad:算一个batch计算一次梯度,然后进行一次梯度更新。进行下一次batch梯度计算的时候,前一个batch的梯度计算结果没有保留的必要。所以在下一次梯度更新的时候,先使用optimizer.zero_grad把梯度信息设置为0。
  2. loss:我们使用loss来定义损失函数,是要确定优化的目标是什么,然后以目标为头,才可以进行链式法则和反向传播。
  3. backward:调用loss.backward方法时候,Pytorch的autograd就会自动沿着计算图反向传播,计算每一个叶子节点的梯度(如果某一个变量是由用户创建的,则它为叶子节点)。使用该方法,可以计算链式法则求导之后计算的结果值。
  4. optimizer.step:用来更新参数。

总的来说,此段代码对每个batch执行梯度下降的操作。首先将梯度初始化为零,其次通过model.forward()前向传播求出预测值,接着求loss值,反向传播求梯度,最后通过优化器optimizer更新所有参数。

    #求loss的平均值,用item取出唯一的元素epoch_loss += loss.item()#释放显存torch.cuda.empty_cache()#调整学习率scheduler.step()return epoch_loss / len(iterator)

代码分段解析:
scheduler.step()每调用step_size次,对应的学习率就会按照策略调整一次。
在此,需注意optimizer.step()和scheduler.step()的区别。
optimizer.step()通常用在每个mini-batch之中,而scheduler.step()通常用在epoch里面,但是不绝对,可以根据具体的需求来做。只有用了optimizer.step(),模型才会更新,而scheduler.step()是对lr进行调整。通常有

optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum = 0.9)
scheduler = lr_scheduler.StepLR(optimizer, step_size = 100, gamma = 0.1)
model = net.train(model, loss_function, optimizer, scheduler, num_epochs = 100)

在scheduler的step_size表示scheduler.step()每调用step_size次,对应的学习率就会按照策略调整一次。所以如果scheduler.step()是放在mini-batch里面,那么step_size指的是经过这么多次迭代,学习率改变一次。

三、总结

本周对训练模型实现和评估模型实现中的关键函数model.train()、model.eval()展开了学习与分析,并分析了训练模型函数train()。下周将对评估模型函数eval()展开分析。

这篇关于关键词短语生成的无监督方法12——Train.py的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/366825

相关文章

Android 12解决push framework.jar无法开机的方法小结

《Android12解决pushframework.jar无法开机的方法小结》:本文主要介绍在Android12中解决pushframework.jar无法开机的方法,包括编译指令、框架层和s... 目录1. android 编译指令1.1 framework层的编译指令1.2 替换framework.ja

在.NET平台使用C#为PDF添加各种类型的表单域的方法

《在.NET平台使用C#为PDF添加各种类型的表单域的方法》在日常办公系统开发中,涉及PDF处理相关的开发时,生成可填写的PDF表单是一种常见需求,与静态PDF不同,带有**表单域的文档支持用户直接在... 目录引言使用 PdfTextBoxField 添加文本输入域使用 PdfComboBoxField

SQLyog中DELIMITER执行存储过程时出现前置缩进问题的解决方法

《SQLyog中DELIMITER执行存储过程时出现前置缩进问题的解决方法》在SQLyog中执行存储过程时出现的前置缩进问题,实际上反映了SQLyog对SQL语句解析的一个特殊行为,本文给大家介绍了详... 目录问题根源正确写法示例永久解决方案为什么命令行不受影响?最佳实践建议问题根源SQLyog的语句分

Java 中的 @SneakyThrows 注解使用方法(简化异常处理的利与弊)

《Java中的@SneakyThrows注解使用方法(简化异常处理的利与弊)》为了简化异常处理,Lombok提供了一个强大的注解@SneakyThrows,本文将详细介绍@SneakyThro... 目录1. @SneakyThrows 简介 1.1 什么是 Lombok?2. @SneakyThrows

判断PyTorch是GPU版还是CPU版的方法小结

《判断PyTorch是GPU版还是CPU版的方法小结》PyTorch作为当前最流行的深度学习框架之一,支持在CPU和GPU(NVIDIACUDA)上运行,所以对于深度学习开发者来说,正确识别PyTor... 目录前言为什么需要区分GPU和CPU版本?性能差异硬件要求如何检查PyTorch版本?方法1:使用命

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义

SpringMVC 通过ajax 前后端数据交互的实现方法

《SpringMVC通过ajax前后端数据交互的实现方法》:本文主要介绍SpringMVC通过ajax前后端数据交互的实现方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价... 在前端的开发过程中,经常在html页面通过AJAX进行前后端数据的交互,SpringMVC的controll

Java中的工具类命名方法

《Java中的工具类命名方法》:本文主要介绍Java中的工具类究竟如何命名,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录Java中的工具类究竟如何命名?先来几个例子几种命名方式的比较到底如何命名 ?总结Java中的工具类究竟如何命名?先来几个例子JD

Spring Security自定义身份认证的实现方法

《SpringSecurity自定义身份认证的实现方法》:本文主要介绍SpringSecurity自定义身份认证的实现方法,下面对SpringSecurity的这三种自定义身份认证进行详细讲解,... 目录1.内存身份认证(1)创建配置类(2)验证内存身份认证2.JDBC身份认证(1)数据准备 (2)配置依

python获取网页表格的多种方法汇总

《python获取网页表格的多种方法汇总》我们在网页上看到很多的表格,如果要获取里面的数据或者转化成其他格式,就需要将表格获取下来并进行整理,在Python中,获取网页表格的方法有多种,下面就跟随小编... 目录1. 使用Pandas的read_html2. 使用BeautifulSoup和pandas3.