关键词短语生成的无监督方法12——Train.py

2023-11-07 23:50

本文主要是介绍关键词短语生成的无监督方法12——Train.py,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2021SC@SDUSC

文章目录

    • 一、model.train()与model.eval()
    • 二、训练模型
    • 三、总结

一、model.train()与model.eval()

由于训练模型和评估模型由model.train()和model.eval()两个函数支撑,故我首先对它们展开学习与分析。

model.train()和model.eval()的区别主要在于Batch Normalization和Dropout两层。

model.train()
在这里插入图片描述
启用Batch Normalization和Dropout。
如果模型中有BN层(Batch Normalization和Dropout,需要在训练时添加model.train()。model.train()是保证BN层能够用到每一批数据的均值和方差。对于Dropout,model.train()是随机取一部分网络连接来训练更新参数。

model.eval()
在这里插入图片描述
不启用 Batch Normalization和Dropout。
如果模型中有BN层(Batch Normalization)和Dropout,在测试时添加model.eval()。model.eval()是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。对于Dropout,model.eval()是利用到了所有网络连接,即不进行随机舍弃神经元。

训练完train样本后,生成的模型model要用来测试样本。在model(test)之前,需要加上model.eval(),否则的话,有输入数据,即使不训练,它也会改变权值。这是model中含有BN层和Dropout所带来的的性质。
在做one classification的时候,训练集和测试集的样本分布是不一样的,尤其需要注意这一点。

model.train()/modeal.eval():

    def train(self, mode=True):self.training = modefor module in self.children():module.train(mode)return selfdef eval(self):return self.train(False)

需要记住当前的self.training的值是True还是False。

以Dropout为例,进入其对应的源代码,下方对应的self.training就是第一步中的self.training,原因在于Dropout继承了 _DropoutNd类,而 _DropoutNd由继承了Module类,Module类中自带变量self.training,通过这种方法,来控制train/eval模型下是否进行Dropout。

class Dropout(_DropoutNd):@weak_script_methoddef forward(self, input):return F.dropout(input, self.p, self.training, self.inplace)

PyTorch会关注是训练还是评估模型的原因是dropout和BN层。这项技术在训练中随机去除神经元。
在这里插入图片描述
如果右边被删除的神经元是唯一促成正确结果的神经元。一旦移除了被删除的神经元,它就迫使其他神经元训练和学习如何在没有被删除神经元的情况下保持准确。这种dropout提高了最终测试的性能,但它对训练期间的性能产生了负面影响,因为网络是不全的。

二、训练模型

在分析了model.train()和model.eval()后,对train()函数展开分析。

#训练模型
def train(iterator):#启用batch normalization和drop outmodel.train()#定义损失值epoch_loss = 0#声明计数器cnt=0m = 0for i,(src,trg) in enumerate(iterator):#for i,(x,cls) in enumerate(iterator):src = src.long().permute(1,0).to(device)trg = trg.long().permute(1,0).to(device)

代码分段解析: 此段代码启用batch normalization和drop out并定义函数损失值epoch_loss,通过枚举迭代器,初始化src、trg,存储数据集。

		#置零梯度optimizer.zero_grad()#前向传播求出预测值prediction和隐藏值hiddenoutput = model.forward(src, trg)output_dim = output.shape[-1]    output = output[1:].view(-1, output_dim)trg = trg[1:].reshape(5*trg.shape[1])#求lossloss = criterion(output, trg)  #反向传播求梯度loss.backward()#更新所有参数optimizer.step()

代码分段解析: 此段代码为训练神经网络的基本过程,即zero_grad+forward+loss+backward+step

  1. zaro_grad:算一个batch计算一次梯度,然后进行一次梯度更新。进行下一次batch梯度计算的时候,前一个batch的梯度计算结果没有保留的必要。所以在下一次梯度更新的时候,先使用optimizer.zero_grad把梯度信息设置为0。
  2. loss:我们使用loss来定义损失函数,是要确定优化的目标是什么,然后以目标为头,才可以进行链式法则和反向传播。
  3. backward:调用loss.backward方法时候,Pytorch的autograd就会自动沿着计算图反向传播,计算每一个叶子节点的梯度(如果某一个变量是由用户创建的,则它为叶子节点)。使用该方法,可以计算链式法则求导之后计算的结果值。
  4. optimizer.step:用来更新参数。

总的来说,此段代码对每个batch执行梯度下降的操作。首先将梯度初始化为零,其次通过model.forward()前向传播求出预测值,接着求loss值,反向传播求梯度,最后通过优化器optimizer更新所有参数。

    #求loss的平均值,用item取出唯一的元素epoch_loss += loss.item()#释放显存torch.cuda.empty_cache()#调整学习率scheduler.step()return epoch_loss / len(iterator)

代码分段解析:
scheduler.step()每调用step_size次,对应的学习率就会按照策略调整一次。
在此,需注意optimizer.step()和scheduler.step()的区别。
optimizer.step()通常用在每个mini-batch之中,而scheduler.step()通常用在epoch里面,但是不绝对,可以根据具体的需求来做。只有用了optimizer.step(),模型才会更新,而scheduler.step()是对lr进行调整。通常有

optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum = 0.9)
scheduler = lr_scheduler.StepLR(optimizer, step_size = 100, gamma = 0.1)
model = net.train(model, loss_function, optimizer, scheduler, num_epochs = 100)

在scheduler的step_size表示scheduler.step()每调用step_size次,对应的学习率就会按照策略调整一次。所以如果scheduler.step()是放在mini-batch里面,那么step_size指的是经过这么多次迭代,学习率改变一次。

三、总结

本周对训练模型实现和评估模型实现中的关键函数model.train()、model.eval()展开了学习与分析,并分析了训练模型函数train()。下周将对评估模型函数eval()展开分析。

这篇关于关键词短语生成的无监督方法12——Train.py的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/366825

相关文章

SpringBoot中使用Flux实现流式返回的方法小结

《SpringBoot中使用Flux实现流式返回的方法小结》文章介绍流式返回(StreamingResponse)在SpringBoot中通过Flux实现,优势包括提升用户体验、降低内存消耗、支持长连... 目录背景流式返回的核心概念与优势1. 提升用户体验2. 降低内存消耗3. 支持长连接与实时通信在Sp

Conda虚拟环境的复制和迁移的四种方法实现

《Conda虚拟环境的复制和迁移的四种方法实现》本文主要介绍了Conda虚拟环境的复制和迁移的四种方法实现,包括requirements.txt,environment.yml,conda-pack,... 目录在本机复制Conda虚拟环境相同操作系统之间复制环境方法一:requirements.txt方法

Nginx 重写与重定向配置方法

《Nginx重写与重定向配置方法》Nginx重写与重定向区别:重写修改路径(客户端无感知),重定向跳转新URL(客户端感知),try_files检查文件/目录存在性,return301直接返回永久重... 目录一.try_files指令二.return指令三.rewrite指令区分重写与重定向重写: 请求

MySQL 打开binlog日志的方法及注意事项

《MySQL打开binlog日志的方法及注意事项》本文给大家介绍MySQL打开binlog日志的方法及注意事项,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要... 目录一、默认状态二、如何检查 binlog 状态三、如何开启 binlog3.1 临时开启(重启后失效)

Python中提取文件名扩展名的多种方法实现

《Python中提取文件名扩展名的多种方法实现》在Python编程中,经常会遇到需要从文件名中提取扩展名的场景,Python提供了多种方法来实现这一功能,不同方法适用于不同的场景和需求,包括os.pa... 目录技术背景实现步骤方法一:使用os.path.splitext方法二:使用pathlib模块方法三

Python打印对象所有属性和值的方法小结

《Python打印对象所有属性和值的方法小结》在Python开发过程中,调试代码时经常需要查看对象的当前状态,也就是对象的所有属性和对应的值,然而,Python并没有像PHP的print_r那样直接提... 目录python中打印对象所有属性和值的方法实现步骤1. 使用vars()和pprint()2. 使

CSS实现元素撑满剩余空间的五种方法

《CSS实现元素撑满剩余空间的五种方法》在日常开发中,我们经常需要让某个元素占据容器的剩余空间,本文将介绍5种不同的方法来实现这个需求,并分析各种方法的优缺点,感兴趣的朋友一起看看吧... css实现元素撑满剩余空间的5种方法 在日常开发中,我们经常需要让某个元素占据容器的剩余空间。这是一个常见的布局需求

Python常用命令提示符使用方法详解

《Python常用命令提示符使用方法详解》在学习python的过程中,我们需要用到命令提示符(CMD)进行环境的配置,:本文主要介绍Python常用命令提示符使用方法的相关资料,文中通过代码介绍的... 目录一、python环境基础命令【Windows】1、检查Python是否安装2、 查看Python的安

Maven 配置中的 <mirror>绕过 HTTP 阻断机制的方法

《Maven配置中的<mirror>绕过HTTP阻断机制的方法》:本文主要介绍Maven配置中的<mirror>绕过HTTP阻断机制的方法,本文给大家分享问题原因及解决方案,感兴趣的朋友一... 目录一、问题场景:升级 Maven 后构建失败二、解决方案:通过 <mirror> 配置覆盖默认行为1. 配置示

SpringBoot排查和解决JSON解析错误(400 Bad Request)的方法

《SpringBoot排查和解决JSON解析错误(400BadRequest)的方法》在开发SpringBootRESTfulAPI时,客户端与服务端的数据交互通常使用JSON格式,然而,JSON... 目录问题背景1. 问题描述2. 错误分析解决方案1. 手动重新输入jsON2. 使用工具清理JSON3.