莫凡Pytorch学习笔记(六)

2024-06-07 23:58
文章标签 学习 笔记 pytorch 莫凡

本文主要是介绍莫凡Pytorch学习笔记(六),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Pytorch中的mini-batch和优化器

本篇笔记主要对应于莫凡Pytorch中的3.5和3.6节。主要讲了如何使用Pytorch中的mini-batch和优化器。

Pytorch中的mini-batch

在笔记二、三中搭建的网络中,我们是一次性直接将整个训练集送进网络,这种方式称为Full Batch Learning。但是当数据量很大时,首先一次性加载这么多数据收到了内存的限制,同时由于要计算每个样例的梯度,计算速度也会下降。

那么我们是否可以每次只用一条样例数据进行训练呢。答案是可以的,但是这样每次的随机性太大,这种方法称为随机梯度下降法。这种方法永远不会收敛,而是会一直在最小值附近波动。

所以,取一个折中的做法是选取一个合理的batch_size大小进行训练,每次从整个训练集中拿出一部分来训练。

这里我们简单展示Pytorch中的mini-batch操作如何进行。首先我们需要导入Data模块

import torch
import torch.utils.data as Data

设置超参数BATCH_SIZE

BATCH_SIZE = 8

生成训练数据,这里直接生成了10个整数作为训练数据。

x = torch.linspace(1, 10, 10)
y = torch.linspace(10, 1, 10)

接下来,我们进行batch的一些设置

torch_dataset = Data.TensorDataset(x, y)
loader = Data.DataLoader(dataset = torch_dataset,    # 要划分的数据集batch_size = BATCH_SIZE,    # 所设置的batch大小,一般2的次方倍会有助于快速计算shuffle = True,             # 是否打乱,打乱更有助于训练num_workers = 2,            # 所使用的线程数目
)

使用mini-batch的展示,这里当最后一个分组不够时,会只用剩下的那些

Epoch:  0 | Step:  0 | batch x:  [ 9. 10.  8.  3.  5.  6.  1.  4.] | batch y:  [ 2.  1.  3.  8.  6.  5. 10.  7.]
Epoch:  0 | Step:  1 | batch x:  [7. 2.] | batch y:  [4. 9.]
Epoch:  1 | Step:  0 | batch x:  [3. 7. 2. 8. 4. 1. 6. 5.] | batch y:  [ 8.  4.  9.  3.  7. 10.  5.  6.]
Epoch:  1 | Step:  1 | batch x:  [ 9. 10.] | batch y:  [2. 1.]
Epoch:  2 | Step:  0 | batch x:  [4. 5. 8. 7. 2. 1. 3. 6.] | batch y:  [ 7.  6.  3.  4.  9. 10.  8.  5.]
Epoch:  2 | Step:  1 | batch x:  [ 9. 10.] | batch y:  [2. 1.]

不同优化器的对比

我们对比几种不同的优化器性能。这里主要对比四种不同的优化器:

  • SGD(随机梯度下降)
  • Momentum(动量梯度下降)
  • RMSprop(root mean square)
  • Adam(Adaptive Moment Estimation)

首先,我们导入相关的库和设置超参数

import torch
import torch.utils.data as Data
import torch.nn.functional as F
import matplotlib.pyplot as plt

这里学习率设置为0.01,Batch_size设置为32,设置12个Epoch。

LR = 0.01
BATCH_SIZE = 32
EPOCH = 12

接着我们生成和展示训练数据

x = torch.unsqueeze(torch.linspace(-1, 1, 1000), dim=1)
y = x.pow(2) + 0.1 * torch.normal(torch.zeros(*x.size()))# plot dataset
plt.scatter(x.numpy(), y.numpy())
plt.show()

效果如下:
Data

然后,我们使用mini-batch进行数据集划分

torch_dataset = Data.TensorDataset(x, y)
loader = Data.DataLoader(dataset=torch_dataset,batch_size=BATCH_SIZE,shuffle=True,num_workers=2
)

并搭建网络

# default network
class Net(torch.nn.Module):def __init__(self, n_feature, n_hidden, n_prediction):super(Net, self).__init__()self.hidden = torch.nn.Linear(n_feature, n_hidden)self.prediction = torch.nn.Linear(n_hidden, n_prediction)def forward(self, x):x = F.relu(self.hidden(x))y = self.prediction(x)return y

接着,我们生成使用不同优化器的网络

# different nets
net_SGD = Net(1, 20, 1)
net_Momentum = Net(1, 20, 1)
net_RMSprop = Net(1, 20, 1)
net_Adam = Net(1, 20, 1)nets = [net_SGD, net_Momentum, net_RMSprop, net_Adam]
opt_SGD = torch.optim.SGD(net_SGD.parameters(), lr=LR)
opt_Momentum = torch.optim.SGD(net_Momentum.parameters(), lr=LR, momentum=0.8)
opt_RMSprop = torch.optim.RMSprop(net_RMSprop.parameters(), lr=LR, alpha=0.9)
opt_Adam = torch.optim.Adam(net_Adam.parameters(), lr=LR, betas=(0.9, 0.99))optimizers = [opt_SGD, opt_Momentum, opt_RMSprop, opt_Adam]
loss_func = torch.nn.MSELoss()
losses_his = [[], [], [], []]   # record loss

最后,进行训练输出中间结果

for epoch in range(EPOCH):print("epoch: ", epoch)for step, (batch_x, batch_y) in enumerate(loader):b_x = Variable(batch_x)b_y = Variable(batch_y)for net, opt, l_his in zip(nets, optimizers, losses_his):output = net(b_x)               # get output for every netloss = loss_func(output, b_y)   # compute loss for every netopt.zero_grad()                 # clear gradients for next trainloss.backward()                 # backpropagation, compute gradientsopt.step()                      # apply gradientsl_his.append(loss.data)      # loss recorderlabels = ['SGD', 'Momentum', 'RMSprop', 'Adam']
for i, l_his in enumerate(losses_his):plt.plot(l_his, label=labels[i])
plt.legend(loc='best')
plt.xlabel('Steps')
plt.ylabel('Loss')
plt.ylim((0, 0.2))
plt.show()

最后,得到的展示输出如下:

result
可以看到,Adam和RMSprop效果相仿,最好。SGD效果最差,加入动量后其效果有所改善。

参考

  1. 莫凡Python:Pytorch动态神经网络,https://mofanpy.com/tutorials/machine-learning/torch/

这篇关于莫凡Pytorch学习笔记(六)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1040667

相关文章

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

Android学习总结之Java和kotlin区别超详细分析

《Android学习总结之Java和kotlin区别超详细分析》Java和Kotlin都是用于Android开发的编程语言,它们各自具有独特的特点和优势,:本文主要介绍Android学习总结之Ja... 目录一、空安全机制真题 1:Kotlin 如何解决 Java 的 NullPointerExceptio

Pytorch介绍与安装过程

《Pytorch介绍与安装过程》PyTorch因其直观的设计、卓越的灵活性以及强大的动态计算图功能,迅速在学术界和工业界获得了广泛认可,成为当前深度学习研究和开发的主流工具之一,本文给大家介绍Pyto... 目录1、Pytorch介绍1.1、核心理念1.2、核心组件与功能1.3、适用场景与优势总结1.4、优

conda安装GPU版pytorch默认却是cpu版本

《conda安装GPU版pytorch默认却是cpu版本》本文主要介绍了遇到Conda安装PyTorchGPU版本却默认安装CPU的问题,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的... 目录一、问题描述二、网上解决方案罗列【此节为反面方案罗列!!!】三、发现的根本原因[独家]3.1 p

PyTorch中cdist和sum函数使用示例详解

《PyTorch中cdist和sum函数使用示例详解》torch.cdist是PyTorch中用于计算**两个张量之间的成对距离(pairwisedistance)**的函数,常用于点云处理、图神经网... 目录基本语法输出示例1. 简单的 2D 欧几里得距离2. 批量形式(3D Tensor)3. 使用不

PyTorch高级特性与性能优化方式

《PyTorch高级特性与性能优化方式》:本文主要介绍PyTorch高级特性与性能优化方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、自动化机制1.自动微分机制2.动态计算图二、性能优化1.内存管理2.GPU加速3.多GPU训练三、分布式训练1.分布式数据

重新对Java的类加载器的学习方式

《重新对Java的类加载器的学习方式》:本文主要介绍重新对Java的类加载器的学习方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、介绍1.1、简介1.2、符号引用和直接引用1、符号引用2、直接引用3、符号转直接的过程2、加载流程3、类加载的分类3.1、显示

判断PyTorch是GPU版还是CPU版的方法小结

《判断PyTorch是GPU版还是CPU版的方法小结》PyTorch作为当前最流行的深度学习框架之一,支持在CPU和GPU(NVIDIACUDA)上运行,所以对于深度学习开发者来说,正确识别PyTor... 目录前言为什么需要区分GPU和CPU版本?性能差异硬件要求如何检查PyTorch版本?方法1:使用命

Java学习手册之Filter和Listener使用方法

《Java学习手册之Filter和Listener使用方法》:本文主要介绍Java学习手册之Filter和Listener使用方法的相关资料,Filter是一种拦截器,可以在请求到达Servl... 目录一、Filter(过滤器)1. Filter 的工作原理2. Filter 的配置与使用二、Listen

pytorch自动求梯度autograd的实现

《pytorch自动求梯度autograd的实现》autograd是一个自动微分引擎,它可以自动计算张量的梯度,本文主要介绍了pytorch自动求梯度autograd的实现,具有一定的参考价值,感兴趣... autograd是pytorch构建神经网络的核心。在 PyTorch 中,结合以下代码例子,当你