常见的几种填充方式:ZeroPad2d/ReflectionPad2d...(Pytorch)

2023-10-18 23:10

本文主要是介绍常见的几种填充方式:ZeroPad2d/ReflectionPad2d...(Pytorch),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

填充方式

  • 一、ZeroPad2d:全零填充
    • 1)调用方式
    • 2)实例
  • 二、ReflectionPad1d/ReflectionPad2d:反射填充
  • 三、ConstantPad1d/ConstantPad2d:常量填充
    • 1.ConstantPad1d
      • 1)调用方式
      • 2)实例
    • 2.ConstantPad2d
      • 1)调用方式
      • 2)实例
  • 四、ReplicationPad1d/ReplicationPad2d:复制填充
    • 1.ReplicationPad1d
      • 1)调用方式
      • 2)实例
    • 2.ReplicationPad2d
      • 1)调用方式
      • 2)实例
  • 五、注意事项

一、ZeroPad2d:全零填充

在搭建神经网络时,通常为了保证卷积操作前后的特征大小保持不变,会使用全零填充的方式进行卷积层padding参数的设置。此处,ZeroPad2d作为独立的网络层来调用,二者填充原理一致。

1)调用方式

  • 通过在输入特征的左、右、上、下四个边界添加足够的零来完成填充;
  • padding参数的设置决定边界处填充零的数量,可设置为整数或者4元组;
  • padding为整数表示输入的左、右、上、下填充相同数量的零, padding为4元组表示输入的左、右、上、下按元组的元素顺序填充指定数量的零;
  • 输入形状为:(N,C,H_in,W_in)或(C,H_in,W_in);
  • 输出形状为:(N,C,H_out,W_out)或(C,H_out,W_out);其中H_out=H_in+pad_top+pad_bottom;W_out=W_in+pad_left+pad_right;
torch.nn.ZeroPad2d(padding)

2)实例

注意:无论padding为整数还是元组,实际填充是严格按照左、右、上、下顺序执行
(1)padding为整数:此时在输入的所有边界均填充相同大小的零。

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=1
out=nn.ZeroPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:

padding=1,out: tensor([[[[0., 0., 0., 0., 0., 0., 0.],[0., 8., 3., 6., 2., 7., 0.],[0., 0., 8., 4., 9., 3., 0.],[0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0.],[0., 3., 9., 6., 2., 7., 0.],[0., 7., 8., 4., 6., 2., 0.],[0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0.],[0., 1., 9., 0., 1., 4., 0.],[0., 7., 8., 1., 0., 3., 0.],[0., 0., 0., 0., 0., 0., 0.]]]])
torch.Size([1, 3, 4, 7])

操作在H,W边界上进行,按照左、右、上、下顺序(①->②->③->④)依次填充提前设置的padding大小的零。比如此处设置padding为1,则表示需在输入特征的左右边界分别填充1列零,上下边界分别填充一行零。可看到在输入中H_in=2,W_in=5,而输出中为H_out=2+1+1=4,W_out=5+1+1=7。
在这里插入图片描述

(2)padding为4元组:padding=(pad_left,pad_right,pad_top,pad_bottom),此时在输入的边界填充padding指定大小的零。

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=(2,2,1,1)
out=nn.ZeroPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:

padding=(2, 2, 1, 1),out: tensor([[[[0., 0., 0., 0., 0., 0., 0., 0., 0.],[0., 0., 8., 3., 6., 2., 7., 0., 0.],[0., 0., 0., 8., 4., 9., 3., 0., 0.],[0., 0., 0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0., 0., 0.],[0., 0., 3., 9., 6., 2., 7., 0., 0.],[0., 0., 7., 8., 4., 6., 2., 0., 0.],[0., 0., 0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0., 0., 0.],[0., 0., 1., 9., 0., 1., 4., 0., 0.],[0., 0., 7., 8., 1., 0., 3., 0., 0.],[0., 0., 0., 0., 0., 0., 0., 0., 0.]]]])
torch.Size([1, 3, 4, 9])

操作在H,W边界上进行,按照左、右、上、下顺序(①->②->③->④)依次填充提前设置的padding大小的零。比如此处设置padding为(2, 2, 1, 1),则表示需在输入特征的左右边界分别填充两列零,上下边界分别填充一行零。可看到在输入中H_in=2,W_in=5,而输出中为H_out=2+1+1=4,W_out=5+2+2=9。
在这里插入图片描述

二、ReflectionPad1d/ReflectionPad2d:反射填充

详见:https://blog.csdn.net/qq_43665602/article/details/126593617

三、ConstantPad1d/ConstantPad2d:常量填充

1.ConstantPad1d

可按照全零填充的方法去理解,只不过此时用来填充的数字变成自定义常量,而不是0。

1)调用方式

  1. 使用常量值填充输入向量的边界(左、右边界);
  2. padding可设为整数或者2元组;
  3. value为设定用来填充的常量;
  4. 输入形状:(N,C,W_in)或(C,W_in);
  5. 输出形状:(N,C,W_out)或(C,W_out);其中W_out=W_in+pad_left+pad_right;
torch.nn.ConstantPad1d(padding, value)

2)实例

(1)padding为整数

inp=torch.randint(10,size=(2,5))
print(inp.shape) 
print("inp:",inp)
pad=1
value=10
out=nn.ConstantPad1d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
可看到此时,该函数分别在输入向量左右两边填充了1列10。

torch.Size([2, 5])
inp: tensor([[5, 5, 6, 6, 1],[8, 3, 2, 3, 1]])
padding=1,out: tensor([[10,  5,  5,  6,  6,  1, 10],[10,  8,  3,  2,  3,  1, 10]])
torch.Size([2, 7])

(2)padding为2元组:padding=(pad_left,pad_right)

inp=torch.tensor([[5, 5, 6, 6, 1],[8, 3, 2, 3, 1]])
# print(inp.shape)
# print("inp:",inp)
pad=(1,2)
value=10
out=nn.ConstantPad1d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
可看到此时,该函数分别在输入向量左右两边填充了1、2列10.

padding=(1, 2),out: tensor([[10,  5,  5,  6,  6,  1, 10, 10],[10,  8,  3,  2,  3,  1, 10, 10]])
torch.Size([2, 8])

2.ConstantPad2d

使用常量填充向量边界的方法与全零填充相比,区别在于:二维全零填充是使用0填充,而二维常量填充是使用自定义的value值进行填充。当value=0时,常量填充与全零填充等价。

1)调用方式

  1. 使用常量值填充输入向量的边界(左、右、上、下边界);
  2. padding可设为整数或者4元组;
  3. value为设定用来填充的常量;
  4. 输入形状:(N,C,H_in,W_in)或(C,H_in,W_in);
  5. 输出形状:(N,C,H_out,W_out)或(C,H_out,W_out);其中H_out=H_in+pad_top+pad_bottom;W_out=W_in+pad_left+pad_right;
torch.nn.ConstantPad2d(padding, value)

2)实例

(1)padding为整数

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=1
value=10
out=nn.ConstantPad2d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
当padding为整数时,输入按照左右上下的顺序,依次对向量使用自定义value值进行padding大小的填充。

padding=1,out: tensor([[[[10., 10., 10., 10., 10., 10., 10.],[10.,  8.,  3.,  6.,  2.,  7., 10.],[10.,  0.,  8.,  4.,  9.,  3., 10.],[10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10.],[10.,  3.,  9.,  6.,  2.,  7., 10.],[10.,  7.,  8.,  4.,  6.,  2., 10.],[10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10.],[10.,  1.,  9.,  0.,  1.,  4., 10.],[10.,  7.,  8.,  1.,  0.,  3., 10.],[10., 10., 10., 10., 10., 10., 10.]]]])
torch.Size([1, 3, 4, 7])

(2)padding为4元组:padding=(pad_left,pad_right,pad_top,pad_bottom)

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=(1,2,3,4)
value=10
out=nn.ConstantPad2d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
当padding为4元组时,输入按照左右上下的顺序,依次对向量使用自定义value值进行填充。

padding=(1, 2, 3, 4),out: tensor([[[[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10.,  8.,  3.,  6.,  2.,  7., 10., 10.],[10.,  0.,  8.,  4.,  9.,  3., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10.,  3.,  9.,  6.,  2.,  7., 10., 10.],[10.,  7.,  8.,  4.,  6.,  2., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10.,  1.,  9.,  0.,  1.,  4., 10., 10.],[10.,  7.,  8.,  1.,  0.,  3., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.]]]])
torch.Size([1, 3, 9, 8])

四、ReplicationPad1d/ReplicationPad2d:复制填充

复制填充的方式,根据设定的padding,分别对输入向量的边界进行复制,并填充在对应的边界

1.ReplicationPad1d

1)调用方式

  1. 使用padding大小的边界复制品,填充输入向量的边界(左、右边界);
  2. padding可为整数或者2元组;
  3. 输入形状:(N,C,W_in);
  4. 输出形状:(N,C,W_out);其中W_out=W_in+pad_left+pad_right;
torch.nn.ReplicationPad1d(padding)

2)实例

(1)padding为整数

inp=torch.tensor([[[2., 8., 4., 6.],[0., 1., 8., 6.],[7., 5., 5., 6.]],[[3., 2., 0., 6.],[0., 3., 3., 0.],[5., 1., 3., 4.]]])  # torch.Size([2, 3, 4])
print(inp.shape)
print("inp:",inp)
pad=3
out=nn.ReplicationPad1d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:padding为整数意味着在输入向量的所有边界填充该数量大小的元素。此处padding=3,表示在输入向量的左、右边界均填充3个对应边界的复制品。

padding=3,out: tensor([[[2., 2., 2., 2., 8., 4., 6., 6., 6., 6.],[0., 0., 0., 0., 1., 8., 6., 6., 6., 6.],[7., 7., 7., 7., 5., 5., 6., 6., 6., 6.]],[[3., 3., 3., 3., 2., 0., 6., 6., 6., 6.],[0., 0., 0., 0., 3., 3., 0., 0., 0., 0.],[5., 5., 5., 5., 1., 3., 4., 4., 4., 4.]]])
torch.Size([2, 3, 10])

(2)padding为2元组:padding=(pad_left,pad_right)

inp=torch.tensor([[[2., 8., 4., 6.],[0., 1., 8., 6.],[7., 5., 5., 6.]],[[3., 2., 0., 6.],[0., 3., 3., 0.],[5., 1., 3., 4.]]])  # torch.Size([2, 3, 4])
print(inp.shape)
print("inp:",inp)
pad=(1,2)
out=nn.ReplicationPad1d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:图中可以看到,红框表示原始输入向量,蓝框表示填充元素,绿框分别表示输入向量的左、右边界。最后进行填充时,左面填充pad_left=1个左边界复制品,而右面填充pad_right=2个右边界复制品。

padding=(1, 2),out: tensor([[[2., 2., 8., 4., 6., 6., 6.],[0., 0., 1., 8., 6., 6., 6.],[7., 7., 5., 5., 6., 6., 6.]],[[3., 3., 2., 0., 6., 6., 6.],[0., 0., 3., 3., 0., 0., 0.],[5., 5., 1., 3., 4., 4., 4.]]])
torch.Size([2, 3, 7])

在这里插入图片描述

2.ReplicationPad2d

1)调用方式

  1. 使用padding指定大小的边界复制品,填充输入向量的边界(左、右、上、下边界);
  2. padding可设为整数或者4元组;
  3. 输入形状:(N,C,H_in,W_in);
  4. 输出形状:(N,C,H_out,W_out);其中H_out=H_in+pad_top+pad_bottom;W_out=W_in+pad_left+pad_right;
torch.nn.ReplicationPad2d(padding)

2)实例

(1)padding为整数

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=1
out=nn.ReplicationPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:与ReflectionPad1d的填充方式区别在于,此时需要填充的边界变成左、右、上、下四个。

padding=1,out: tensor([[[[8., 8., 3., 6., 2., 7., 7.],[8., 8., 3., 6., 2., 7., 7.],[0., 0., 8., 4., 9., 3., 3.],[0., 0., 8., 4., 9., 3., 3.]],[[3., 3., 9., 6., 2., 7., 7.],[3., 3., 9., 6., 2., 7., 7.],[7., 7., 8., 4., 6., 2., 2.],[7., 7., 8., 4., 6., 2., 2.]],[[1., 1., 9., 0., 1., 4., 4.],[1., 1., 9., 0., 1., 4., 4.],[7., 7., 8., 1., 0., 3., 3.],[7., 7., 8., 1., 0., 3., 3.]]]])
torch.Size([1, 3, 4, 7])

(2)padding为4元组:padding=(pad_left,pad_right,pad_top,pad_bottom)

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=(1,2,3,4)
out=nn.ReplicationPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果:可看到原始输入的左、右、上、下四个边界依次填充pad_left=1,pad_right=2,pad_top=3,pad_bottom=4大小的边界复制品。

padding=(1, 2, 3, 4),out: tensor([[[[8., 8., 3., 6., 2., 7., 7., 7.],[8., 8., 3., 6., 2., 7., 7., 7.],[8., 8., 3., 6., 2., 7., 7., 7.],[8., 8., 3., 6., 2., 7., 7., 7.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.]],[[3., 3., 9., 6., 2., 7., 7., 7.],[3., 3., 9., 6., 2., 7., 7., 7.],[3., 3., 9., 6., 2., 7., 7., 7.],[3., 3., 9., 6., 2., 7., 7., 7.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.]],[[1., 1., 9., 0., 1., 4., 4., 4.],[1., 1., 9., 0., 1., 4., 4., 4.],[1., 1., 9., 0., 1., 4., 4., 4.],[1., 1., 9., 0., 1., 4., 4., 4.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.]]]])
torch.Size([1, 3, 9, 8])

五、注意事项

  1. padding可设置整数或元组两种,本质上padding设置为整数与padding设置为所有元素都为该整数的元组等价;
  2. 对于一维填充方式(指函数名后缀是1d),设定padding为整数或2元组时,表示在向量左、右边界处进行填充,并且严格按照左、右顺序进行填充;对于二维填充方式(指函数名后缀是2d),设定padding为整数或4元组时,表示在向量左、右、上、下边界处进行填充,并且严格按照左、右、上、下的顺序进行填充;
  3. 虽然官网对于一维填充和二维填充方式的输入或输出形状均给出两种方式,但对于一维复制填充:内部实现仅支持输入形状为(N,C,W_in),而二维复制填充:内部实现仅支持输入形状为(N,C,H_in,W_in)。

这篇关于常见的几种填充方式:ZeroPad2d/ReflectionPad2d...(Pytorch)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/235696

相关文章

python中的显式声明类型参数使用方式

《python中的显式声明类型参数使用方式》文章探讨了Python3.10+版本中类型注解的使用,指出FastAPI官方示例强调显式声明参数类型,通过|操作符替代Union/Optional,可提升代... 目录背景python函数显式声明的类型汇总基本类型集合类型Optional and Union(py

Linux系统管理与进程任务管理方式

《Linux系统管理与进程任务管理方式》本文系统讲解Linux管理核心技能,涵盖引导流程、服务控制(Systemd与GRUB2)、进程管理(前台/后台运行、工具使用)、计划任务(at/cron)及常用... 目录引言一、linux系统引导过程与服务控制1.1 系统引导的五个关键阶段1.2 GRUB2的进化优

IDEA与MyEclipse代码量统计方式

《IDEA与MyEclipse代码量统计方式》文章介绍在项目中不安装第三方工具统计代码行数的方法,分别说明MyEclipse通过正则搜索(排除空行和注释)及IDEA使用Statistic插件或调整搜索... 目录项目场景MyEclipse代码量统计IDEA代码量统计总结项目场景在项目中,有时候我们需要统计

C#和Unity中的中介者模式使用方式

《C#和Unity中的中介者模式使用方式》中介者模式通过中介者封装对象交互,降低耦合度,集中控制逻辑,适用于复杂系统组件交互场景,C#中可用事件、委托或MediatR实现,提升可维护性与灵活性... 目录C#中的中介者模式详解一、中介者模式的基本概念1. 定义2. 组成要素3. 模式结构二、中介者模式的特点

详解Java中三种状态机实现方式来优雅消灭 if-else 嵌套

《详解Java中三种状态机实现方式来优雅消灭if-else嵌套》这篇文章主要为大家详细介绍了Java中三种状态机实现方式从而优雅消灭if-else嵌套,文中的示例代码讲解详细,感兴趣的小伙伴可以跟... 目录1. 前言2. 复现传统if-else实现的业务场景问题3. 用状态机模式改造3.1 定义状态接口3

Java异常捕获及处理方式详解

《Java异常捕获及处理方式详解》异常处理是Java编程中非常重要的一部分,它允许我们在程序运行时捕获并处理错误或不预期的行为,而不是让程序直接崩溃,本文将介绍Java中如何捕获异常,以及常用的异常处... 目录前言什么是异常?Java异常的基本语法解释:1. 捕获异常并处理示例1:捕获并处理单个异常解释:

C#控制台程序同步调用WebApi实现方式

《C#控制台程序同步调用WebApi实现方式》控制台程序作为Job时,需同步调用WebApi以确保获取返回结果后执行后续操作,否则会引发TaskCanceledException异常,同步处理可避免异... 目录同步调用WebApi方法Cls001类里面的写法总结控制台程序一般当作Job使用,有时候需要控制

Redis分布式锁中Redission底层实现方式

《Redis分布式锁中Redission底层实现方式》Redission基于Redis原子操作和Lua脚本实现分布式锁,通过SETNX命令、看门狗续期、可重入机制及异常处理,确保锁的可靠性和一致性,是... 目录Redis分布式锁中Redission底层实现一、Redission分布式锁的基本使用二、Red

基于Python实现数字限制在指定范围内的五种方式

《基于Python实现数字限制在指定范围内的五种方式》在编程中,数字范围限制是常见需求,无论是游戏开发中的角色属性值、金融计算中的利率调整,还是传感器数据处理中的异常值过滤,都需要将数字控制在合理范围... 目录引言一、基础条件判断法二、数学运算巧解法三、装饰器模式法四、自定义类封装法五、NumPy数组处理

Python中经纬度距离计算的实现方式

《Python中经纬度距离计算的实现方式》文章介绍Python中计算经纬度距离的方法及中国加密坐标系转换工具,主要方法包括geopy(Vincenty/Karney)、Haversine、pyproj... 目录一、基本方法1. 使用geopy库(推荐)2. 手动实现 Haversine 公式3. 使用py