深度学习基础模型之FCN介绍以及反卷积、上采样具体操作

2023-12-20 03:30

本文主要是介绍深度学习基础模型之FCN介绍以及反卷积、上采样具体操作,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

      • 1.FCN概述
      • 2.FCN的优缺点
        • 2.1优点
        • 2.2缺点
      • 3.FCN主要亮点
        • 3.1 全卷积化
        • 3.2 反卷积/上采样
        • 3.3 跃层结构
      • 参考

1.FCN概述

CNN对图片分类任务有很好的处理方法,有很多人认为CNN能够处理图像的一切问题。但是最早震惊大家的是AlexNet对图片分类错误率大大降低。
FCN并不能单纯算作一种模型,可以算作是一种策略,最重要的就是拿卷积层代替分类模型的全连接层,所以才叫做全卷积神经网络,还有其他的一些细节后面会讲。
FCN是论文Fully Convolutional Networks for Semantic Segmentation提出的。
作为一个图像语义级别分割(像素级别的)的解决方案。作者认为最核心的思想就是利用全卷积网络实现了任意大小的图片输入并且因为全卷积使前向传播和学习更加的高效。输出一个与原图像大小相同的像素级分类结果,即 dense prediction在这里插入图片描述

2.FCN的优缺点

2.1优点

1)利用卷积层替换全连接层,可以输入任意大小的图片
2)输出像素级别的分类图
3)更高效的计算和学习。

2.2缺点

1)图像不够精细,上采样结果比较平滑,丢失细节。
2)忽略像素间关系。忽略了在通常的基于像素分类的分割方法中使用的空间规整(spatial regularization)步骤,缺乏空间一致性。

3.FCN主要亮点

3.1 全卷积化

以AlexNet举例,AlexNet可以参考AlexNet论文阅读
传统的CNN分类任务是通过前面的卷积+池化+normalization层来提取特征,最后得到一个通道的特征图(二维矩阵),然后通过全连接进行映射得到一个特征向量,利用SoftMax进行概率分布计算得到分类的结果,例如AlexNet的最后一层是1000维,因为有1000个分类。
FCN做出了一下操作
1)将全连接层全部替换成为卷积层,就可以接受任意尺寸的输入图像
为什么?
首先卷积层和全连接可以互换是因为都是采用的是点乘的操作,全连接层可以看作是一个比较特殊的卷积层。
但是全连接层计算需要维度相等,因为采用矩阵乘法,所以要求输入图像尺寸是设定的,最后到全连接层的特征图大小是一定的。卷积操作因为卷积核比输入图像小,通过设置步长(stride),用滑动的方式进行计算。所以任意图片都可以计算。
这里重要的是,那不同大小图片经过同样的网络出来的特征图大小也是不一样的。但是FCN采用上采样操作将得到的特征图回到原来图片的大小,再计算每个像素的分类概率。所以说为什么是语义级别的图像分割问题。
注意:最终的loss是所有像素的loss和
卷积相对于全连接的优点,还有就是提到的,更高效的计算和学习。卷积核的参数相对于全连接来说非常的小,因为卷积核大小比较小,还有参数共享。全连接层的参数庞大,但是很多都是无关紧要的,为了这些无关紧要的参数花费很多计算资源去更新是很不合算的,所以更新卷积,那些重要的参数是能让学习更加高效的。
在论文中用这张图表示传统 CNN 的输出与 FCN 的输出对比:
在这里插入图片描述

3.2 反卷积/上采样

为了生成dense prediction,需要将特征图还原到原来图片的大小,然后计算每个像素的概率,这里重要的就是如何还原。
作者对比了两种方式:
(1)shift-and-stitch is filter rerefaction
设原图与FCN所得输出图之间的降采样因子是f,那么对于原图的每个ff的区域(不重叠),==“shift the input x pixels to the right and y pixels down for every (x,y) ,0 < x,y < f." ==把这个ff区域对应的output作为此时区域中心点像素对应的output,这样就对每个f*f的区域得到了f^2个output,也就是每个像素都能对应一个output,所以成为了dense prediction。
因为要计算f^2,有一个著名的小波领域的算法the `a trous algorithm来高效的得到相同的结果。
但是实验得到的结果是不同的,因为原来的滤波器只能看见已经上采样过的输入的简化部分。为了重现这种技巧,通过扩大来稀疏滤波:
在这里插入图片描述
但是这些方法都被放弃了。
放弃的原因:扩大稀疏滤波后fileds无法感受更精细的信息。在Shift-and-stitch中,filters 可以看到更精细的信息,但同时 receptive fields 感受野也更小,可能损失全局 信息,而且计算花费大。
在这里插入图片描述
了解Shift-and-stitch详细计算,参见语义分割–FCN中的Shift-and-stitch的详解
(2)interpolation插值法
插值法就是例如简单的双线性插值等。
放弃的原因
只依赖输入和输出单元的相对位置的线性图最近的四个输入

(3)反卷积(deconvolutional)
其实也就是upsampling,或者说conv_transpose。
顺用了VGG的结构,可以去了解一下。
众所诸知,普通的池化会缩小图片的尺寸,比如VGG16 五次池化后图片被缩小了32倍。
反卷积和卷积类似,都是相乘相加的运算。只不过后者是多对一前者是一对多。而反卷积的前向和后向传播,只用颠倒卷积的前后向传播即可。所以无论优化还是后向传播算法都是没有问题。图解如下:
在这里插入图片描述
看图最明显
首先,我们看一看卷积操作,卷积核为 3x3;no padding , strides=1
在这里插入图片描述
反卷积操作,卷积核为:3x3; no padding , strides=1
在这里插入图片描述
改变strides = 2,卷积操作
在这里插入图片描述
反卷积操作:
在这里插入图片描述
这里可以看到,为了应对不同的strides,要对得到的特征图进行不同方式的padding,padding的值为(kernel_size - 1)。不同的是strides=1的话,特征图不用动,strides不为1, 特征图要查入strides的值,总的来说就是保持kernel每次只覆盖一个特征图的值。

3.3 跃层结构

将来自深层(粗层)的语义信息和来自浅层(细层)的外观信息结合起来,得到更加精确和鲁棒的分割结果。
使用跃层结构融合多层输出,使得网络能够预测更多的位置信息。因为在浅层网络位置信息等保留的比较好,将他们加入到深层输出中,就可以预测到更精细的信息。在这里插入图片描述
在这里插入图片描述
例如32×就是直接上采样(deconvolutional)32倍,会非常非常的粗糙。但是这里16×的话,先利用线性插值把conv7的扩大两倍,然后和pool4经过1×1卷积改造好维度(和结果匹配好)求和,再利用上采样(deconvolutional)16倍进行预测。
最后的特征图事m×m×c的,c是分类的类别数,这样才好用softmax对每个像素求概率,进行dense prediction(我的理解是这样的)。
在这里插入图片描述
其实这个结构了解残差网络ResNet应该会更令人印象深刻。

参考

语义分割–全卷积网络FCN详解
全卷积网络 FCN 详解
【论文笔记】FCN
FCN中的Shift-and-stitch的详解
反卷积 转置卷积的理解

这篇关于深度学习基础模型之FCN介绍以及反卷积、上采样具体操作的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/514630

相关文章

Java中Redisson 的原理深度解析

《Java中Redisson的原理深度解析》Redisson是一个高性能的Redis客户端,它通过将Redis数据结构映射为Java对象和分布式对象,实现了在Java应用中方便地使用Redis,本文... 目录前言一、核心设计理念二、核心架构与通信层1. 基于 Netty 的异步非阻塞通信2. 编解码器三、

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

从基础到高级详解Go语言中错误处理的实践指南

《从基础到高级详解Go语言中错误处理的实践指南》Go语言采用了一种独特而明确的错误处理哲学,与其他主流编程语言形成鲜明对比,本文将为大家详细介绍Go语言中错误处理详细方法,希望对大家有所帮助... 目录1 Go 错误处理哲学与核心机制1.1 错误接口设计1.2 错误与异常的区别2 错误创建与检查2.1 基础

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

5 种使用Python自动化处理PDF的实用方法介绍

《5种使用Python自动化处理PDF的实用方法介绍》自动化处理PDF文件已成为减少重复工作、提升工作效率的重要手段,本文将介绍五种实用方法,从内置工具到专业库,帮助你在Python中实现PDF任务... 目录使用内置库(os、subprocess)调用外部工具使用 PyPDF2 进行基本 PDF 操作使用

Spring的基础事务注解@Transactional作用解读

《Spring的基础事务注解@Transactional作用解读》文章介绍了Spring框架中的事务管理,核心注解@Transactional用于声明事务,支持传播机制、隔离级别等配置,结合@Tran... 目录一、事务管理基础1.1 Spring事务的核心注解1.2 注解属性详解1.3 实现原理二、事务事

Linux五种IO模型的使用解读

《Linux五种IO模型的使用解读》文章系统解析了Linux的五种IO模型(阻塞、非阻塞、IO复用、信号驱动、异步),重点区分同步与异步IO的本质差异,强调同步由用户发起,异步由内核触发,通过对比各模... 目录1.IO模型简介2.五种IO模型2.1 IO模型分析方法2.2 阻塞IO2.3 非阻塞IO2.4

Java中最全最基础的IO流概述和简介案例分析

《Java中最全最基础的IO流概述和简介案例分析》JavaIO流用于程序与外部设备的数据交互,分为字节流(InputStream/OutputStream)和字符流(Reader/Writer),处理... 目录IO流简介IO是什么应用场景IO流的分类流的超类类型字节文件流应用简介核心API文件输出流应用文

深度解析Python中递归下降解析器的原理与实现

《深度解析Python中递归下降解析器的原理与实现》在编译器设计、配置文件处理和数据转换领域,递归下降解析器是最常用且最直观的解析技术,本文将详细介绍递归下降解析器的原理与实现,感兴趣的小伙伴可以跟随... 目录引言:解析器的核心价值一、递归下降解析器基础1.1 核心概念解析1.2 基本架构二、简单算术表达