深度学习之一:CNN初见

2024-05-09 07:58
文章标签 学习 深度 cnn 初见

本文主要是介绍深度学习之一:CNN初见,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前几篇接触了关于神经网络的学习方法,总结起来的要点有以下几点:

1,BP算法

2,激励函数

3,正则化与交叉验证等其他防止过拟合的方法

 

BP神经网络在之前的工作中取到了不错的效果,但是在Micheal Nilson的数的第五章,描述了之前的神经网络在增加多个隐含层之后训练效果会大大下降,也就是说,对于层数过多的网络训练效果不理想,如何训练深层的神经网络成了一个问题,这就是深度学习的由来

 

深度学习近些年来很火,尤其是在自然语言处理领域,其取得的成就也是巨大的。之前我对深度学习是有畏惧心理的,因为我觉得挺难的,后来慢慢接触,发现这个也是一个循序渐进的过程,还是要有信心。

 

深度学习一个最广泛的应用就是卷积神经网络(deep convolutional neural networks),也就是CNN。这篇文章就简要说一下CNN模型的基本模型。

 

回到正题:Introducing convolutional networks

 

还是以之前的手写数字识别为基本,阐述CNN。

 

好的,回到CNN主题。

首先从之前的BP神经网络慢慢过渡到CNN,回顾之前的手写识别问题,我们识别一副28*28的手写图片,我们将图片转换成像素,然后手写黑色点得像素点标注为1,其他空白的像素标注为0,因此形成了28*28个BP神经网络输入层,然后我们设计了一个30个神经元的中间层,以及最后的10个神经元的输入层,其典型结构如下:

 

 但是当我们想在这个模型上加了隐藏层层数的时候,其训练结果就出现了很大的不稳定,在加入多个隐藏层之后需要学习的参数变得很多,这一方面增加了训练的难度,也增加了训练的不稳定性,在传统的神经网络模型中,难以对深层的网络进行训练,这就形成了一个瓶颈。

 

因此需要一些新的模型,CNN就是这样的新的模型。

卷积神经网络的基本思想有以下三点:

1. local receptive fields 

2. shared weights

3. pooling

英文的名称总是感觉不太好翻译成中文,索性就不翻译了,之后会介绍这些到底是什么东西。

 

首先我们看一下什么是 local receptive fields

 

在之前介绍的神经网络中,每个层的神经元总是与前面一层的所有神经元相连,也就是全相连,回想之前的BP神经网络,在隐藏层的神经元每个都和输入层的28*28个直接相连,也就是说每个盛景园需要训练 28*28+1个参数,但是在CNN中,隐藏层的神经元并不一定会和之前的所有神经元相连,以手写数字识别为例,每个隐藏层的神经元都会和输入层的部分神经元相连,如下图:

 

 

 

 已上图为例,隐藏层的神经元与输入层的5*5个神经元相连,而这个5*5的区域就称之为Local Receptive Fields,在上图的隐藏层神经元中,需要训练5*5+1个参数,也就是5*5个与上面映射区域的权重因子和一个偏移量biase。然后我们将上图的5*5大小的窗口从上图的左上角,按照从左到右,从上到下的规则逐渐移动到右下角,每次移动一个像素点(这个是举例,实际上可以改变这个值),因此我们可以得到如下的图:

如上图所示的移动方法,我们可以很顺利的推出,隐藏层的结果是24*24个神经元(按照窗口移动法则)

明白了这点,我们就可以来了解shared weights and biases概念了

 

shared weights and biases:

 

前面说到过,在隐藏层的每个神经元都是有5*5+1个参数,也就是25个权重w和一个偏移量b,但是之前没有提到的是,在这个隐藏层中,所有的神经元的参数的值都是一样的,也就是说,对于隐藏层的所有神经元,其输出都是满足下面的条件:



 只不过,每个神经元对应的映射区域不一样,也就是说上式的a值不同而已。注意上面式子的大括号左边表示的是激励函数,比如我们前面用到过的sigmoid函数。

为什么这样设计是有意义的,可以用一个简单的比喻说明:一个猫的图片的其中一个部分和其他的部分都是猫的一部分,也就是说都是猫的特征,因此这两个部分的特征值(w,b)设置成一样的。

 

也是这样,有时候,我们将从输入层到隐藏层的映射称之为 feature map(特征映射)。shared weights 和bias经常被说成是 内核(kernel)或者过滤器(filter)。

 

实际应用中,我们可能会不只一个feature map,可能会有多个,如下图所示:



 上图就展示了从输入层到隐藏层的三个feature map,每个map都有5*5+1个的训练特征,注意每一个map上的神经元的w和b是一样的,但是不通过的map之间则不一定(一般不一样)

 

采用相同的w和b的好处是大大减少了训练的参数的个数,对于28*28的图像识别问题,我们假设隐藏层有20个map,那么会有(5*5+1)*20个参数,对比之前的20个神经元隐藏层的30*(28*28+1)个参数,可以看出来参数是大大减小了。

 

最后来看 pooling layer

 

pooling layer一般在卷基层后面(卷基层对应上面的隐藏层),该层的目的是为了简化卷基层的训练输出数据。形象的说,pooling layer就是将卷基层进行压缩一下,举个例子,pooling layer的一个神经元可以对应卷积层的2*2区域的概括,具体的说,以最常用max  pooling为例,在max pooling中,pooling层的每一个神经元的值对应卷积层的2*2的区域的最大输出值,如下图所示:



 在24*24的卷积层压缩之后,在pooling就只有12*12大小了。上文说过,卷积层的个数可能不止一个,因此一般会有下面的结构:



 当然不止是max pooling一种技术用在了pooling layer,比如还有一种叫 L2 pooling的技术:其方法是取卷积层2*2区域输出值的和值的开根号值,诸如此类。需要说明的是一直说的2*2区域只是为了描述随便选的,并不是一定是2*2区域。

 

好了,现在可以将上面的所有元素组成一个整体了.我们可以使用下面的CNN网络模型:



 得到了模型,我们还是可以按照之前的梯度下降方法来求参数值,会在后面的学习中跟进这个部分。

上图的最后一层是输出层,也就是手写识别的10个数字,需要说明的是这个输出层和pooling层是全连接的,也就是说,输出层的每个神经元都是和pooling层的所有神经元相连的。可以在中间多加几个卷积层和pooling层。

 

 

这些是CNN的基本模型,而且也只是以单个卷积层和pooling层为例,实际中可能会有多个卷积层,而且对应的全连接情况也是变化很多,比如我们我可在输出层之前再加一个全连接层。变化很多,因此这里只是简单的描述一下概念,后面会对CNN有更加深入的探讨。

这篇关于深度学习之一:CNN初见的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/972830

相关文章

Java中Redisson 的原理深度解析

《Java中Redisson的原理深度解析》Redisson是一个高性能的Redis客户端,它通过将Redis数据结构映射为Java对象和分布式对象,实现了在Java应用中方便地使用Redis,本文... 目录前言一、核心设计理念二、核心架构与通信层1. 基于 Netty 的异步非阻塞通信2. 编解码器三、

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

深度解析Python中递归下降解析器的原理与实现

《深度解析Python中递归下降解析器的原理与实现》在编译器设计、配置文件处理和数据转换领域,递归下降解析器是最常用且最直观的解析技术,本文将详细介绍递归下降解析器的原理与实现,感兴趣的小伙伴可以跟随... 目录引言:解析器的核心价值一、递归下降解析器基础1.1 核心概念解析1.2 基本架构二、简单算术表达

深度解析Java @Serial 注解及常见错误案例

《深度解析Java@Serial注解及常见错误案例》Java14引入@Serial注解,用于编译时校验序列化成员,替代传统方式解决运行时错误,适用于Serializable类的方法/字段,需注意签... 目录Java @Serial 注解深度解析1. 注解本质2. 核心作用(1) 主要用途(2) 适用位置3

Java MCP 的鉴权深度解析

《JavaMCP的鉴权深度解析》文章介绍JavaMCP鉴权的实现方式,指出客户端可通过queryString、header或env传递鉴权信息,服务器端支持工具单独鉴权、过滤器集中鉴权及启动时鉴权... 目录一、MCP Client 侧(负责传递,比较简单)(1)常见的 mcpServers json 配置

Maven中生命周期深度解析与实战指南

《Maven中生命周期深度解析与实战指南》这篇文章主要为大家详细介绍了Maven生命周期实战指南,包含核心概念、阶段详解、SpringBoot特化场景及企业级实践建议,希望对大家有一定的帮助... 目录一、Maven 生命周期哲学二、default生命周期核心阶段详解(高频使用)三、clean生命周期核心阶

深度剖析SpringBoot日志性能提升的原因与解决

《深度剖析SpringBoot日志性能提升的原因与解决》日志记录本该是辅助工具,却为何成了性能瓶颈,SpringBoot如何用代码彻底破解日志导致的高延迟问题,感兴趣的小伙伴可以跟随小编一起学习一下... 目录前言第一章:日志性能陷阱的底层原理1.1 日志级别的“双刃剑”效应1.2 同步日志的“吞吐量杀手”

Unity新手入门学习殿堂级知识详细讲解(图文)

《Unity新手入门学习殿堂级知识详细讲解(图文)》Unity是一款跨平台游戏引擎,支持2D/3D及VR/AR开发,核心功能模块包括图形、音频、物理等,通过可视化编辑器与脚本扩展实现开发,项目结构含A... 目录入门概述什么是 UnityUnity引擎基础认知编辑器核心操作Unity 编辑器项目模式分类工程