CapsNet ——胶囊网络原理

2024-03-14 19:08
文章标签 原理 网络 胶囊 capsnet

本文主要是介绍CapsNet ——胶囊网络原理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


在讲胶囊网络之前,首先我们回顾一下我们熟悉的CNN。



CNN做了什么事情呢? 假设这里有一个卷积核(左图),除了曲线轨迹上的值很大,其他的值都是零,所以这个卷积核对旁边这种曲线(右图)就有很高的输出,也就是说对这种曲线有很高的识别,而对其他的曲线类型输出就低。


所以比如图像分类中,一旦卷积核检测到了类似于眼睛啊、鼻子啊、嘴巴啊这种特征;从数学角度上说就,相关卷积核对鼻子、眼睛等卷积出来的值很大,那么与人脸相关的神经元就相当兴奋,最后将图像分类到人脸这一类。

所以这就导致了一个问题。如图,右边那张眼睛、鼻子、嘴巴都有了,当然我们的CNN也相当兴奋的将它归于人脸。




这就就暴露了CNN的一个问题:组件的朝向和空间上的相对关系对它来说不重要,它只在乎有没有特征。此外,CNN还有一个问题,那就是池化层。Hinton自己就说过:最大池化层表现的如此优异是一个巨大的错误,是一场灾难。诚然,从网络设计上来说,池化层不仅减少了参数,还可以避免过拟合。但是,它的确抛弃了一些信息,比如位置信息。


再比如说,下面这张图



尽管拍摄的角度不同,但你的大脑可以轻易的辨识这些都是同一对象,CNN却没有这样的能力。它不能举一反三,它只能通过扩大训练的数据量才能得到相似的能力。


所以,CapsNet应运而生。如图


上一列和下一列的图片属于同一类,仅仅视角不同。CapsNet和其他模型相比表现就要好很多。据说,最新的论文降低了45%的错误率,这是压倒性的优势。

 

那现在让我们来看一下CapsNet的具体架构。下面的图是论文里面设计的一个简单的CapsNet网络,只用到了一层胶囊,但是却也很好的展现了CapsNet是如何工作的。



从上图,我们可以看到,输入是一张手写字的图片。首先对这张图片做了常规的卷积操作,得到ReLU Conv1;然后再对ReLU Conv1做卷积操作,并将其调整成适用于CapsNet的向量神经元层PrimaryCaps(具体如何调整的,鄙人会结合自己对代码的理解在下周会议上讲解),而不是以往的标量神经元。

PrimaryCaps到DigitCaps层的传播也就是CapsNet和以往CNN操作的最大区别,本文的提出的算法:动态路由算法,也就运用在这一过程之中,具体计算会在下面讲到。

最后,DigitCaps中一共10个向量,每个向量中元素的个数为16。对这10个向量求模,求得模值最大的那个向量代表的就是图片概率最大的那个分类。因为胶囊网络中:用向量模的大小衡量某个实体出现的概率,模值越大,概率越大。

 

现在,让我们来讲一下如何使用动态路由算法,完成从PrimaryCaps层到DigitCaps层的转变。

首先,先向大家解释一下鄙人对胶囊的理解:所谓胶囊,就是一个向量,它可包含任意个值,每个值代表了当前需要识别的物体(比如图片)的一个特征。结合之前对传统CNN的学习,我们知道,卷积层的每个值,都是上一层某一块区域和卷积核完成卷积操作,即线性加权求和的结果,它只有一个值,所以是标量。而我们的胶囊网络,它的每一个值都是向量,也就是说,这个向量不仅可表示物体的特征、还可以包括物体的方向、状态等等。

现在假设已经有三个低层的胶囊,然后需要传递到更高层的四个胶囊,如下图

这张图是我结合对动态路由算法的理解画的,每一个小方框都代表一个胶囊。胶囊网络的前向传播和全连接神经网络相似,所以我会从边对比边讲述胶囊网络的前向传播,以便大家有更好的理解。


网络连接方式

胶囊网络和全连接网络的连接方式一模一样。前一层每一个胶囊神经单元都会和后一层每一个胶囊神经单元相连,我想大家一看上图我画的一组连线应该就懂了,故不多做讲述。之所以只画一组连线,是为了大家能看的清楚,剩下没画的连线想必大家自己都能想象出来。


权重更新

和全连接神经网络一样,胶囊网络的每一个连接也有权重。在上面图中,W代表权重,大家需要注意:C不是权重,它叫耦合系数,我会在下面详细讲解,现在所指的权重只有W。在全连接神经网络中,每一个神经元都是标量,即都只有一个数字值,故每个权重也都只是一个标量,也是一个数字值。

但在胶囊网络中,每一个胶囊神经元都是向量,即包含多个值(如[x1, x2, x3, ..., xn], 具体个数n根据网络设计得到),所以每个胶囊神经元的权值W也应该是一个向量。W依旧根据反向传播来更新。


网络的输入

全连接神经网络的输入即线性加权求和,胶囊网络很类似,但是它在线性求和阶段上多加了一个耦合系数C。胶囊网络的输入S由下面公式得到:

       其中u是上一层胶囊网络的输出,W是每个输出要乘的权值,可以看作上一层每一个胶囊神经元以不同强弱的连接输出到后一层的某一个神经元。C根据下面公式计算:

C叫做耦合系数。为了求C我们必须先求b,b根据下面公式计算:

b初始值为0。故在前向传播求S的过程中,我们把W设计成随机值,b初始化为0可以得到C,u就是上一层胶囊网络的输出,有了三这个值,我们就可以得到下一层的S。

 

激活函数

在全连接神经网络中,我们选择的激活函数通常为:sigmoid, tanh等。但在胶囊网络中,Hinton构造了新的激活函数Squashing,故输出V的计算如下图所示:

该激活函数前一部分是输入输入向量S的缩放尺度,后一部分是S的单位向量。该激活函数既保留了输入输入向量的方向,又将输入向量的模压缩到[0, 1)之间。这也符合了我们前面说的:用向量模的大小衡量某个实体出现的概率,模值越大,概率越大。

 

动态路由更新b,来更新c

这一点是胶囊网络的精华了。前面我们的b初始化为0,得到的耦合系数C趋于一般化,并不能表现出前一层的胶囊和后一层胶囊的之间的关系。故我们需要更新b,通过b的更新来更新C,b更新公式就是:

本论文通过计算内积来改变b,来改变C。那为什么要这么做呢,网上有很多解释,我更欣赏下面的这种解释,也和我自己的理解相似:

点积运算接收两个向量,并输出一个标量。对于给定长度但方向不同的的两个向量而言,点积有下列几种情况:正值、零、负值。故当u_hat和v的相乘结果为正时,代表两个向量指向的方向相似,b更新结果变大,那么耦合系数就高,说明该u_hat和v十分匹配。相反,若是u_hat和v相乘结果为负,b更新结果变小,那么耦合系数就小,说明不匹配。通过迭代确定C,也就等于确定了一条路线,这条路线上胶囊神经元的模都特别大,路线的尽头就是那个正确预测的胶囊。

根据论文描述,b的迭代更新次数取值为3比较好。


整个动态路由算法如下图所示:

首先,将所有的b初始化为0,然后开始迭代。每次迭代先通过softmax求出C值,然后结合U,W,C,做线性求和得到S,再将S输入激活函数Squashing得到V,最后利用U_hat和V来完成b值的更新。一切计算结束后,开始下一步迭代,迭代次数设置3为佳。

 

除了耦合系数C是通过动态路由更新的,整个网络其他的卷积参数和Capusle内的W都需要根据损失函数进行更新。在原论文中,作者采用SVM中常用的Margin Loss,表达式如下:

具体参数含义PPT上有写。

 

重构的意思就是用预测的类别重新构建出该类别代表的实际图像。前面,我们说到Capsule的向量可以表征一个实例,那么将最后的那个正确预测类别的向量投入到后面的重构网络中,应该可以构建一个完整的图像。

故Hinton等人使用额外的重构损失来促进DigitCaps层对输入数字图片进行编码。重构网络架构如下:

上图表明,正确预测类别的向量,即模值最大的向量送入包含三个全连接层的网络解码。这一过程的损失函数通过计算FC Sigmoid层的输出像素商店与原始图像像素点的欧氏距离而构建。



这张图是拿MNIST做实验得到的结果。

L代表标签,p代表预测值,r重构出的图片。左边三列是正确的结果。大家可以看到重构出来的图像形状和位置和输入极其类似,这是说明胶囊网络起了作用,即一个Capsule的确包含了物体的多个信息:特征、位置、大小等等。而后面两列是预测失败的,通过重构出来的图我们可以得到原因:3和5太像了,我感觉Hinton的意思就是,这种图人也会犯错,不怪Capsule。

 



泛化能力对模型无比重要,故Hinton对原来的MNIST数据集做了改变(大小、粗细、位置,如上图)并传入一个训练过的,测试准确率为99.23%的Capsule模型做测试,得到准确率为79%。而一个训练过的准确度为99.22%的传统CNN模型只能达到66%的准确率。不得不说,Capsule模型的泛化能力的确惊人。



 

Hinton在论文中花了大量的笔墨来解释他们做的数字重叠分类实验,他们的模型错误率达到了5%。说实话,感觉Hinton做这个实验来验证Capsule的强大有些欠缺,有点强买强卖的感觉。


但是有值得一提的是,Capsule能重构两个数字虽然他们重叠在一起。进一步理解应该是,Capsule中的两个向量能完整表达两个数字的特征,虽然有些特征重叠在一起导致难以分辨。


结语:好的知识一起分享。为了看懂CapsNet,我参考了很多大佬的文章才能最后得到这篇文章,若是侵权,在下马上删除此文。谢谢业界前辈引路!

这篇关于CapsNet ——胶囊网络原理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/809426

相关文章

Python中使用uv创建环境及原理举例详解

《Python中使用uv创建环境及原理举例详解》uv是Astral团队开发的高性能Python工具,整合包管理、虚拟环境、Python版本控制等功能,:本文主要介绍Python中使用uv创建环境及... 目录一、uv工具简介核心特点:二、安装uv1. 通过pip安装2. 通过脚本安装验证安装:配置镜像源(可

Mysql的主从同步/复制的原理分析

《Mysql的主从同步/复制的原理分析》:本文主要介绍Mysql的主从同步/复制的原理分析,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录为什么要主从同步?mysql主从同步架构有哪些?Mysql主从复制的原理/整体流程级联复制架构为什么好?Mysql主从复制注意

Nacos注册中心和配置中心的底层原理全面解读

《Nacos注册中心和配置中心的底层原理全面解读》:本文主要介绍Nacos注册中心和配置中心的底层原理的全面解读,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录临时实例和永久实例为什么 Nacos 要将服务实例分为临时实例和永久实例?1.x 版本和2.x版本的区别

apache的commons-pool2原理与使用实践记录

《apache的commons-pool2原理与使用实践记录》ApacheCommonsPool2是一个高效的对象池化框架,通过复用昂贵资源(如数据库连接、线程、网络连接)优化系统性能,这篇文章主... 目录一、核心原理与组件二、使用步骤详解(以数据库连接池为例)三、高级配置与优化四、典型应用场景五、注意事

Linux网络配置之网桥和虚拟网络的配置指南

《Linux网络配置之网桥和虚拟网络的配置指南》这篇文章主要为大家详细介绍了Linux中配置网桥和虚拟网络的相关方法,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 一、网桥的配置在linux系统中配置一个新的网桥主要涉及以下几个步骤:1.为yum仓库做准备,安装组件epel-re

电脑系统Hosts文件原理和应用分享

《电脑系统Hosts文件原理和应用分享》Hosts是一个没有扩展名的系统文件,当用户在浏览器中输入一个需要登录的网址时,系统会首先自动从Hosts文件中寻找对应的IP地址,一旦找到,系统会立即打开对应... Hosts是一个没有扩展名的系统文件,可以用记事本等工具打开,其作用就是将一些常用的网址域名与其对应

Dubbo之SPI机制的实现原理和优势分析

《Dubbo之SPI机制的实现原理和优势分析》:本文主要介绍Dubbo之SPI机制的实现原理和优势,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录Dubbo中SPI机制的实现原理和优势JDK 中的 SPI 机制解析Dubbo 中的 SPI 机制解析总结Dubbo中

python如何下载网络文件到本地指定文件夹

《python如何下载网络文件到本地指定文件夹》这篇文章主要为大家详细介绍了python如何实现下载网络文件到本地指定文件夹,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下...  在python中下载文件到本地指定文件夹可以通过以下步骤实现,使用requests库处理HTTP请求,并结合o

Linux高并发场景下的网络参数调优实战指南

《Linux高并发场景下的网络参数调优实战指南》在高并发网络服务场景中,Linux内核的默认网络参数往往无法满足需求,导致性能瓶颈、连接超时甚至服务崩溃,本文基于真实案例分析,从参数解读、问题诊断到优... 目录一、问题背景:当并发连接遇上性能瓶颈1.1 案例环境1.2 初始参数分析二、深度诊断:连接状态与

Android与iOS设备MAC地址生成原理及Java实现详解

《Android与iOS设备MAC地址生成原理及Java实现详解》在无线网络通信中,MAC(MediaAccessControl)地址是设备的唯一网络标识符,本文主要介绍了Android与iOS设备M... 目录引言1. MAC地址基础1.1 MAC地址的组成1.2 MAC地址的分类2. android与I