ufldl 深度学习入门 第一发:基于BP网络实现稀疏自编码器

2024-01-09 11:38

本文主要是介绍ufldl 深度学习入门 第一发:基于BP网络实现稀疏自编码器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目的:打算使用深度学习的方式实现人脸关键点的检测,第一步是要学习深度学习。

步骤:第一步在ufldl上面学习深度学习的算法基础知识,然后找博客上基于python调用theano库实现人脸关键点检测的算法,看懂后基于C++实现,然后用java实现app,调用C++实现的算法。

ufldl上的第一章是基于BP网络实现稀疏自编码器,在matlab上实现。


稀疏自编码器的实现:ufldl上已经给出了整体的框架,我们需要将三个地方补全。由于我对matlab各种函数不熟悉,所以采用的是参考别人实现的代码,然后去理解的方式,等到ufldl教程后面几课越来越熟悉,再自己来实现。

首先是补全sampleIMAGES.m中的代码,该代码从IMAGES.mat中随机提取8×8×10000张sample patches,用来做输入样本。

    tic  image_size=size(IMAGES);  i=randi(image_size(1)-patchsize+1,1,numpatches);   %产生1*10000个随机数 范围在[1,image_size(1)-patchsize+1]之间  j=randi(image_size(2)-patchsize+1,1,numpatches);  k=randi(image_size(3),1,numpatches);              % 随机的选取图片 10000次  for num=1:numpatches  patches(:,num)=reshape(IMAGES(i(num):i(num)+patchsize-1,j(num):j(num)+patchsize-1,k(num)),1,patchsize*patchsize);  end  toc  
说明:

tic和toc用来计时,返回tic-toc之间代码运行花费的时间;

IMAGES是512×512×10的数组,所以size(IMAGES)返回512 512 10的向量;

i=randi(512-8+1,1,10000),会返回一个1×10000的随机数组,数组中的元素属于(0,505],也就是[1,505];(ps:上面介绍randi函数说产生的是开区间,但是我试了发现并不是开区间,是可以取到505的,不过这里并没有什么影响,就不去纠结这一点了)

所以i j k都是1×10000的数组,元素大小位于1-505;

sample=IMAGES(i(num):i(num)+patchsize-1,j(num):j(num)+patchsize-1,k(num))
上面这句话采用全下标的方式访问3维数组IMAGES的元素,行从i(num)到i(num)+7,列从j(num)到j(num)+7,页选择k(num);

reshape(sample,1,64)将sample变成了1×64的行向量,然后赋值给了patches;

sample到图片后又将图片的数据全部归一化到了[0.1,0.9]:patches = normalizeData(patches)

这里的归一化函数,之后再分析,之所以要归一化到[0.1,0.9],是因为激活函数sigmoid函数的输出范围是[0,1],所以需要将输入归一化到函数的输出范围内,这样才能训练。

其次是实现sparseAutoencoder.m,稀疏自编码

%1.forward propagation
data_size=size(data);%获得data的维数信息,64×10000
active_value2=repmat(b1,1,data_size(2));     %扩展b1,得到结果为25×10000,之前b1为25×1,对应的是一个patch,现在有10000个patch,相应的变成10000columns
active_value3=repmat(b2,1,data_size(2));    %同上,对应b2
active_value2=sigmoid(W1*data+active_value2);     %计算中间隐藏层的激活值,z=w1×data+b1 对应25×10000
active_value3=sigmoid(W2*active_value2+active_value3);     %计算输出层的激活值,z=w2×a2+b2 对应64×10000
%2.computing error term and cost
ave_square=sum(sum((active_value3-data).^2)./2)/data_size(2);     %计算均方误差
weight_decay=lambda/2*(sum(sum(W1.^2))+sum(sum(W2.^2)));    %计算权重衰减项p_real=sum(active_value2,2)./data_size(2);     %计算平均活跃度,sum(x,2)将每行相加,结果为25×1的列向量
p_para=repmat(sparsityParam,hiddenSize,1);    %将参数p,repmat为25×1的列向量
sparsity=beta.*sum(p_para.*log(p_para./p_real)+(1-p_para).*log((1-p_para)./(1-p_real)));     %求得稀疏性限制项
cost=ave_square+weight_decay+sparsity;     %3项求和得到总的代价函数,但是为什么要求总的代价函数呢?%貌似并不需要啊,只需要求偏导就可以了啊,确实这4句话并非必须%其实是因为后面的computeNumercialGradient函数,需要总的代价cost%这样就可以通过导数的定义来计算gradient了
delta3=(active_value3-data).*(active_value3).*(1-active_value3);     %计算输出层的残差,结果形式是64×10000
average_sparsity=repmat(sum(active_value2,2)./data_size(2),1,data_size(2));     %计算平均活跃度,并且repmat成25×10000的矩阵形式
default_sparsity=repmat(sparsityParam,hiddenSize,data_size(2));     %把默认参数p,repmat成计算需要的25×10000矩阵形式
sparsity_penalty=beta.*(-(default_sparsity./average_sparsity)+((1-default_sparsity)./(1-average_sparsity)));  %计算 计算delta时需要的稀疏惩罚项
delta2=(W2'*delta3+sparsity_penalty).*((active_value2).*(1-active_value2));     %计算中间隐藏层的残差,这里加入了稀疏惩罚项
%3.backword propagation 后向传播,更新w和b的值
W2grad=delta3*active_value2'./data_size(2)+lambda.*W2;       %64×10000  ×   10000×25 然后求平均值得到64×25的W2grad
W1grad=delta2*data'./data_size(2)+lambda.*W1;        %25×10000  ×  10000×64 然后求平均值得到25×64的W1grad
b2grad=sum(delta3,2)./data_size(2);      %得到64×1
b1grad=sum(delta2,2)./data_size(2);     %得到25×1%可是问题是这里的代码并没有对w b进行更新迭代啊,%只是求了一遍,更新迭代的代码在哪里? %andrew ng 给出了后面要用的迭代求解的代码,会重复调用这个函数% minFunc函数就是通过LBFGS来快速迭代求解的 
最后数值计算导数,用作梯度检验,computeNumercialGradient.m

EPSILON=0.0001;
for i=1:size(theta)% for循环,从1到3289(25×64+64×25+25+64)theta_plus=theta;theta_minu=theta;% 将theta赋值给两个计算中用到的变量theta_plus(i)=theta_plus(i)+EPSILON;theta_minu(i)=theta_minu(i)-EPSILON;% 将原有w1 w2 b1 b2 中的某个值做一个很小的更改% 通过更改后的cost的变化,根据导数的定义计算numgrad(i)=(J(theta_plus)-J(theta_minu))/(2*EPSILON);% j是一个函数句柄变量,可以用来调用函数sparseAutoencoderCost% numgrad is 3289×1 vector% 为什么numgrad是3289×1的vector,J()的输出是[cost,grad],这里还没有深究??
end
基于上面的三段程序,加上andrew ng提供的程序,就可以完成稀疏自编码器的;

注意梯度检验这一段程序,用来检验前面写的程序是否正确,在确认正确后,train时,将该段程序注释掉

这样才能比较快的完成train,否则梯度检验这一段程序很慢的;

最后给出训练后的结果:


矢量化编程:

由于前面代码的实现已经是矢量化了,所以不需要大的更改,只需要改变读取输入数据的方式即可。

将STEP1 Implement sampleIMAGES 改成如下即可

images=loadMNISTImages('train-images-idx3-ubyte');   % image is 784*60000 matrix, 784=28*28
display_network(images(:,1:100));                    % Show the first 100 images
patches = images(:,1:10000);
最后得到的训练结果如图:


matlab中涉及到的函数如下,并附上使用简介:

1 cumtrapz(a);计算数组a的数值积分,比如a=[1 2 3 4 ],cumtrapz(a)=[0 1.5 4 7.5 ],因为a对应的图形的面积在这4个点处分别是0  1.5  4  7.5,默认a的每个元素之间的间距是1。

2 ndims(a):返回数组a的维数=2。a=[1 2 3 4 ]或者a=1,a的维数都是2,有行和列。

3 size(a):返回数组a的所有维度的值,所以返回的是一个向量值。比如a=a=[1 2 3 4 ],a有两个维度,第一维度是行维度=1,第二维度是列维度=4。

4 随机函数

rand 生成均匀分布的伪随机数。分布在(0~1)之间

 主要语法:rand(m,n)生成m行n列的均匀分布的伪随机数
          rand(m,n,'double')生成指定精度的均匀分布的伪随机数,参数还可以是'single'
          rand(RandStream,m,n)利用指定的RandStream(我理解为随机种子)生成伪随机数
randn 生成标准正态分布的伪随机数(均值为0,方差为1)
   主要语法:和上面一样
randi 生成均匀分布的伪随机整数
  主要语法:randi(iMax)在开区间(0,iMax)生成均匀分布的伪随机整数
          randi(iMax,m,n)在开区间(0,iMax)生成mXn型随机矩阵
           r =randi([iMin,iMax],m,n)在开区间(iMin,iMax)生成mXn型随机矩阵

5 reshape(a,2,6),a=[1 2 3;4 5 6;7 8 9;10 11 12],reshape(a,2,6)=[1 7 2 8 3 9;4 10 5 11 6 12],具体的原理百度;按列拼接,然后抽取元素,组成2组行向量。

6 sum函数,sum(x,2)表示矩阵x的横向相加,求每行的和,结果是列向量;而缺省的sum(x)就是竖向相加,求每列的和,结果是行向量
disp()函数,用于显示数组。a=‘hello’,disp(a)=hello;a=[1 2],b=[3 4],disp([a,b])=1 2 3 4






这篇关于ufldl 深度学习入门 第一发:基于BP网络实现稀疏自编码器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/586998

相关文章

C++中unordered_set哈希集合的实现

《C++中unordered_set哈希集合的实现》std::unordered_set是C++标准库中的无序关联容器,基于哈希表实现,具有元素唯一性和无序性特点,本文就来详细的介绍一下unorder... 目录一、概述二、头文件与命名空间三、常用方法与示例1. 构造与析构2. 迭代器与遍历3. 容量相关4

Java中Redisson 的原理深度解析

《Java中Redisson的原理深度解析》Redisson是一个高性能的Redis客户端,它通过将Redis数据结构映射为Java对象和分布式对象,实现了在Java应用中方便地使用Redis,本文... 目录前言一、核心设计理念二、核心架构与通信层1. 基于 Netty 的异步非阻塞通信2. 编解码器三、

C++中悬垂引用(Dangling Reference) 的实现

《C++中悬垂引用(DanglingReference)的实现》C++中的悬垂引用指引用绑定的对象被销毁后引用仍存在的情况,会导致访问无效内存,下面就来详细的介绍一下产生的原因以及如何避免,感兴趣... 目录悬垂引用的产生原因1. 引用绑定到局部变量,变量超出作用域后销毁2. 引用绑定到动态分配的对象,对象

SpringBoot基于注解实现数据库字段回填的完整方案

《SpringBoot基于注解实现数据库字段回填的完整方案》这篇文章主要为大家详细介绍了SpringBoot如何基于注解实现数据库字段回填的相关方法,文中的示例代码讲解详细,感兴趣的小伙伴可以了解... 目录数据库表pom.XMLRelationFieldRelationFieldMapping基础的一些代

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java AOP面向切面编程的概念和实现方式

《JavaAOP面向切面编程的概念和实现方式》AOP是面向切面编程,通过动态代理将横切关注点(如日志、事务)与核心业务逻辑分离,提升代码复用性和可维护性,本文给大家介绍JavaAOP面向切面编程的概... 目录一、AOP 是什么?二、AOP 的核心概念与实现方式核心概念实现方式三、Spring AOP 的关

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

Python实现字典转字符串的五种方法

《Python实现字典转字符串的五种方法》本文介绍了在Python中如何将字典数据结构转换为字符串格式的多种方法,首先可以通过内置的str()函数进行简单转换;其次利用ison.dumps()函数能够... 目录1、使用json模块的dumps方法:2、使用str方法:3、使用循环和字符串拼接:4、使用字符

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、