Tensorflow,Alexnet和MNIST数据 识别手写的数字(入门,代码,解析)

本文主要是介绍Tensorflow,Alexnet和MNIST数据 识别手写的数字(入门,代码,解析),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2012年,Hinton的学生Alex Krizhevsky提出了深度卷积神经网络模型AlexNet,它可以算是LeNet的一种更深更宽的版本。AlexNet以显著的优势赢得了竞争激烈的ILSVRC 2012比赛,top-5的错误率降低至了16.4%,远远领先第二名的26.2%的成绩。AlexNet的出现意义非常重大,它证明了CNN在复杂模型下的有效性,而且使用GPU使得训练在可接受的时间范围内得到结果,让CNN和GPU都大火了一把。AlexNet可以说是神经网络在低谷期后的第一次发声,确立了深度学习(深度卷积网络)在计算机视觉的统治地位,同时也推动了深度学习在语音识别、自然语言处理、强化学习等领域的拓展。


AlexNet每层的超参数如图所示:

其中, 
Input:图片尺寸224*224 
Conv1:卷积核11*11,步长4,96个filter(卷积核尺寸较大) 
ReLU 
LRN1 
Max pooling1:3*3,步长2 
Conv2:卷积核5*5,步长1,256个filter 
ReLU 
LRN2 
Max pooling2:3*3,步长2 
Conv3:卷积核3*3,步长1,384个filter 
ReLU 
Conv4:卷积核3*3,步长1,384个filter 
ReLU 
Conv5:卷积核3*3,步长1,256个filter 
ReLU 
Max pooling3:3*3,步长2 
FC1:4096 
ReLU 
FC2:4096 
ReLU 
FC3(Output):1000
 

在这里要注意一下原来Alexnet输入的图片大小为:224*224*3,MNIST数据输入图像是28*28*1,需要对原网络的卷积核进行对应的更改。

参看的文章

① https://blog.csdn.net/Greyhatjzy/article/details/70197008 代码①

② https://blog.csdn.net/lwplwf/article/details/72870378 代码②

③ https://blog.csdn.net/taoyanqi8932/article/details/71081390 原理介绍

一、两个代码的区别

①和②的主要区别是:

1.网络的不同:①中的1,2,5层网络有norm层和dropout层,②没有;②在6,7全链接层有dropout,①没有;

2.训练的方法不同:①中是在限制条件(step * batch_size < training_epochs)的依次取batch进行训练,run(optm)的次数是step* batch_size;②是先看训练集有几个patch,也就是total_batch,对每一个patch进行训练,这个算一个epoch,也就是run(optm)的次数是training_epochs*total_batch。

这两种训练方法的原理是一样的。

首先看看mnist.train.next_batch函数,作用效果是按数据顺序依次返回下一个batch,如果取了一些batch后发现剩余数据不到一个batch的数量,此函数会默认将数据打乱,用打乱数据的开头和剩余数据拼接成一个batch。

def next_batch(self, batch_size, fake_data=False, shuffle=True):"""Return the next `batch_size` examples from this data set."""if fake_data: #是否使用假数据fake_image = [1] * 784if self.one_hot:fake_label = [1] + [0] * 9else:fake_label = 0return [fake_image for _ in xrange(batch_size)], [fake_label for _ in xrange(batch_size)]start = self._index_in_epoch#指针指向开头# Shuffle for the first epochif self._epochs_completed == 0 and start == 0 and shuffle:#打乱数据perm0 = numpy.arange(self._num_examples)numpy.random.shuffle(perm0)self._images = self.images[perm0]self._labels = self.labels[perm0]# Go to the next epoch#如果指针指到快结尾了,剩余部分不到一个batch量if start + batch_size > self._num_examples:# Finished epochself._epochs_completed += 1 #表示已经完成一次数据的输出# Get the rest examples in this epochrest_num_examples = self._num_examples - startimages_rest_part = self._images[start:self._num_examples]labels_rest_part = self._labels[start:self._num_examples]# Shuffle the dataif shuffle:perm = numpy.arange(self._num_examples)numpy.random.shuffle(perm)self._images = self.images[perm]self._labels = self.labels[perm]# Start next epochstart = 0self._index_in_epoch = batch_size - rest_num_examplesend = self._index_in_epochimages_new_part = self._images[start:end]labels_new_part = self._labels[start:end]return numpy.concatenate(  #将前一个数据的尾和shuttle后数据的头连接到一起(images_rest_part, images_new_part), axis=0), numpy.concatenate((labels_rest_part, labels_new_part), axis=0)else: #正常按照顺序取batchself._index_in_epoch += batch_sizeend = self._index_in_epochreturn self._images[start:end], self._labels[start:end]

所以②训练相对于①训练有点多此一举,不过透露了训练的实质。

 

二、代码的运行:

代码①可以迅速的实现,但是代码②会发现内存不足原因是代码②有对测试数据的测试,所以删掉测试数据那句代码就可以快乐的跑啦(需要更改的地方如下)

if epoch % display_step == 0:train_accuracy = sess.run(accuracy, feed_dict={x: batch_xs, y: batch_ys, keep_prob: 1.0})#test_accuracy = sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels, keep_prob:1.0})print("Epoch: %03d/%03d cost: %.9f TRAIN ACCURACY: %.3f " % (epoch, training_epochs, avg_cost, train_accuracy))

其次代码②为什么比代码①慢呢?

因为代码①每run一次(optimizer)都会输出一次结果,而代码②是run了total_batch次(optimizer)才输出一次结果。所以给人的感觉比较慢咯~~

这篇关于Tensorflow,Alexnet和MNIST数据 识别手写的数字(入门,代码,解析)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/980620

相关文章

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

深度解析Spring Security 中的 SecurityFilterChain核心功能

《深度解析SpringSecurity中的SecurityFilterChain核心功能》SecurityFilterChain通过组件化配置、类型安全路径匹配、多链协同三大特性,重构了Spri... 目录Spring Security 中的SecurityFilterChain深度解析一、Security

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3

全面解析Golang 中的 Gorilla CORS 中间件正确用法

《全面解析Golang中的GorillaCORS中间件正确用法》Golang中使用gorilla/mux路由器配合rs/cors中间件库可以优雅地解决这个问题,然而,很多人刚开始使用时会遇到配... 目录如何让 golang 中的 Gorilla CORS 中间件正确工作一、基础依赖二、错误用法(很多人一开

Spring WebClient从入门到精通

《SpringWebClient从入门到精通》本文详解SpringWebClient非阻塞响应式特性及优势,涵盖核心API、实战应用与性能优化,对比RestTemplate,为微服务通信提供高效解决... 目录一、WebClient 概述1.1 为什么选择 WebClient?1.2 WebClient 与

Mysql中设计数据表的过程解析

《Mysql中设计数据表的过程解析》数据库约束通过NOTNULL、UNIQUE、DEFAULT、主键和外键等规则保障数据完整性,自动校验数据,减少人工错误,提升数据一致性和业务逻辑严谨性,本文介绍My... 目录1.引言2.NOT NULL——制定某列不可以存储NULL值2.UNIQUE——保证某一列的每一

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499

MySQL CTE (Common Table Expressions)示例全解析

《MySQLCTE(CommonTableExpressions)示例全解析》MySQL8.0引入CTE,支持递归查询,可创建临时命名结果集,提升复杂查询的可读性与维护性,适用于层次结构数据处... 目录基本语法CTE 主要特点非递归 CTE简单 CTE 示例多 CTE 示例递归 CTE基本递归 CTE 结

C#监听txt文档获取新数据方式

《C#监听txt文档获取新数据方式》文章介绍通过监听txt文件获取最新数据,并实现开机自启动、禁用窗口关闭按钮、阻止Ctrl+C中断及防止程序退出等功能,代码整合于主函数中,供参考学习... 目录前言一、监听txt文档增加数据二、其他功能1. 设置开机自启动2. 禁止控制台窗口关闭按钮3. 阻止Ctrl +