Tensorflow,Alexnet和MNIST数据 识别手写的数字(入门,代码,解析)

本文主要是介绍Tensorflow,Alexnet和MNIST数据 识别手写的数字(入门,代码,解析),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2012年,Hinton的学生Alex Krizhevsky提出了深度卷积神经网络模型AlexNet,它可以算是LeNet的一种更深更宽的版本。AlexNet以显著的优势赢得了竞争激烈的ILSVRC 2012比赛,top-5的错误率降低至了16.4%,远远领先第二名的26.2%的成绩。AlexNet的出现意义非常重大,它证明了CNN在复杂模型下的有效性,而且使用GPU使得训练在可接受的时间范围内得到结果,让CNN和GPU都大火了一把。AlexNet可以说是神经网络在低谷期后的第一次发声,确立了深度学习(深度卷积网络)在计算机视觉的统治地位,同时也推动了深度学习在语音识别、自然语言处理、强化学习等领域的拓展。


AlexNet每层的超参数如图所示:

其中, 
Input:图片尺寸224*224 
Conv1:卷积核11*11,步长4,96个filter(卷积核尺寸较大) 
ReLU 
LRN1 
Max pooling1:3*3,步长2 
Conv2:卷积核5*5,步长1,256个filter 
ReLU 
LRN2 
Max pooling2:3*3,步长2 
Conv3:卷积核3*3,步长1,384个filter 
ReLU 
Conv4:卷积核3*3,步长1,384个filter 
ReLU 
Conv5:卷积核3*3,步长1,256个filter 
ReLU 
Max pooling3:3*3,步长2 
FC1:4096 
ReLU 
FC2:4096 
ReLU 
FC3(Output):1000
 

在这里要注意一下原来Alexnet输入的图片大小为:224*224*3,MNIST数据输入图像是28*28*1,需要对原网络的卷积核进行对应的更改。

参看的文章

① https://blog.csdn.net/Greyhatjzy/article/details/70197008 代码①

② https://blog.csdn.net/lwplwf/article/details/72870378 代码②

③ https://blog.csdn.net/taoyanqi8932/article/details/71081390 原理介绍

一、两个代码的区别

①和②的主要区别是:

1.网络的不同:①中的1,2,5层网络有norm层和dropout层,②没有;②在6,7全链接层有dropout,①没有;

2.训练的方法不同:①中是在限制条件(step * batch_size < training_epochs)的依次取batch进行训练,run(optm)的次数是step* batch_size;②是先看训练集有几个patch,也就是total_batch,对每一个patch进行训练,这个算一个epoch,也就是run(optm)的次数是training_epochs*total_batch。

这两种训练方法的原理是一样的。

首先看看mnist.train.next_batch函数,作用效果是按数据顺序依次返回下一个batch,如果取了一些batch后发现剩余数据不到一个batch的数量,此函数会默认将数据打乱,用打乱数据的开头和剩余数据拼接成一个batch。

def next_batch(self, batch_size, fake_data=False, shuffle=True):"""Return the next `batch_size` examples from this data set."""if fake_data: #是否使用假数据fake_image = [1] * 784if self.one_hot:fake_label = [1] + [0] * 9else:fake_label = 0return [fake_image for _ in xrange(batch_size)], [fake_label for _ in xrange(batch_size)]start = self._index_in_epoch#指针指向开头# Shuffle for the first epochif self._epochs_completed == 0 and start == 0 and shuffle:#打乱数据perm0 = numpy.arange(self._num_examples)numpy.random.shuffle(perm0)self._images = self.images[perm0]self._labels = self.labels[perm0]# Go to the next epoch#如果指针指到快结尾了,剩余部分不到一个batch量if start + batch_size > self._num_examples:# Finished epochself._epochs_completed += 1 #表示已经完成一次数据的输出# Get the rest examples in this epochrest_num_examples = self._num_examples - startimages_rest_part = self._images[start:self._num_examples]labels_rest_part = self._labels[start:self._num_examples]# Shuffle the dataif shuffle:perm = numpy.arange(self._num_examples)numpy.random.shuffle(perm)self._images = self.images[perm]self._labels = self.labels[perm]# Start next epochstart = 0self._index_in_epoch = batch_size - rest_num_examplesend = self._index_in_epochimages_new_part = self._images[start:end]labels_new_part = self._labels[start:end]return numpy.concatenate(  #将前一个数据的尾和shuttle后数据的头连接到一起(images_rest_part, images_new_part), axis=0), numpy.concatenate((labels_rest_part, labels_new_part), axis=0)else: #正常按照顺序取batchself._index_in_epoch += batch_sizeend = self._index_in_epochreturn self._images[start:end], self._labels[start:end]

所以②训练相对于①训练有点多此一举,不过透露了训练的实质。

 

二、代码的运行:

代码①可以迅速的实现,但是代码②会发现内存不足原因是代码②有对测试数据的测试,所以删掉测试数据那句代码就可以快乐的跑啦(需要更改的地方如下)

if epoch % display_step == 0:train_accuracy = sess.run(accuracy, feed_dict={x: batch_xs, y: batch_ys, keep_prob: 1.0})#test_accuracy = sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels, keep_prob:1.0})print("Epoch: %03d/%03d cost: %.9f TRAIN ACCURACY: %.3f " % (epoch, training_epochs, avg_cost, train_accuracy))

其次代码②为什么比代码①慢呢?

因为代码①每run一次(optimizer)都会输出一次结果,而代码②是run了total_batch次(optimizer)才输出一次结果。所以给人的感觉比较慢咯~~

这篇关于Tensorflow,Alexnet和MNIST数据 识别手写的数字(入门,代码,解析)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/980620

相关文章

Java中Redisson 的原理深度解析

《Java中Redisson的原理深度解析》Redisson是一个高性能的Redis客户端,它通过将Redis数据结构映射为Java对象和分布式对象,实现了在Java应用中方便地使用Redis,本文... 目录前言一、核心设计理念二、核心架构与通信层1. 基于 Netty 的异步非阻塞通信2. 编解码器三、

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

一文解析C#中的StringSplitOptions枚举

《一文解析C#中的StringSplitOptions枚举》StringSplitOptions是C#中的一个枚举类型,用于控制string.Split()方法分割字符串时的行为,核心作用是处理分割后... 目录C#的StringSplitOptions枚举1.StringSplitOptions枚举的常用

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

MyBatis延迟加载与多级缓存全解析

《MyBatis延迟加载与多级缓存全解析》文章介绍MyBatis的延迟加载与多级缓存机制,延迟加载按需加载关联数据提升性能,一级缓存会话级默认开启,二级缓存工厂级支持跨会话共享,增删改操作会清空对应缓... 目录MyBATis延迟加载策略一对多示例一对多示例MyBatis框架的缓存一级缓存二级缓存MyBat

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、

前端缓存策略的自解方案全解析

《前端缓存策略的自解方案全解析》缓存从来都是前端的一个痛点,很多前端搞不清楚缓存到底是何物,:本文主要介绍前端缓存的自解方案,文中通过代码介绍的非常详细,需要的朋友可以参考下... 目录一、为什么“清缓存”成了技术圈的梗二、先给缓存“把个脉”:浏览器到底缓存了谁?三、设计思路:把“发版”做成“自愈”四、代码

Java集合之Iterator迭代器实现代码解析

《Java集合之Iterator迭代器实现代码解析》迭代器Iterator是Java集合框架中的一个核心接口,位于java.util包下,它定义了一种标准的元素访问机制,为各种集合类型提供了一种统一的... 目录一、什么是Iterator二、Iterator的核心方法三、基本使用示例四、Iterator的工

Java 线程池+分布式实现代码

《Java线程池+分布式实现代码》在Java开发中,池通过预先创建并管理一定数量的资源,避免频繁创建和销毁资源带来的性能开销,从而提高系统效率,:本文主要介绍Java线程池+分布式实现代码,需要... 目录1. 线程池1.1 自定义线程池实现1.1.1 线程池核心1.1.2 代码示例1.2 总结流程2. J