#########TensorBoard——Tensor与Graph可视化####(如何使用参考上一篇介绍)#######

本文主要是介绍#########TensorBoard——Tensor与Graph可视化####(如何使用参考上一篇介绍)#######,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言

本文基于TensorFlow官网How-Tos的Visualizing Learning和Graph Visualization写成。

TensorBoard是TensorFlow自带的一个可视化工具。本文在学习笔记(4)的基础上修改少量代码,以探索TensorBoard的使用方法。

代码

# -*- coding=utf-8 -*-
# @author: 陈水平
# @date: 2017-02-09
# @description: implement a softmax regression model upon MNIST handwritten digits
# @ref: http://yann.lecun.com/exdb/mnist/import gzip
import struct
import numpy as np
from sklearn.linear_model import LogisticRegression
from sklearn import preprocessing
from sklearn.metrics import accuracy_score
import tensorflow as tf# MNIST data is stored in binary format, 
# and we transform them into numpy ndarray objects by the following two utility functions
def read_image(file_name):with gzip.open(file_name, 'rb') as f:buf = f.read()index = 0magic, images, rows, columns = struct.unpack_from('>IIII' , buf , index)index += struct.calcsize('>IIII')image_size = '>' + str(images*rows*columns) + 'B'ims = struct.unpack_from(image_size, buf, index)im_array = np.array(ims).reshape(images, rows, columns)return im_arraydef read_label(file_name):with gzip.open(file_name, 'rb') as f:buf = f.read()index = 0magic, labels = struct.unpack_from('>II', buf, index)index += struct.calcsize('>II')label_size = '>' + str(labels) + 'B'labels = struct.unpack_from(label_size, buf, index)label_array = np.array(labels)return label_arrayprint "Start processing MNIST handwritten digits data..."
train_x_data = read_image("MNIST_data/train-images-idx3-ubyte.gz")
train_x_data = train_x_data.reshape(train_x_data.shape[0], -1).astype(np.float32)
train_y_data = read_label("MNIST_data/train-labels-idx1-ubyte.gz")
test_x_data = read_image("MNIST_data/t10k-images-idx3-ubyte.gz")
test_x_data = test_x_data.reshape(test_x_data.shape[0], -1).astype(np.float32)
test_y_data = read_label("MNIST_data/t10k-labels-idx1-ubyte.gz")train_x_minmax = train_x_data / 255.0
test_x_minmax = test_x_data / 255.0# Of course you can also use the utility function to read in MNIST provided by tensorflow
# from tensorflow.examples.tutorials.mnist import input_data
# mnist = input_data.read_data_sets("MNIST_data/", one_hot=False)
# train_x_minmax = mnist.train.images
# train_y_data = mnist.train.labels
# test_x_minmax = mnist.test.images
# test_y_data = mnist.test.labels# We evaluate the softmax regression model by sklearn first
eval_sklearn = False
if eval_sklearn:print "Start evaluating softmax regression model by sklearn..."reg = LogisticRegression(solver="lbfgs", multi_class="multinomial")reg.fit(train_x_minmax, train_y_data)np.savetxt('coef_softmax_sklearn.txt', reg.coef_, fmt='%.6f')  # Save coefficients to a text filetest_y_predict = reg.predict(test_x_minmax)print "Accuracy of test set: %f" % accuracy_score(test_y_data, test_y_predict)eval_tensorflow = True
batch_gradient = Falsedef variable_summaries(var):with tf.name_scope('summaries'):mean = tf.reduce_mean(var)tf.summary.scalar('mean', mean)stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean)))tf.summary.scalar('stddev', stddev)tf.summary.scalar('max', tf.reduce_max(var))tf.summary.scalar('min', tf.reduce_min(var))tf.summary.histogram('histogram', var)
if eval_tensorflow:print "Start evaluating softmax regression model by tensorflow..."# reformat y into one-hot encoding stylelb = preprocessing.LabelBinarizer()lb.fit(train_y_data)train_y_data_trans = lb.transform(train_y_data)test_y_data_trans = lb.transform(test_y_data)x = tf.placeholder(tf.float32, [None, 784])with tf.name_scope('weights'):W = tf.Variable(tf.zeros([784, 10]))variable_summaries(W)with tf.name_scope('biases'):b = tf.Variable(tf.zeros([10]))variable_summaries(b)with tf.name_scope('Wx_plus_b'):V = tf.matmul(x, W) + btf.summary.histogram('pre_activations', V)with tf.name_scope('softmax'):y = tf.nn.softmax(V)tf.summary.histogram('activations', y)y_ = tf.placeholder(tf.float32, [None, 10])with tf.name_scope('cross_entropy'):loss = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))tf.summary.scalar('cross_entropy', loss)with tf.name_scope('train'):optimizer = tf.train.GradientDescentOptimizer(0.5)train = optimizer.minimize(loss)with tf.name_scope('evaluate'):with tf.name_scope('correct_prediction'):correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))with tf.name_scope('accuracy'):accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))tf.summary.scalar('accuracy', accuracy)init = tf.global_variables_initializer()sess = tf.Session()sess.run(init)merged = tf.summary.merge_all()train_writer = tf.summary.FileWriter('log/train', sess.graph)test_writer = tf.summary.FileWriter('log/test')if batch_gradient:for step in range(300):sess.run(train, feed_dict={x: train_x_minmax, y_: train_y_data_trans})if step % 10 == 0:print "Batch Gradient Descent processing step %d" % stepprint "Finally we got the estimated results, take such a long time..."else:for step in range(1000):if step % 10 == 0:summary, acc = sess.run([merged, accuracy], feed_dict={x: test_x_minmax, y_: test_y_data_trans})test_writer.add_summary(summary, step)print "Stochastic Gradient Descent processing step %d accuracy=%.2f" % (step, acc)else:sample_index = np.random.choice(train_x_minmax.shape[0], 100)batch_xs = train_x_minmax[sample_index, :]batch_ys = train_y_data_trans[sample_index, :]summary, _ = sess.run([merged, train], feed_dict={x: batch_xs, y_: batch_ys})train_writer.add_summary(summary, step)np.savetxt('coef_softmax_tf.txt', np.transpose(sess.run(W)), fmt='%.6f')  # Save coefficients to a text fileprint "Accuracy of test set: %f" % sess.run(accuracy, feed_dict={x: test_x_minmax, y_: test_y_data_trans})

思考

主要修改点有:

  • Summary:所有需要在TensorBoard上展示的统计结果。

  • tf.name_scope():为Graph中的Tensor添加层级,TensorBoard会按照代码指定的层级进行展示,初始状态下只绘制最高层级的效果,点击后可展开层级看到下一层的细节。

  • tf.summary.scalar():添加标量统计结果。

  • tf.summary.histogram():添加任意shape的Tensor,统计这个Tensor的取值分布。

  • tf.summary.merge_all():添加一个操作,代表执行所有summary操作,这样可以避免人工执行每一个summary op。

  • tf.summary.FileWrite:用于将Summary写入磁盘,需要制定存储路径logdir,如果传递了Graph对象,则在Graph Visualization会显示Tensor Shape Information。执行summary op后,将返回结果传递给add_summary()方法即可。

效果

Visualizing Learning

Scalar

Histogram

首先是Distribution,显示取值范围:

更细节的取值概率信息在Historgram里,如下:

Graph Visualization

双击train后,可查看下一层级的详细信息:


这篇关于#########TensorBoard——Tensor与Graph可视化####(如何使用参考上一篇介绍)#######的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/967807

相关文章

python之uv使用详解

《python之uv使用详解》文章介绍uv在Ubuntu上用于Python项目管理,涵盖安装、初始化、依赖管理、运行调试及Docker应用,强调CI中使用--locked确保依赖一致性... 目录安装与更新standalonepip 安装创建php以及初始化项目依赖管理uv run直接在命令行运行pytho

Springboot项目构建时各种依赖详细介绍与依赖关系说明详解

《Springboot项目构建时各种依赖详细介绍与依赖关系说明详解》SpringBoot通过spring-boot-dependencies统一依赖版本管理,spring-boot-starter-w... 目录一、spring-boot-dependencies1.简介2. 内容概览3.核心内容结构4.

C#使用Spire.XLS快速生成多表格Excel文件

《C#使用Spire.XLS快速生成多表格Excel文件》在日常开发中,我们经常需要将业务数据导出为结构清晰的Excel文件,本文将手把手教你使用Spire.XLS这个强大的.NET组件,只需几行C#... 目录一、Spire.XLS核心优势清单1.1 性能碾压:从3秒到0.5秒的质变1.2 批量操作的优雅

Kotlin 枚举类使用举例

《Kotlin枚举类使用举例》枚举类(EnumClasses)是Kotlin中用于定义固定集合值的特殊类,它表示一组命名的常量,每个枚举常量都是该类的单例实例,接下来通过本文给大家介绍Kotl... 目录一、编程枚举类核心概念二、基础语法与特性1. 基本定义2. 带参数的枚举3. 实现接口4. 内置属性三、

Java List 使用举例(从入门到精通)

《JavaList使用举例(从入门到精通)》本文系统讲解JavaList,涵盖基础概念、核心特性、常用实现(如ArrayList、LinkedList)及性能对比,介绍创建、操作、遍历方法,结合实... 目录一、List 基础概念1.1 什么是 List?1.2 List 的核心特性1.3 List 家族成

Go语言使用Gin处理路由参数和查询参数

《Go语言使用Gin处理路由参数和查询参数》在WebAPI开发中,处理路由参数(PathParameter)和查询参数(QueryParameter)是非常常见的需求,下面我们就来看看Go语言... 目录一、路由参数 vs 查询参数二、Gin 获取路由参数和查询参数三、示例代码四、运行与测试1. 测试编程路

Python使用python-pptx自动化操作和生成PPT

《Python使用python-pptx自动化操作和生成PPT》这篇文章主要为大家详细介绍了如何使用python-pptx库实现PPT自动化,并提供实用的代码示例和应用场景,感兴趣的小伙伴可以跟随小编... 目录使用python-pptx操作PPT文档安装python-pptx基础概念创建新的PPT文档查看

C#和Unity中的中介者模式使用方式

《C#和Unity中的中介者模式使用方式》中介者模式通过中介者封装对象交互,降低耦合度,集中控制逻辑,适用于复杂系统组件交互场景,C#中可用事件、委托或MediatR实现,提升可维护性与灵活性... 目录C#中的中介者模式详解一、中介者模式的基本概念1. 定义2. 组成要素3. 模式结构二、中介者模式的特点

MySQL中优化CPU使用的详细指南

《MySQL中优化CPU使用的详细指南》优化MySQL的CPU使用可以显著提高数据库的性能和响应时间,本文为大家整理了一些优化CPU使用的方法,大家可以根据需要进行选择... 目录一、优化查询和索引1.1 优化查询语句1.2 创建和优化索引1.3 避免全表扫描二、调整mysql配置参数2.1 调整线程数2.

C#中SortedSet的具体使用

《C#中SortedSet的具体使用》SortedSet是.NETFramework4.0引入的一个泛型集合类,它实现了一个自动排序的集合,内部使用红黑树数据结构来维护元素的有序性,下面就来介绍一下如... 目录基础概念主要特性创建和初始化基本创建方式自定义比较器基本操作添加和删除元素查询操作范围查询集合运