#########TensorBoard——Tensor与Graph可视化####(如何使用参考上一篇介绍)#######

本文主要是介绍#########TensorBoard——Tensor与Graph可视化####(如何使用参考上一篇介绍)#######,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言

本文基于TensorFlow官网How-Tos的Visualizing Learning和Graph Visualization写成。

TensorBoard是TensorFlow自带的一个可视化工具。本文在学习笔记(4)的基础上修改少量代码,以探索TensorBoard的使用方法。

代码

# -*- coding=utf-8 -*-
# @author: 陈水平
# @date: 2017-02-09
# @description: implement a softmax regression model upon MNIST handwritten digits
# @ref: http://yann.lecun.com/exdb/mnist/import gzip
import struct
import numpy as np
from sklearn.linear_model import LogisticRegression
from sklearn import preprocessing
from sklearn.metrics import accuracy_score
import tensorflow as tf# MNIST data is stored in binary format, 
# and we transform them into numpy ndarray objects by the following two utility functions
def read_image(file_name):with gzip.open(file_name, 'rb') as f:buf = f.read()index = 0magic, images, rows, columns = struct.unpack_from('>IIII' , buf , index)index += struct.calcsize('>IIII')image_size = '>' + str(images*rows*columns) + 'B'ims = struct.unpack_from(image_size, buf, index)im_array = np.array(ims).reshape(images, rows, columns)return im_arraydef read_label(file_name):with gzip.open(file_name, 'rb') as f:buf = f.read()index = 0magic, labels = struct.unpack_from('>II', buf, index)index += struct.calcsize('>II')label_size = '>' + str(labels) + 'B'labels = struct.unpack_from(label_size, buf, index)label_array = np.array(labels)return label_arrayprint "Start processing MNIST handwritten digits data..."
train_x_data = read_image("MNIST_data/train-images-idx3-ubyte.gz")
train_x_data = train_x_data.reshape(train_x_data.shape[0], -1).astype(np.float32)
train_y_data = read_label("MNIST_data/train-labels-idx1-ubyte.gz")
test_x_data = read_image("MNIST_data/t10k-images-idx3-ubyte.gz")
test_x_data = test_x_data.reshape(test_x_data.shape[0], -1).astype(np.float32)
test_y_data = read_label("MNIST_data/t10k-labels-idx1-ubyte.gz")train_x_minmax = train_x_data / 255.0
test_x_minmax = test_x_data / 255.0# Of course you can also use the utility function to read in MNIST provided by tensorflow
# from tensorflow.examples.tutorials.mnist import input_data
# mnist = input_data.read_data_sets("MNIST_data/", one_hot=False)
# train_x_minmax = mnist.train.images
# train_y_data = mnist.train.labels
# test_x_minmax = mnist.test.images
# test_y_data = mnist.test.labels# We evaluate the softmax regression model by sklearn first
eval_sklearn = False
if eval_sklearn:print "Start evaluating softmax regression model by sklearn..."reg = LogisticRegression(solver="lbfgs", multi_class="multinomial")reg.fit(train_x_minmax, train_y_data)np.savetxt('coef_softmax_sklearn.txt', reg.coef_, fmt='%.6f')  # Save coefficients to a text filetest_y_predict = reg.predict(test_x_minmax)print "Accuracy of test set: %f" % accuracy_score(test_y_data, test_y_predict)eval_tensorflow = True
batch_gradient = Falsedef variable_summaries(var):with tf.name_scope('summaries'):mean = tf.reduce_mean(var)tf.summary.scalar('mean', mean)stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean)))tf.summary.scalar('stddev', stddev)tf.summary.scalar('max', tf.reduce_max(var))tf.summary.scalar('min', tf.reduce_min(var))tf.summary.histogram('histogram', var)
if eval_tensorflow:print "Start evaluating softmax regression model by tensorflow..."# reformat y into one-hot encoding stylelb = preprocessing.LabelBinarizer()lb.fit(train_y_data)train_y_data_trans = lb.transform(train_y_data)test_y_data_trans = lb.transform(test_y_data)x = tf.placeholder(tf.float32, [None, 784])with tf.name_scope('weights'):W = tf.Variable(tf.zeros([784, 10]))variable_summaries(W)with tf.name_scope('biases'):b = tf.Variable(tf.zeros([10]))variable_summaries(b)with tf.name_scope('Wx_plus_b'):V = tf.matmul(x, W) + btf.summary.histogram('pre_activations', V)with tf.name_scope('softmax'):y = tf.nn.softmax(V)tf.summary.histogram('activations', y)y_ = tf.placeholder(tf.float32, [None, 10])with tf.name_scope('cross_entropy'):loss = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))tf.summary.scalar('cross_entropy', loss)with tf.name_scope('train'):optimizer = tf.train.GradientDescentOptimizer(0.5)train = optimizer.minimize(loss)with tf.name_scope('evaluate'):with tf.name_scope('correct_prediction'):correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))with tf.name_scope('accuracy'):accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))tf.summary.scalar('accuracy', accuracy)init = tf.global_variables_initializer()sess = tf.Session()sess.run(init)merged = tf.summary.merge_all()train_writer = tf.summary.FileWriter('log/train', sess.graph)test_writer = tf.summary.FileWriter('log/test')if batch_gradient:for step in range(300):sess.run(train, feed_dict={x: train_x_minmax, y_: train_y_data_trans})if step % 10 == 0:print "Batch Gradient Descent processing step %d" % stepprint "Finally we got the estimated results, take such a long time..."else:for step in range(1000):if step % 10 == 0:summary, acc = sess.run([merged, accuracy], feed_dict={x: test_x_minmax, y_: test_y_data_trans})test_writer.add_summary(summary, step)print "Stochastic Gradient Descent processing step %d accuracy=%.2f" % (step, acc)else:sample_index = np.random.choice(train_x_minmax.shape[0], 100)batch_xs = train_x_minmax[sample_index, :]batch_ys = train_y_data_trans[sample_index, :]summary, _ = sess.run([merged, train], feed_dict={x: batch_xs, y_: batch_ys})train_writer.add_summary(summary, step)np.savetxt('coef_softmax_tf.txt', np.transpose(sess.run(W)), fmt='%.6f')  # Save coefficients to a text fileprint "Accuracy of test set: %f" % sess.run(accuracy, feed_dict={x: test_x_minmax, y_: test_y_data_trans})

思考

主要修改点有:

  • Summary:所有需要在TensorBoard上展示的统计结果。

  • tf.name_scope():为Graph中的Tensor添加层级,TensorBoard会按照代码指定的层级进行展示,初始状态下只绘制最高层级的效果,点击后可展开层级看到下一层的细节。

  • tf.summary.scalar():添加标量统计结果。

  • tf.summary.histogram():添加任意shape的Tensor,统计这个Tensor的取值分布。

  • tf.summary.merge_all():添加一个操作,代表执行所有summary操作,这样可以避免人工执行每一个summary op。

  • tf.summary.FileWrite:用于将Summary写入磁盘,需要制定存储路径logdir,如果传递了Graph对象,则在Graph Visualization会显示Tensor Shape Information。执行summary op后,将返回结果传递给add_summary()方法即可。

效果

Visualizing Learning

Scalar

Histogram

首先是Distribution,显示取值范围:

更细节的取值概率信息在Historgram里,如下:

Graph Visualization

双击train后,可查看下一层级的详细信息:


这篇关于#########TensorBoard——Tensor与Graph可视化####(如何使用参考上一篇介绍)#######的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/967807

相关文章

MySQL的ALTER TABLE命令的使用解读

《MySQL的ALTERTABLE命令的使用解读》:本文主要介绍MySQL的ALTERTABLE命令的使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、查看所建表的编China编程码格式2、修改表的编码格式3、修改列队数据类型4、添加列5、修改列的位置5.1、把列

Python使用FFmpeg实现高效音频格式转换工具

《Python使用FFmpeg实现高效音频格式转换工具》在数字音频处理领域,音频格式转换是一项基础但至关重要的功能,本文主要为大家介绍了Python如何使用FFmpeg实现强大功能的图形化音频转换工具... 目录概述功能详解软件效果展示主界面布局转换过程截图完成提示开发步骤详解1. 环境准备2. 项目功能结

SpringBoot使用ffmpeg实现视频压缩

《SpringBoot使用ffmpeg实现视频压缩》FFmpeg是一个开源的跨平台多媒体处理工具集,用于录制,转换,编辑和流式传输音频和视频,本文将使用ffmpeg实现视频压缩功能,有需要的可以参考... 目录核心功能1.格式转换2.编解码3.音视频处理4.流媒体支持5.滤镜(Filter)安装配置linu

Redis中的Lettuce使用详解

《Redis中的Lettuce使用详解》Lettuce是一个高级的、线程安全的Redis客户端,用于与Redis数据库交互,Lettuce是一个功能强大、使用方便的Redis客户端,适用于各种规模的J... 目录简介特点连接池连接池特点连接池管理连接池优势连接池配置参数监控常用监控工具通过JMX监控通过Pr

apache的commons-pool2原理与使用实践记录

《apache的commons-pool2原理与使用实践记录》ApacheCommonsPool2是一个高效的对象池化框架,通过复用昂贵资源(如数据库连接、线程、网络连接)优化系统性能,这篇文章主... 目录一、核心原理与组件二、使用步骤详解(以数据库连接池为例)三、高级配置与优化四、典型应用场景五、注意事

使用Python实现Windows系统垃圾清理

《使用Python实现Windows系统垃圾清理》Windows自带的磁盘清理工具功能有限,无法深度清理各类垃圾文件,所以本文为大家介绍了如何使用Python+PyQt5开发一个Windows系统垃圾... 目录一、开发背景与工具概述1.1 为什么需要专业清理工具1.2 工具设计理念二、工具核心功能解析2.

Linux系统之stress-ng测压工具的使用

《Linux系统之stress-ng测压工具的使用》:本文主要介绍Linux系统之stress-ng测压工具的使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、理论1.stress工具简介与安装2.语法及参数3.具体安装二、实验1.运行8 cpu, 4 fo

Java使用MethodHandle来替代反射,提高性能问题

《Java使用MethodHandle来替代反射,提高性能问题》:本文主要介绍Java使用MethodHandle来替代反射,提高性能问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑... 目录一、认识MethodHandle1、简介2、使用方式3、与反射的区别二、示例1、基本使用2、(重要)

使用C#删除Excel表格中的重复行数据的代码详解

《使用C#删除Excel表格中的重复行数据的代码详解》重复行是指在Excel表格中完全相同的多行数据,删除这些重复行至关重要,因为它们不仅会干扰数据分析,还可能导致错误的决策和结论,所以本文给大家介绍... 目录简介使用工具C# 删除Excel工作表中的重复行语法工作原理实现代码C# 删除指定Excel单元

Java实现本地缓存的常用方案介绍

《Java实现本地缓存的常用方案介绍》本地缓存的代表技术主要有HashMap,GuavaCache,Caffeine和Encahche,这篇文章主要来和大家聊聊java利用这些技术分别实现本地缓存的方... 目录本地缓存实现方式HashMapConcurrentHashMapGuava CacheCaffe