TensorFlow中的name 和python代码中的变量名

2024-05-11 20:48

本文主要是介绍TensorFlow中的name 和python代码中的变量名,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 

在上篇文章(Tensorflow,CNN和MNIST数据 识别手写的数字(入门,完整代码,问题解析))中,使用CNN训练MNIST数据出现了模型恢复问题,其根源在于TensorFlow的命名空间。今天特地在此屡屡。

 

在学TensorFlow时必须看懂的一句话:

“Python命名空间和TensorFlow命名空间好比为两个平行线。TensorFlow空间中的命名实际上是属于任何TensorFlow变量的“真实”属性,而Python空间中的命名只是在脚本运行期间指向TensorFlow变量的临时指针。 这就是为什么在保存和恢复变量时,只使用TensorFlow名称的原因,因为脚本终止后Python命名空间不再存在,但Tensorflow命名空间仍然存在于保存的文件中。”

1.区分 TensorFlow空间中的命名 和 Python空间中的命名

不管是tf.constant()还是tf.Variable()还是tf.get_variable里面都有一个name的参数:

import tensorflow as tf
tf.reset_default_graph()
#定义了一个常量和两个变量
a= tf.constant([10.0,1.0],name='a1')
b=tf.Variable(tf.ones([2]),name='b1')
c=tf.get_variable(name="c1",shape=[2],initializer=tf.random_normal_initializer(mean=0, stddev=1))
#相加
output = tf.add_n([a,b,c],name = "add")
#
with tf.Session() as sess:#变量定义完后,还必须显式的执行一下初始化操作sess.run(tf.global_variables_initializer())##生成一个写日志的writer,并将当前的tensorflow计算图写入日志,日志放在F盘1这个文件夹writer = tf.summary.FileWriter("F://1",sess.graph)print(sess.run(output))
writer.close()

我们现在定义了一个常量和两个变量,并将三者相加。运行这个代码可以得到相加的结果和用tensorboard打开的日志文件。

下面我们在tensorboard中查看日志文件。

在终端输入:

tensorboard --logdir=F://1

在浏览器中打开:

http://localhost:6006

即可看到三者的区别:

tf.get_variable()和tf.Variable()的效果是一样的,都是变量,需要初始化,而常量a1不需要。

我们可以简单对下面的图结构进行解读。图中的椭圆代表操作,阴影代表明明空间,小圆圈代表常量。虚线箭头代表依赖,实线箭头代表数据流。 
我们的程序想要完成一个加法操作,首先需要利用tf.get_variable()和tf.Variable()的指令生成一个2元的向量,输入到b1和c1变量节点中,然后b1和c1变量节点需要依赖init操作来完成变量初始化。b1和c1节点将结果输入到add操作节点中,同时常量节点a1也将数据输入到add中,最终add完成计算。上面的所有都是在TensorFlow graph空间的命名,而代码中的a,b,c是在python的代码空间的命名。
脚本终止后Python空间的命名不再存在,但Tensorflow空间的命名仍然存在于保存的文件中。


2.进一步了解下TensorFlow的命名空间:

在复杂的程序中,为了使图结构更加简洁明了,更利于对计算图进行分析,可将计算图的细节部分隐藏,保留关键部分。 命名空间给我们提供了这种机会。 

上面的计算图中,核心部分是三个输入传递给加法操作完成计算,因此,我们可将其他部分隐藏,只保留核心部分。
 

import tensorflow as tf
tf.reset_default_graph()
with tf.variable_scope('input1'):a= tf.constant([10.0,1.0],name='a1')print(a.name)
with tf.variable_scope('input2'):b=tf.Variable(tf.ones([2]),name='b1')print(b.name)
#with tf.variable_scope('input3'):c=tf.get_variable(name="c1",shape=[2],initializer=tf.random_normal_initializer(mean=0, stddev=1))print(c.name)
output = tf.add_n([a,b,c],name = "add")
with tf.Session() as sess:sess.run(tf.global_variables_initializer())writer = tf.summary.FileWriter("F://1",sess.graph)print(sess.run(output))
writer.close()

运行结果

tensorboard:

input2空间中包含两个需要初始化的tensors输入到add操作中。

3.使用和恢复tensorflow中的变量:

① Tensorflow可以使用tensor的name索引tensor,用于sess.run

import tensorflow as tf
tf.reset_default_graph()
with tf.variable_scope('input1'):a= tf.constant([10.0,1.0],name='a1')print(a.name)
with tf.variable_scope('input2'):b=tf.Variable(tf.ones([2]),name='b1')print(b.name)
#with tf.variable_scope('input3'):c=tf.get_variable(name="c1",shape=[2],initializer=tf.random_normal_initializer(mean=0, stddev=1))print(c.name)
output = tf.add_n([a,b,c],name = "add")
print(output.name)
with tf.Session() as sess:sess.run(tf.global_variables_initializer())print(sess.run("add:0" ))

结果:

其中名字后面的’:’之后接数字为EndPoints索引值(An operation allocates memory for its outputs, which are available on endpoints :0, :1, etc, and you can think of each of these endpoints as a Tensor.),通常情况下为0,因为大部分operation都只有一个输出。

②当脚本终止运行的时候,也可以调用已经生成的图的name进行sess.run.

 with tf.Session() as sess:sess.run(tf.global_variables_initializer())#writer = tf.summary.FileWriter("F://1",sess.graph)#print(sess.run(output))print(sess.run("input1/a1:0" ))

[10.  1.]

4. 探索 name_scope 和 variable_scope() ,有点意思

tf.name_scope() 主要是用来管理命名空间的,这样子让我们的整个模型更加有条理。而 tf.variable_scope() 的作用是为了实现变量共享,它和 tf.get_variable() 来完成变量共享的功能。

1.第一组,用 tf.Variable() 的方式来定义。

import tensorflow as tftf.reset_default_graph()
sess = tf.Session()# 拿官方的例子改动一下
def my_image_filter():conv1_weights = tf.Variable(tf.random_normal([5, 5, 32, 32]),name="conv1_weights")conv1_biases = tf.Variable(tf.zeros([32]), name="conv1_biases")conv2_weights = tf.Variable(tf.random_normal([5, 5, 32, 32]),name="conv2_weights")conv2_biases = tf.Variable(tf.zeros([32]), name="conv2_biases")return None# First call creates one set of 4 variables.
result1 = my_image_filter()
# Another set of 4 variables is created in the second call.
result2 = my_image_filter()
# 获取所有的可训练变量
vs = tf.trainable_variables()
print ('There are %d train_able_variables in the Graph: ' % len(vs))
for v1 in vs:print (v1)

2.第二种方式,用 tf.get_variable() 的方式

import tensorflow as tftf.reset_default_graph()
sess = tf.Session()
# 下面是定义一个卷积层的通用方式
def conv_relu(kernel_shape, bias_shape):# Create variable named "weights".weights = tf.get_variable("weights", kernel_shape, initializer=tf.random_normal_initializer())# Create variable named "biases".biases = tf.get_variable("biases", bias_shape, initializer=tf.constant_initializer(0.0))return Nonedef my_image_filter():# 按照下面的方式定义卷积层,非常直观,而且富有层次感with tf.variable_scope("conv1"):# Variables created here will be named "conv1/weights", "conv1/biases".relu1 = conv_relu([5, 5, 32, 32], [32])with tf.variable_scope("conv2"):# Variables created here will be named "conv2/weights", "conv2/biases".return conv_relu( [5, 5, 32, 32], [32])with tf.variable_scope("image_filters") as scope:# 下面我们两次调用 my_image_filter 函数,但是由于引入了 变量共享机制# 可以看到我们只是创建了一遍网络结构。result1 = my_image_filter()scope.reuse_variables()result2 = my_image_filter()# 看看下面,完美地实现了变量共享!!!
vs = tf.trainable_variables()
print ('There are %d train_able_variables in the Graph: ' % len(vs))
for v in vs:print (v)

 

 

参考链接:
https://blog.csdn.net/Jerr__y/article/details/70809528

https://blog.csdn.net/xiaohuihui1994/article/details/81022043

https://blog.csdn.net/silent56_th/article/details/75577320

https://blog.csdn.net/legend_hua/article/details/78875625

https://blog.csdn.net/qq_33297776/article/details/79339684

https://blog.csdn.net/fendouaini/article/details/80344591(tensorboard详解)

这篇关于TensorFlow中的name 和python代码中的变量名的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/980618

相关文章

Python操作PDF文档的主流库使用指南

《Python操作PDF文档的主流库使用指南》PDF因其跨平台、格式固定的特性成为文档交换的标准,然而,由于其复杂的内部结构,程序化操作PDF一直是个挑战,本文主要为大家整理了Python操作PD... 目录一、 基础操作1.PyPDF2 (及其继任者 pypdf)2.PyMuPDF / fitz3.Fre

python设置环境变量路径实现过程

《python设置环境变量路径实现过程》本文介绍设置Python路径的多种方法:临时设置(Windows用`set`,Linux/macOS用`export`)、永久设置(系统属性或shell配置文件... 目录设置python路径的方法临时设置环境变量(适用于当前会话)永久设置环境变量(Windows系统

python中列表应用和扩展性实用详解

《python中列表应用和扩展性实用详解》文章介绍了Python列表的核心特性:有序数据集合,用[]定义,元素类型可不同,支持迭代、循环、切片,可执行增删改查、排序、推导式及嵌套操作,是常用的数据处理... 目录1、列表定义2、格式3、列表是可迭代对象4、列表的常见操作总结1、列表定义是处理一组有序项目的

python运用requests模拟浏览器发送请求过程

《python运用requests模拟浏览器发送请求过程》模拟浏览器请求可选用requests处理静态内容,selenium应对动态页面,playwright支持高级自动化,设置代理和超时参数,根据需... 目录使用requests库模拟浏览器请求使用selenium自动化浏览器操作使用playwright

python使用try函数详解

《python使用try函数详解》Pythontry语句用于异常处理,支持捕获特定/多种异常、else/final子句确保资源释放,结合with语句自动清理,可自定义异常及嵌套结构,灵活应对错误场景... 目录try 函数的基本语法捕获特定异常捕获多个异常使用 else 子句使用 finally 子句捕获所

Python极速搭建局域网文件共享服务器完整指南

《Python极速搭建局域网文件共享服务器完整指南》在办公室或家庭局域网中快速共享文件时,许多人会选择第三方工具或云存储服务,但这些方案往往存在隐私泄露风险或需要复杂配置,下面我们就来看看如何使用Py... 目录一、android基础版:HTTP文件共享的魔法命令1. 一行代码启动HTTP服务器2. 关键参

Python对接支付宝支付之使用AliPay实现的详细操作指南

《Python对接支付宝支付之使用AliPay实现的详细操作指南》支付宝没有提供PythonSDK,但是强大的github就有提供python-alipay-sdk,封装里很多复杂操作,使用这个我们就... 目录一、引言二、准备工作2.1 支付宝开放平台入驻与应用创建2.2 密钥生成与配置2.3 安装ali

Python获取浏览器Cookies的四种方式小结

《Python获取浏览器Cookies的四种方式小结》在进行Web应用程序测试和开发时,获取浏览器Cookies是一项重要任务,本文我们介绍四种用Python获取浏览器Cookies的方式,具有一定的... 目录什么是 Cookie?1.使用Selenium库获取浏览器Cookies2.使用浏览器开发者工具

Python实现批量提取BLF文件时间戳

《Python实现批量提取BLF文件时间戳》BLF(BinaryLoggingFormat)作为Vector公司推出的CAN总线数据记录格式,被广泛用于存储车辆通信数据,本文将使用Python轻松提取... 目录一、为什么需要批量处理 BLF 文件二、核心代码解析:从文件遍历到数据导出1. 环境准备与依赖库

Python Web框架Flask、Streamlit、FastAPI示例详解

《PythonWeb框架Flask、Streamlit、FastAPI示例详解》本文对比分析了Flask、Streamlit和FastAPI三大PythonWeb框架:Flask轻量灵活适合传统应用... 目录概述Flask详解Flask简介安装和基础配置核心概念路由和视图模板系统数据库集成实际示例Stre