TensorFlow seq2seq解读

2024-05-07 14:48
文章标签 解读 tensorflow seq2seq

本文主要是介绍TensorFlow seq2seq解读,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

github链接

注:1.2最新版本不兼容,用命令pip3 install tensorflow==1.0.0

在translate.py文件里,是调用各种函数;在seq2seq_model.py文件里,是定义了这个model的具体输入、输出、中间参数是怎样的init,以及获取每个epoch训练数据get_batch和训练方法step
确定这些之后再考虑各种变量的shape等问题。

代码结构
seq2seq_model.py中定义了seq2seqModelclass结构
__init__函数里:

主要定义了self的各种参数的取值。

  • (如果需要sampled softmax: 定义sampled_softmax_loss函数)
  • 定义RNN结构
  • 准备encoder_inputs等的placeholder
  • 调用seq2seq.model_with_buckets得到self.outputsself.losses
  • tf.clip_by_global_norm的方法来得到self.gradient_normsupdates
step函数(进行一次训练)里:

feed:把输入参数的encoder_inputsdecoder_inputs放入input_feed,最后session.run计算output的值。

get_batch函数里:

字面义,从输入参数data中随机选取符合要求bucket_id的数据PAD后返回。
返回结果——以self_test时的encoder_inputs为例,其格式为encoder_size*batch_size(6*32),decoder_inputs同理

translate.py是直接运行的文件
函数read_data

读取source language和target language文件,返回n个data_set,每个里面是(source,target)的句子pair,长度符合bucket[n]的要求

函数create_model

利用seq2seq_model.py生成model结构,如果已经存在ckpt文件,则读取参数,否则session.run(initializer)

函数train

with tf.session() as sess:

  • 调用create_model函数生成model
  • 调用read_data生成dev_set和train_set
  • training loop: 随机选一个bucket_id->model.get_batch->model.step
函数decode

with tf.session() as sess:

  • create_model并load参数
  • 读取待翻译的句子,决定对应的bucket_id
  • model.get_batch->model.step
  • 取可能性最大的output,截断
data_utils.py

生成了以上文件
ids代表把单词转化为了id,giga开头的是训练文件,newstest是测试文件,vocab里是一行一个单词的单词汇总。

具体分析:
1. model里调用的几个自带函数tf.nn.sampled_softmax_losstf.contrib.legacy_seq2seq.embedding_attention_seq2seqtf.contrib.legacy_seq2seq.model_with_buckets的关系。

tf.nn.sampled_softmax_loss,网络本身通过sampled_softmax(W*x+b)把输入的向量的维度扩展到target_vocab_size,这个函数是用来这一步的loss,会在后来被用于计算整体的loss。
tf.contrib.legacy_seq2seq.embedding_attention_seq2seq是不能计算的loss的,它只是负责返回这个网络的最终输出outputs [batch_size x decoder_size] 和状态states[batch_size x cell.state_size]。主要参数有

encoder_inputs,
decoder_inputs,
cell

tf.contrib.legacy_seq2seq.model_with_buckets是用来和target作比较,能计算出整体的loss(sampled_softmax的loss是一部分)。返回outputs [batch_size x output_size]和losses for each bucket。主要参数有

self.encoder_inputs, self.decoder_inputs, targets,
self.target_weights, buckets,
lambda x, y: seq2seq_f(x, y, False),
softmax_loss_function=softmax_loss_function
2. train和decode时的RNN输入和输出是怎样的?


train的时候,decoder_input是完整的

3. sess.run部分的训练方法是怎样的?

在model的初始化部分,定义了self.losses[len(bucket)]self.gradient_norms[len(bucket)]self.updates[len(bucket)]
在model.step部分,定义output_feed即为上述三个合并在一起。当然,要feed的只是某一个bucket,所以要指定[bucket_id]。

代码运行说明:
  1. 首先用迅雷下载WMT语料库(压缩包),未避免每次运行都要重新解压,在translate.py文件中的train函数中,把else条件改为

        from_train="../newstest2013.en.ids40000"to_train="../newstest2013.fr.ids40000"from_dev="../newstest2013.en.ids40000"to_dev="../newstest2013.fr.ids40000"
    具体位置根据实际情况判断,其作用是直接读取train和dev的source和target的word_ids文件,而不用每次都重新生成。上图中的.en.fr结尾的文件都可以删除,因为它们是原始word组成的文件,不再需要。
  2. 此命令需要运行很长时间,因为放到了服务器上。且如果不用tutorial中的小参数内存会不够。
    python translate.py --data_dir ~/omg --train_dir ~/omg/train --size=256 --num_layers=2 --steps_per_checkpoint=50
    运行后会依次显示:

    Creating 2 layers of 256 units.
    Created model with fresh parameters.
    reading data lines XXX#作用是读取train文件中的句子,根据长度分配到不同的bucket中
    之后进行到translate.py中的while true循环中,不断读取数据再model.step进行训练。同时会显示不同bucket中的perplexity。
  3. 经过~30K步(tutorial中的数据)0号1号bucket中的perplexity会下降到个位数,此时即可test。注意命令中的参数务必和train时的一样,否则读取checkpoint会报错。
    python translate.py --decode --data_dir ~/omg --train_dir ~/omg/train --size=256 --num_layers=2 --steps_per_checkpoint=50
    成功进入读取输入的翻译阶段~由于训练参数太小效果不理想,如下图:
    将United States翻译成加拿大,不过China翻译正确。

链接:https://github.com/yingtaomj/GNMT_test

这篇关于TensorFlow seq2seq解读的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/967657

相关文章

Linux jq命令的使用解读

《Linuxjq命令的使用解读》jq是一个强大的命令行工具,用于处理JSON数据,它可以用来查看、过滤、修改、格式化JSON数据,通过使用各种选项和过滤器,可以实现复杂的JSON处理任务... 目录一. 简介二. 选项2.1.2.2-c2.3-r2.4-R三. 字段提取3.1 普通字段3.2 数组字段四.

MySQL之搜索引擎使用解读

《MySQL之搜索引擎使用解读》MySQL存储引擎是数据存储和管理的核心组件,不同引擎(如InnoDB、MyISAM)采用不同机制,InnoDB支持事务与行锁,适合高并发场景;MyISAM不支持事务,... 目录mysql的存储引擎是什么MySQL存储引擎的功能MySQL的存储引擎的分类查看存储引擎1.命令

Spring的基础事务注解@Transactional作用解读

《Spring的基础事务注解@Transactional作用解读》文章介绍了Spring框架中的事务管理,核心注解@Transactional用于声明事务,支持传播机制、隔离级别等配置,结合@Tran... 目录一、事务管理基础1.1 Spring事务的核心注解1.2 注解属性详解1.3 实现原理二、事务事

Linux五种IO模型的使用解读

《Linux五种IO模型的使用解读》文章系统解析了Linux的五种IO模型(阻塞、非阻塞、IO复用、信号驱动、异步),重点区分同步与异步IO的本质差异,强调同步由用户发起,异步由内核触发,通过对比各模... 目录1.IO模型简介2.五种IO模型2.1 IO模型分析方法2.2 阻塞IO2.3 非阻塞IO2.4

MySQL8.0临时表空间的使用及解读

《MySQL8.0临时表空间的使用及解读》MySQL8.0+引入会话级(temp_N.ibt)和全局(ibtmp1)InnoDB临时表空间,用于存储临时数据及事务日志,自动创建与回收,重启释放,管理高... 目录一、核心概念:为什么需要“临时表空间”?二、InnoDB 临时表空间的两种类型1. 会话级临时表

C语言自定义类型之联合和枚举解读

《C语言自定义类型之联合和枚举解读》联合体共享内存,大小由最大成员决定,遵循对齐规则;枚举类型列举可能值,提升可读性和类型安全性,两者在C语言中用于优化内存和程序效率... 目录一、联合体1.1 联合体类型的声明1.2 联合体的特点1.2.1 特点11.2.2 特点21.2.3 特点31.3 联合体的大小1

Python标准库datetime模块日期和时间数据类型解读

《Python标准库datetime模块日期和时间数据类型解读》文章介绍Python中datetime模块的date、time、datetime类,用于处理日期、时间及日期时间结合体,通过属性获取时间... 目录Datetime常用类日期date类型使用时间 time 类型使用日期和时间的结合体–日期时间(

C语言中%zu的用法解读

《C语言中%zu的用法解读》size_t是无符号整数类型,用于表示对象大小或内存操作结果,%zu是C99标准中专为size_t设计的printf占位符,避免因类型不匹配导致错误,使用%u或%d可能引发... 目录size_t 类型与 %zu 占位符%zu 的用途替代占位符的风险兼容性说明其他相关占位符验证示

Linux系统之lvcreate命令使用解读

《Linux系统之lvcreate命令使用解读》lvcreate是LVM中创建逻辑卷的核心命令,支持线性、条带化、RAID、镜像、快照、瘦池和缓存池等多种类型,实现灵活存储资源管理,需注意空间分配、R... 目录lvcreate命令详解一、命令概述二、语法格式三、核心功能四、选项详解五、使用示例1. 创建逻

解读GC日志中的各项指标用法

《解读GC日志中的各项指标用法》:本文主要介绍GC日志中的各项指标用法,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、基础 GC 日志格式(以 G1 为例)1. Minor GC 日志2. Full GC 日志二、关键指标解析1. GC 类型与触发原因2. 堆