从头开始构建和训练 Transformer(下)

2024-02-07 05:04

本文主要是介绍从头开始构建和训练 Transformer(下),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

导 读

上一篇推文从头开始构建和训练 Transformer(上)icon-default.png?t=N7T8https://blog.csdn.net/weixin_46287760/article/details/136048418介绍了构建和训练Transformer的过程和构建每个组件的代码示例。本文将使用数据对该架构进行代码演示,验证其模型性能。

本期『数据+代码』已上传百度网盘。

有需要的朋友关注公众号【小Z的科研日常】,回复关键词[Transformer]获取

01、加载数据集

对于此任务,我们将使用🤗Hugging Face 上提供的OpusBooks 数据集。该数据集由两个特征组成,idtranslation。该translation功能包含不同语言的句子对,例如西班牙语和葡萄牙语、英语和法语等。

我首先尝试将句子从英语翻译成葡萄牙语,但是这对句子只有 1.4k个示例,因此在该模型的当前配置中结果并不令人满意。然后,我尝试使用英语-法语对,因为它的示例数量较多(127k),但使用当前配置进行训练需要很长时间。

我们首先定义get_all_sentences函数来迭代数据集并根据定义的语言对提取句子。

# 迭代数据集,提取原句及其译文
def get_all_sentences(ds, lang):for pair in ds:yield pair['translation'][lang]

get_ds函数定义为加载和准备数据集以进行训练和验证。在此函数中,我们构建或加载分词器、拆分数据集并创建 DataLoader,以便模型可以成功地批量迭代数据集。这些函数的结果是源语言和目标语言的标记器以及 DataLoader 对象。

def get_ds(config):# 语言对将在我们稍后创建的 "配置 "字典中定义。ds_raw = load_dataset('opus_books', f'{config["lang_src"]}-{config["lang_tgt"]}', split = 'train') # 为源语言和目标语言构建或加载标记符tokenizer_src = build_tokenizer(config, ds_raw, config['lang_src'])tokenizer_tgt = build_tokenizer(config, ds_raw, config['lang_tgt'])# 分割数据集进行训练和验证train_ds_size = int(0.9 * len(ds_raw)) # 90% for trainingval_ds_size = len(ds_raw) - train_ds_size # 10% for validationtrain_ds_raw, val_ds_raw = random_split(ds_raw, [train_ds_size, val_ds_size]) # Randomly splitting the dataset# 使用双语数据集(BilingualDataset)类处理数据,我们将在下面定义该类train_ds = BilingualDataset(train_ds_raw, tokenizer_src, tokenizer_tgt, config['lang_src'], config['lang_tgt'], config['seq_len'])val_ds = BilingualDataset(val_ds_raw, tokenizer_src, tokenizer_tgt, config['lang_src'], config['lang_tgt'], config['seq_len'])# 对整个数据集进行迭代,并打印在源语言和目标语言句子中找到的最大长度max_len_src = 0max_len_tgt = 0for pair in ds_raw:src_ids = tokenizer_src.encode(pair['translation'][config['lang_src']]).idstgt_ids = tokenizer_src.encode(pair['translation'][config['lang_tgt']]).idsmax_len_src = max(max_len_src, len(src_ids))max_len_tgt = max(max_len_tgt, len(tgt_ids))print(f'Max length of source sentence: {max_len_src}')print(f'Max length of target sentence: {max_len_tgt}')# 为训练集和验证集创建数据加载器# 在训练和验证过程中,使用数据加载器分批迭代数据集train_dataloader = DataLoader(train_ds, batch_size = config['batch_size'], shuffle = True) # Batch size will be defined in the config dictionaryval_dataloader = DataLoader(val_ds, batch_size = 1, shuffle = True)return train_dataloader, val_dataloader, tokenizer_src, tokenizer_tgt # Returning the DataLoader objects and tokenizers

我们定义casual_mask函数来为解码器的注意力机制创建掩码。此掩码可防止模型获得有关序列中未来元素的信息。

我们首先制作一个充满 1 的方形网格。我们用参数确定网格大小size。然后,我们将主对角线上方的所有数字更改为零。一侧的每个数字都变成零,而其余的仍然是1。然后该函数翻转所有这些值,将 1 变为 0,将 0 变为 1。这个过程对于预测序列中未来标记的模型至关重要。

02、验证循环

我们现在将为验证循环创建两个函数。验证循环对于评估模型从训练期间未见过的数据翻译句子的性能至关重要。

我们将定义两个函数。第一个函数 ,greedy_decode通过获取最可能的下一个标记为我们提供模型的输出。第二个函数run_validation负责运行验证过程,在该过程中我们解码模型的输出并将其与目标句子的参考文本进行比较。

class BilingualDataset(Dataset):def __init__(self, ds, tokenizer_src, tokenizer_tgt, src_lang, tgt_lang, seq_len) -> None:super().__init__()self.seq_len = seq_lenself.ds = dsself.tokenizer_src = tokenizer_srcself.tokenizer_tgt = tokenizer_tgtself.src_lang = src_langself.tgt_lang = tgt_langself.sos_token = torch.tensor([tokenizer_tgt.token_to_id("[SOS]")], dtype=torch.int64)self.eos_token = torch.tensor([tokenizer_tgt.token_to_id("[EOS]")], dtype=torch.int64)self.pad_token = torch.tensor([tokenizer_tgt.token_to_id("[PAD]")], dtype=torch.int64)def __len__(self):return len(self.ds)def __getitem__(self, index: Any) -> Any:src_target_pair = self.ds[index]src_text = src_target_pair['translation'][self.src_lang]tgt_text = src_target_pair['translation'][self.tgt_lang]enc_input_tokens = self.tokenizer_src.encode(src_text).idsdec_input_tokens = self.tokenizer_tgt.encode(tgt_text).idsenc_num_padding_tokens = self.seq_len - len(enc_input_tokens) - 2 # Subtracting the two '[EOS]' and '[SOS]' special tokensdec_num_padding_tokens = self.seq_len - len(dec_input_tokens) - 1 # Subtracting the '[SOS]' special tokenif enc_num_padding_tokens < 0 or dec_num_padding_tokens < 0:raise ValueError('Sentence is too long')encoder_input = torch.cat([self.sos_token, # inserting the '[SOS]' tokentorch.tensor(enc_input_tokens, dtype = torch.int64), # Inserting the tokenized source textself.eos_token, # Inserting the '[EOS]' tokentorch.tensor([self.pad_token] * enc_num_padding_tokens, dtype = torch.int64) # Addind padding tokens])decoder_input = torch.cat([self.sos_token, # inserting the '[SOS]' token torch.tensor(dec_input_tokens, dtype = torch.int64), # Inserting the tokenized target texttorch.tensor([self.pad_token] * dec_num_padding_tokens, dtype = torch.int64) # Addind padding tokens])label = torch.cat([torch.tensor(dec_input_tokens, dtype = torch.int64), # Inserting the tokenized target textself.eos_token, # Inserting the '[EOS]' token torch.tensor([self.pad_token] * dec_num_padding_tokens, dtype = torch.int64) # Adding padding tokens])assert encoder_input.size(0) == self.seq_lenassert decoder_input.size(0) == self.seq_lenassert label.size(0) == self.seq_lenreturn {'encoder_input': encoder_input,'decoder_input': decoder_input, 'encoder_mask': (encoder_input != self.pad_token).unsqueeze(0).unsqueeze(0).int(),'decoder_mask': (decoder_input != self.pad_token).unsqueeze(0).unsqueeze(0).int() & casual_mask(decoder_input.size(0)), 'label': label,'src_text': src_text,'tgt_text': tgt_text}  

03、训练循环

我们已准备好在 OpusBook 数据集上训练 Transformer 模型,以执行英语到意大利语翻译任务。我们首先通过调用我们之前定义的get_model函数来定义加载模型的函数。build_transformer该函数使用config字典来设置一些参数。

def get_model(config, vocab_src_len, vocab_tgt_len):model = build_transformer(vocab_src_len, vocab_tgt_len, config['seq_len'], config['seq_len'], config['d_model'])return model 

下面我们将定义两个函数来配置我们的模型和训练过程。

get_config函数中,我们定义了训练过程的关键参数。batch_size一次迭代中使用的训练示例的数量、num_epochs整个数据集通过 Transformer 向前和向后传递的次数、lr优化器的学习率等。我们最终还将定义来自 OpusBook 数据集的对,'lang_src': 'en'用于选择英语作为源语言以及'lang_tgt': 'it'选择意大利语作为目标语言。

get_weights_file_path函数构建用于保存或加载任何特定时期的模型权重的文件路径。

def get_config():return{'batch_size': 8,'num_epochs': 20,'lr': 10**-4,'seq_len': 350,'d_model': 512, 'lang_src': 'en','lang_tgt': 'it','model_folder': 'weights','model_basename': 'tmodel_','preload': None,'tokenizer_file': 'tokenizer_{0}.json','experiment_name': 'runs/tmodel'}def get_weights_file_path(config, epoch: str):model_folder = config['model_folder'] model_basename = config['model_basename'] model_filename = f"{model_basename}{epoch}.pt" return str(Path('.')/ model_folder/ model_filename)

我们最终定义了最后一个函数 ,train_model它将config参数作为输入。

在此函数中,我们将为训练设置一切。我们将模型及其必要组件加载到 GPU 上以加快训练速度,设置Adam优化器并配置CrossEntropyLoss函数来计算模型输出的翻译与数据集中的参考翻译之间的差异。

迭代训练批次、执行反向传播和计算梯度所需的每个循环都在此函数中。我们还将使用它来运行验证函数并保存模型的当前状态。

def train_model(config):# 设置设备在 GPU 上运行,以加快训练速度device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')print(f"Using device {device}")# 创建模型目录以存储权重Path(config['model_folder']).mkdir(parents=True, exist_ok=True)# 使用 "get_ds "函数检索源语言和目标语言的数据加载器和标记器train_dataloader, val_dataloader, tokenizer_src, tokenizer_tgt = get_ds(config)# 使用 "get_model "函数在 GPU 上初始化模型model = get_model(config,tokenizer_src.get_vocab_size(), tokenizer_tgt.get_vocab_size()).to(device)# Tensorboardwriter = SummaryWriter(config['experiment_name'])# 使用'# config'字典中的指定学习率和ε值设置优化器optimizer = torch.optim.Adam(model.parameters(), lr=config['lr'], eps = 1e-9)# 初始化和全局步长变量initial_epoch = 0global_step = 0if config['preload']:model_filename = get_weights_file_path(config, config['preload'])print(f'Preloading model {model_filename}')state = torch.load(model_filename) # Loading modelinitial_epoch = state['epoch'] + 1optimizer.load_state_dict(state['optimizer_state_dict'])global_step = state['global_step']loss_fn = nn.CrossEntropyLoss(ignore_index = tokenizer_src.token_to_id('[PAD]'), label_smoothing = 0.1).to(device)for epoch in range(initial_epoch, config['num_epochs']):batch_iterator = tqdm(train_dataloader, desc = f'Processing epoch {epoch:02d}')for batch in batch_iterator:model.train() # Train the modelencoder_input = batch['encoder_input'].to(device)decoder_input = batch['decoder_input'].to(device)encoder_mask = batch['encoder_mask'].to(device)decoder_mask = batch['decoder_mask'].to(device)encoder_output = model.encode(encoder_input, encoder_mask)decoder_output = model.decode(encoder_output, encoder_mask, decoder_input, decoder_mask)proj_output = model.project(decoder_output)label = batch['label'].to(device)loss = loss_fn(proj_output.view(-1, tokenizer_tgt.get_vocab_size()), label.view(-1))batch_iterator.set_postfix({f"loss": f"{loss.item():6.3f}"})writer.add_scalar('train loss', loss.item(), global_step)writer.flush()loss.backward()optimizer.step()optimizer.zero_grad()global_step += 1 run_validation(model, val_dataloader, tokenizer_src, tokenizer_tgt, config['seq_len'], device, lambda msg: batch_iterator.write(msg), global_step, writer)model_filename = get_weights_file_path(config, f'{epoch:02d}')torch.save({'epoch': epoch, # Current epoch'model_state_dict': model.state_dict(),# Current model state'optimizer_state_dict': optimizer.state_dict(), # Current optimizer state'global_step': global_step # Current global step }, model_filename)

现在开始训练我们的模型!

if __name__ == '__main__':warnings.filterwarnings('ignore') # 忽略警告config = get_config() # 检索配置设置train_model(config) # 使用配置参数训练模型

结果如下:

Using device cuda
Downloading builder script:
6.08k/? [00:00<00:00, 391kB/s]
Downloading metadata:
161k/? [00:00<00:00, 11.0MB/s]
Downloading and preparing dataset opus_books/en-it (download: 3.14 MiB, generated: 8.58 MiB, post-processed: Unknown size, total: 11.72 MiB) to /root/.cache/huggingface/datasets/opus_books/en-it/1.0.0/e8f950a4f32dc39b7f9088908216cd2d7e21ac35f893d04d39eb594746af2daf...
Downloading data: 100%
3.30M/3.30M [00:00<00:00, 10.6MB/s]
Dataset opus_books downloaded and prepared to /root/.cache/huggingface/datasets/opus_books/en-it/1.0.0/e8f950a4f32dc39b7f9088908216cd2d7e21ac35f893d04d39eb594746af2daf. Subsequent calls will reuse this data.
Max length of source sentence: 309
Max length of target sentence: 274
....................................................................

04、结论

在本文中,我们深入探索了原始 Transformer 架构,如《Attention Is All You Need》研究论文中所述。我们使用 PyTorch 在语言翻译任务上逐步实现它,使用 OpusBook 数据集进行英语到意大利语的翻译。

Transformer 是向当今最先进模型(例如 OpenAI 的 GPT-4 模型)迈出的革命性一步。这就是为什么理解这种架构如何工作以及它可以实现什么如此重要。

参考论文:“Attention Is All You Need”

这篇关于从头开始构建和训练 Transformer(下)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/686587

相关文章

Three.js构建一个 3D 商品展示空间完整实战项目

《Three.js构建一个3D商品展示空间完整实战项目》Three.js是一个强大的JavaScript库,专用于在Web浏览器中创建3D图形,:本文主要介绍Three.js构建一个3D商品展... 目录引言项目核心技术1. 项目架构与资源组织2. 多模型切换、交互热点绑定3. 移动端适配与帧率优化4. 可

Python利用PySpark和Kafka实现流处理引擎构建指南

《Python利用PySpark和Kafka实现流处理引擎构建指南》本文将深入解剖基于Python的实时处理黄金组合:Kafka(分布式消息队列)与PySpark(分布式计算引擎)的化学反应,并构建一... 目录引言:数据洪流时代的生存法则第一章 Kafka:数据世界的中央神经系统消息引擎核心设计哲学高吞吐

Springboot项目构建时各种依赖详细介绍与依赖关系说明详解

《Springboot项目构建时各种依赖详细介绍与依赖关系说明详解》SpringBoot通过spring-boot-dependencies统一依赖版本管理,spring-boot-starter-w... 目录一、spring-boot-dependencies1.简介2. 内容概览3.核心内容结构4.

Go语言使用net/http构建一个RESTful API的示例代码

《Go语言使用net/http构建一个RESTfulAPI的示例代码》Go的标准库net/http提供了构建Web服务所需的强大功能,虽然众多第三方框架(如Gin、Echo)已经封装了很多功能,但... 目录引言一、什么是 RESTful API?二、实战目标:用户信息管理 API三、代码实现1. 用户数据

使用Python构建智能BAT文件生成器的完美解决方案

《使用Python构建智能BAT文件生成器的完美解决方案》这篇文章主要为大家详细介绍了如何使用wxPython构建一个智能的BAT文件生成器,它不仅能够为Python脚本生成启动脚本,还提供了完整的文... 目录引言运行效果图项目背景与需求分析核心需求技术选型核心功能实现1. 数据库设计2. 界面布局设计3

深入浅出SpringBoot WebSocket构建实时应用全面指南

《深入浅出SpringBootWebSocket构建实时应用全面指南》WebSocket是一种在单个TCP连接上进行全双工通信的协议,这篇文章主要为大家详细介绍了SpringBoot如何集成WebS... 目录前言为什么需要 WebSocketWebSocket 是什么Spring Boot 如何简化 We

Spring Boot Maven 插件如何构建可执行 JAR 的核心配置

《SpringBootMaven插件如何构建可执行JAR的核心配置》SpringBoot核心Maven插件,用于生成可执行JAR/WAR,内置服务器简化部署,支持热部署、多环境配置及依赖管理... 目录前言一、插件的核心功能与目标1.1 插件的定位1.2 插件的 Goals(目标)1.3 插件定位1.4 核

使用Python构建一个高效的日志处理系统

《使用Python构建一个高效的日志处理系统》这篇文章主要为大家详细讲解了如何使用Python开发一个专业的日志分析工具,能够自动化处理、分析和可视化各类日志文件,大幅提升运维效率,需要的可以了解下... 目录环境准备工具功能概述完整代码实现代码深度解析1. 类设计与初始化2. 日志解析核心逻辑3. 文件处

使用Docker构建Python Flask程序的详细教程

《使用Docker构建PythonFlask程序的详细教程》在当今的软件开发领域,容器化技术正变得越来越流行,而Docker无疑是其中的佼佼者,本文我们就来聊聊如何使用Docker构建一个简单的Py... 目录引言一、准备工作二、创建 Flask 应用程序三、创建 dockerfile四、构建 Docker

基于Python构建一个高效词汇表

《基于Python构建一个高效词汇表》在自然语言处理(NLP)领域,构建高效的词汇表是文本预处理的关键步骤,本文将解析一个使用Python实现的n-gram词频统计工具,感兴趣的可以了解下... 目录一、项目背景与目标1.1 技术需求1.2 核心技术栈二、核心代码解析2.1 数据处理函数2.2 数据处理流程