rnn-人名案例实现

2024-06-21 08:04
文章标签 实现 案例 rnn 人名

本文主要是介绍rnn-人名案例实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

模型训练实现:

coding: utf-8

导入torch工具

import json

import torch

导入nn准备构建模型

import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim

导入torch的数据源 数据迭代器工具包

from torch.utils.data import Dataset, DataLoader

用于获得常见字母及字符规范化

import string

导入时间工具包

import time

引入制图工具包

import matplotlib.pyplot as plt

从io中导入文件打开方法

from io import open

from tqdm import tqdm

1.获取常用的字符和标点

all_letters = string.ascii_letters + " .,;'"

print(f’all_letters–>{all_letters}')

n_letter = len(all_letters)
print(f’all_letters长度–>{len(all_letters)}‘)
print(’*'*80)

2.获取国家类别总数

国家名 种类数

categorys = [‘Italian’, ‘English’, ‘Arabic’, ‘Spanish’, ‘Scottish’, ‘Irish’, ‘Chinese’, ‘Vietnamese’, ‘Japanese’,
‘French’, ‘Greek’, ‘Dutch’, ‘Korean’, ‘Polish’, ‘Portuguese’, ‘Russian’, ‘Czech’, ‘German’]

国家名 个数

categorynum = len(categorys)
print(‘categorys—>’, categorys)
print(‘*’*80)

categorys = [‘Italian’, ‘English’, ‘Arabic’, ‘Spanish’, ‘Scottish’, ‘Irish’, ‘Chinese’, ‘Vietnamese’, ‘Japanese’,
‘French’, ‘Greek’, ‘Dutch’, ‘Korean’, ‘Polish’, ‘Portuguese’, ‘Russian’, ‘Czech’, ‘German’]

国家名 个数

categorynum = len(categorys)
print(‘categorys—>’, categorys)
print(‘*’*80)

def read_data(filename):
# 1. 初始化两个空列表
my_list_x, my_list_y = [], []
# 2. 读取文件内容
with open(filename,‘r’, encoding=‘utf-8’) as fr:
for line in fr.readlines():
if len(line) <= 5:
continue
# strip()方法默认将字符串首尾两端的空白去掉
x, y = line.strip().split(‘\t’)
my_list_x.append(x)
my_list_y.append(y)

return my_list_x, my_list_y

todo 构建数据源

class NameClassDataset(Dataset):
def init(self, mylist_x, mylist_y):
self.mylist_x = mylist_x
self.mylist_y = mylist_y
self.sample_len = len(mylist_x)

def __len__(self):return self.sample_lendef __getitem__(self, index):# todo 异常值处理  max(x,y) 取x,y较大的值,若小于0则取0# todo  min(x,y) 取最小的值 保证索引不超出界限index = min(max(index, 0), self.sample_len - 1)x = self.mylist_x[index]y = self.mylist_y[index]# todo one-hot处理 0,1  创建全0张量 特征置为一 就实现了one-hot编码tensor_x=torch.zeros(len(x),n_letter)# li 索引  letter 值for li,letter in enumerate(x):# todo 将得到第li行数第find列置为1tensor_x[li][all_letters.find(letter)]=1# 返回值的索引 置为张量tensor_y=torch.tensor(categorys.index(y),dtype=torch.long)return tensor_x,tensor_y

def get_dataloader():
# todo 核心思想: 处理脏数据 封装数据处理方法 将数据打乱分批次
filename = ‘…/data/name_classfication.txt’
my_list_x, my_list_y = read_data(filename)
mydataset = NameClassDataset(mylist_x=my_list_x, mylist_y=my_list_y)
my_dataloader = DataLoader(dataset=mydataset, batch_size=1, shuffle=True)
return my_dataloader

class MyRNN(nn.Module):
def init(self, input_size, hidden_size, ouput_size, num_layers=1):
# 调用nn方法
super().init()
# todo 输入 长度不一致的数据:文本 时间序列数据 长度一致:语音 图像
# todo 再这里输入前需要对数据处理保证长度一致 方法:填充 截断
self.input_size = input_size
# todo 长度固定 8 62 128 256
self.hidden_size = hidden_size
# todo 长度等于要预测的种类数量
self.ouput_size = ouput_size
self.num_layers = num_layers

    # rnn网络层 todo 昨天区别参数顺序不一致 因为batch_first=trueself.rnn = nn.RNN(self.input_size, self.hidden_size,num_layers=self.num_layers, batch_first=True)# 输出层self.linear = nn.Linear(self.hidden_size, self.ouput_size)# softmax层# todo Softmax 函数会将输入转换为概率分布,然后再通过 CrossEntropyLoss 计算交叉熵损失。# todo LogSoftmax 先将输入转换为对数概率分布,然后与 NLLLoss 结合计算损失。# todo 选型 回归:mse mae  分类  Softmax LogSoftmax# todo 选型: LogSoftmax + NLLLoss  计算快多分类# todo 选型: Softmax + CrossEntropyLoss  默认多分类 不稳定# todo dim=-1 最后一个维度self.softmax = nn.LogSoftmax(dim=-1)def forward(self,input,hidden):rnn_output, rnn_hn = self.rnn(input, hidden)# todo 保持维度一致  如果这里维度不统一后续计算会出错tmep = rnn_output[0][-1].unsqueeze(0)output = self.linear(tmep)return self.softmax(output), rnn_hn# 初始化隐藏值 第一个时间步需要
def inithidden(self):return torch.zeros(self.num_layers, 1, self.hidden_size)

todo 测试 方法: 模型置为评估 单个数据输送 全部数据输送 指标评估

def test_RNN():
# todo 核心思想加载数据 置为需要的张量形状 调用模型 查看模型输出结果
# 1.得到数据
my_dataloader = get_dataloader()
# 2.实例化模型
input_size = n_letter # 57
hidden_size = 128 # 自定设定RNN模型输出结果维度
output_size = len(categorys) # 18
my_rnn = MyRNN(input_size, hidden_size, output_size)
h0 = my_rnn.inithidden()
for i, (x, y) in enumerate(my_dataloader):
print(f’x—>{x.shape}‘)
output, hn = my_rnn(input=x, hidden=h0)
print(f’output模型输出结果–>{output.shape}’)
print(f’hn–>{hn.shape}')
break

epochs = 1
my_lr = 1e-3

todo 模型训练

def train_RNN():
# todo 核心思想: 加载数据集 置换维度形状 调用模型
my_list_x, my_list_y = read_data(filename=‘…/data/name_classfication.txt’)
# 实例化自己定义的Dataset
myDataset = NameClassDataset(mylist_x=my_list_x, mylist_y=my_list_y)
# 实例化自己的Dataloader
my_dataloader = DataLoader(dataset=myDataset, batch_size=1, shuffle=True)

input_size = 57
hidden_size = 128
ouput_size = 18
my_rnn = MyRNN(input_size, hidden_size, ouput_size)
# todo forward定义了损失函数的话这里为什么还需要定义? 因为这是整个训练过程 函数内是单个的不是全局
#todo  --------- 损失函数和优化器可以互换置
my_crossentropy=nn.NLLLoss()
my_optimizer=optim.Adam(my_rnn.parameters(),lr=my_lr)
#todo  ---------
start_time = time.time() # 开始的时间
total_iter_num = 0 # 已经训练好的样本数
total_loss = 0 # 已经训练的总损失
total_loss_list = [] # 每隔100步存储一下平均损失
total_acc_num = 0 # 已经训练的样本数预测正确的样本
total_acc_list = [] # 每隔100步存储一下平均准确率#训练#批次
for epoch_idx in range(epochs):# 批次样本数量for i, (x, y) in enumerate(tqdm(my_dataloader)):# todo 这里为什么要再次初始化???模型内部已经实现了# todo 答: 在 PyTorch 中,每个批次数据的计算图(Computational Graph)会被动态构建。#  在每次向后传播(backward)之前,计算图会被清空以释放显存,并且隐藏状态等变量也会被重置h0=my_rnn.inithidden()output,hn=my_rnn(input=x,hidden=h0)# todo 注意: 以下顺序不能变 否则精度不准确# 预测值和真实值做计算my_loss = my_crossentropy(output, y)# 优化器梯度清零my_optimizer.zero_grad()# 损失函数反向传播my_loss.backward()# 优化器更新参数my_optimizer.step()total_iter_num += 1 # 计数total_loss += my_loss.item() # 累计损失值# todo 模型预测的类别与真实值对比 对为1item1 = 1 if torch.argmax(output, dim=-1).item() == y.item() else 0total_acc_num += item1 # 累计正确样本的个数# 每隔100步存储一下平均损失和准确率if total_iter_num % 100 == 0:# 保存平均损失loss_avg = total_loss / total_iter_numtotal_loss_list.append(loss_avg)# 保存平均准确率acc_avg = total_acc_num / total_iter_numtotal_acc_list.append(acc_avg)if total_iter_num % 2000 == 0:loss_avg = total_loss / total_iter_numacc_avg = total_acc_num / total_iter_numend_time = time.time()use_time = end_time-start_timeprint("当前训练的批次: %d,平均损失: %.5f, 训练时间: %.3f, 准确率: %.2f"%(epoch_idx+1,loss_avg,use_time,acc_avg))# todo 模型保存作用: 复用和部署#todo 模型结构: 输入层 隐藏层 输出层# todo 模型参数: 权重偏执#todo my_rnn.state_dict() 只保存模型参数 不保存模型结构# 加载方法:# model = MyRNN(input_size=10, hidden_size=128, output_size=5)# model.load_state_dict(torch.load('./my_rnn_state_dict.pth'))#todo torch.save() 保存结构和参数# todo model = torch.load('../model/my_rnn_model.pth')torch.save(my_rnn.state_dict(),'../model/my_rnn.bin')all_time = time.time() - start_time
return total_loss_list, all_time, total_acc_list

def save_rnn_results():
# 1. 训练模型得到需要的结果
total_loss_list, all_time, total_acc_list = train_RNN() # 假设train_my_rnn是另一个函数,用于训练RNN模型并返回损失列表、总时间消耗和准确率列表

# 2. 定义一个字典
dict1 = {"loss": total_loss_list,  # 字典中包含损失列表"time": all_time,         # 字典中包含总时间消耗"acc": total_acc_list}    # 字典中包含准确率列表# 3. 保存到一个json格式的文件
with open("../rnn_result.json", "w") as fw:  # 打开一个名为"rnn_result.json"的文件,用于写入fw.write(json.dumps(dict1))  # 使用json.dumps将字典dict1转换为JSON格式的字符串,并写入文件

读取json文件内容

def read_json():
with open(“…/rnn_result.json”, “r”) as fr: # 打开一个名为"rnn_result.json"的文件,用于读取
results = json.load(fr) # 使用json.load将JSON格式的字符串转换回字典
return results # 返回读取到的字典

if name == ‘main’:
test_RNN()
train_RNN()
save_rnn_results()
read_json()

模型预测:

coding: utf-8

导入torch工具

import json

import torch

导入nn准备构建模型

import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim

导入torch的数据源 数据迭代器工具包

from torch.utils.data import Dataset, DataLoader

用于获得常见字母及字符规范化

import string

导入时间工具包

import time

引入制图工具包

import matplotlib.pyplot as plt

从io中导入文件打开方法

from io import open

from tqdm import tqdm

from nlp_self.day03.rnn.example_rnn_train import read_json, MyRNN
import os
os.environ[‘KMP_DUPLICATE_LIB_OK’]=‘True’

all_letters = string.ascii_letters + " .,;'"

print(f’all_letters–>{all_letters}')

n_letter = len(all_letters)
print(f’all_letters长度–>{len(all_letters)}‘)
print(’*'*80)

2.获取国家类别总数

国家名 种类数

categorys = [‘Italian’, ‘English’, ‘Arabic’, ‘Spanish’, ‘Scottish’, ‘Irish’, ‘Chinese’, ‘Vietnamese’, ‘Japanese’,
‘French’, ‘Greek’, ‘Dutch’, ‘Korean’, ‘Polish’, ‘Portuguese’, ‘Russian’, ‘Czech’, ‘German’]

国家名 个数

categorynum = len(categorys)
print(‘categorys—>’, categorys)

画图

def plt_RNN():
#加载模型参数
rnn_results=read_json()
# todo 根据key获取
total_loss_list_rnn, all_time_rnn, total_acc_list_rnn =rnn_results[‘loss’],rnn_results[‘time’],rnn_results[‘acc’]
# 损失对比
plt.figure(0)
plt.plot(total_loss_list_rnn,label=‘RNN’)
plt.legend(loc=“upper left”)
# todo 保存图片
plt.savefig(‘…/pictures/loss.png’)
plt.show()

构建模型入参

def line2tensor(x):
#todo 核心思想: 模型不能识别文字需要转码 常用词嵌入 onehot
# todo 选型: 字符就用one-hot 单词就用词嵌入

tensor_x=torch.zeros(len(x),n_letter)
for li,letter in enumerate(x):# todo  找到的张量置为1 实现one-hot编码tensor_x[li][all_letters.find(letter)]=1
return tensor_x

todo 模型预测

def rnn_predict(x):
# todo 模型预测和训练区别: 数据不一致:训练要标签数据 预测不需要 训练要反向传播 预测不需要
# todo 方法: 单步 多步 递归预测(模型使用已有的预测结果作为下一个时间步的输入,依次递归预测整个序列)
# todo : 核心思想: 传数据 调用模型
# todo 调用模型属于推理过程 要使用上下文管理器 (它可以临时地关闭 PyTorch 中的梯度计算。在这个上下文中的所有操作,都不会被记录在计算图中,也不会影响梯度的计算)
# todo 开始预测过程: 1.上下文管理器 2参数初始化(因为每次调用pytorch会清空隐藏状态) 3. 取出预测结果
tensor_x=line2tensor(x)
my_rnn = MyRNN(input_size=57, hidden_size=128, ouput_size=18)
my_rnn.load_state_dict(torch.load(‘…/model/my_rnn.bin’))
# # todo 上下文管理器 关闭梯度计算 推理过程关闭
with torch.no_grad():
# todo 升维 保持现状一致
input0=tensor_x.unsqueeze(0)
h0=my_rnn.inithidden()
output, hn = my_rnn(input0, h0)

    # todo 取出预测最大值topv,topi=output.topk(3,1,True)for i in range(3):value = topv[0][i]index = topi[0][i]category = categorys[index]print('RNN模型预测的结果:%.2f, 国家类别是%s'% (value, category))

if name == ‘main’:
#plt_RNN()
rnn_predict(‘Wang’)

这篇关于rnn-人名案例实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1080655

相关文章

Nginx使用Keepalived部署web集群(高可用高性能负载均衡)实战案例

《Nginx使用Keepalived部署web集群(高可用高性能负载均衡)实战案例》本文介绍Nginx+Keepalived实现Web集群高可用负载均衡的部署与测试,涵盖架构设计、环境配置、健康检查、... 目录前言一、架构设计二、环境准备三、案例部署配置 前端 Keepalived配置 前端 Nginx

使用animation.css库快速实现CSS3旋转动画效果

《使用animation.css库快速实现CSS3旋转动画效果》随着Web技术的不断发展,动画效果已经成为了网页设计中不可或缺的一部分,本文将深入探讨animation.css的工作原理,如何使用以及... 目录1. css3动画技术简介2. animation.css库介绍2.1 animation.cs

Java进行日期解析与格式化的实现代码

《Java进行日期解析与格式化的实现代码》使用Java搭配ApacheCommonsLang3和Natty库,可以实现灵活高效的日期解析与格式化,本文将通过相关示例为大家讲讲具体的实践操作,需要的可以... 目录一、背景二、依赖介绍1. Apache Commons Lang32. Natty三、核心实现代

SpringBoot实现接口数据加解密的三种实战方案

《SpringBoot实现接口数据加解密的三种实战方案》在金融支付、用户隐私信息传输等场景中,接口数据若以明文传输,极易被中间人攻击窃取,SpringBoot提供了多种优雅的加解密实现方案,本文将从原... 目录一、为什么需要接口数据加解密?二、核心加解密算法选择1. 对称加密(AES)2. 非对称加密(R

基于Go语言实现Base62编码的三种方式以及对比分析

《基于Go语言实现Base62编码的三种方式以及对比分析》Base62编码是一种在字符编码中使用62个字符的编码方式,在计算机科学中,,Go语言是一种静态类型、编译型语言,它由Google开发并开源,... 目录一、标准库现状与解决方案1. 标准库对比表2. 解决方案完整实现代码(含边界处理)二、关键实现细

python通过curl实现访问deepseek的API

《python通过curl实现访问deepseek的API》这篇文章主要为大家详细介绍了python如何通过curl实现访问deepseek的API,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编... API申请和充值下面是deepeek的API网站https://platform.deepsee

SpringBoot实现二维码生成的详细步骤与完整代码

《SpringBoot实现二维码生成的详细步骤与完整代码》如今,二维码的应用场景非常广泛,从支付到信息分享,二维码都扮演着重要角色,SpringBoot是一个非常流行的Java基于Spring框架的微... 目录一、环境搭建二、创建 Spring Boot 项目三、引入二维码生成依赖四、编写二维码生成代码五

MyBatisX逆向工程的实现示例

《MyBatisX逆向工程的实现示例》本文主要介绍了MyBatisX逆向工程的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学... 目录逆向工程准备好数据库、表安装MyBATisX插件项目连接数据库引入依赖pom.XML生成实体类、

C#实现查找并删除PDF中的空白页面

《C#实现查找并删除PDF中的空白页面》PDF文件中的空白页并不少见,因为它们有可能是作者有意留下的,也有可能是在处理文档时不小心添加的,下面我们来看看如何使用Spire.PDFfor.NET通过C#... 目录安装 Spire.PDF for .NETC# 查找并删除 PDF 文档中的空白页C# 添加与删

Java实现MinIO文件上传的加解密操作

《Java实现MinIO文件上传的加解密操作》在云存储场景中,数据安全是核心需求之一,MinIO作为高性能对象存储服务,支持通过客户端加密(CSE)在数据上传前完成加密,下面我们来看看如何通过Java... 目录一、背景与需求二、技术选型与原理1. 加密方案对比2. 核心算法选择三、完整代码实现1. 加密上