NLP(五十四)在Keras中使用英文Roberta模型实现文本分类

2023-11-09 03:50

本文主要是介绍NLP(五十四)在Keras中使用英文Roberta模型实现文本分类,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  英文Roberta模型是2019年Facebook在论文RoBERTa: A Robustly Optimized BERT Pretraining Approach中新提出的预训练模型,其目的是改进BERT模型存在的一些问题,当时也刷新了一众NLP任务的榜单,达到SOTA效果,其模型和代码已开源,放在Github中的fairseq项目中。众所周知,英文Roberta模型使用Torch框架训练的,因此,其torch版本模型最为常见。
  当然,torch模型也是可以转化为tensorflow模型的。本文将会介绍如何将原始torch版本的英文Roberta模型转化为tensorflow版本模型,并且Keras中使用tensorflow版本模型实现英语文本分类。
  项目结构如下图所示:
项目结构图

模型转化

  本项目首先会将原始torch版本的英文Roberta模型转化为tensorflow版本模型,该部分代码主要参考Github项目keras_roberta。
  首先需下载Facebook发布在fairseq项目中的roberta base模型,其访问网址为: https://github.com/pytorch/fairseq/blob/main/examples/roberta/README.md。
Roberta模型
运行convert_roberta_to_tf.py脚本,将torch模型转化为tensorflow模型。具体代码不在此给出,可以参考文章后续给出的Github项目地址。
  在模型的tokenizer方面,将RobertaTokenizer改为GPT2Tokenizer,因为RobertaTokenizer是继承自GPT2Tokenizer的,两者相似性很高。测试原始torch模型和tensorflow模型的表现,代码如下(tf_roberta_demo.py):

import os
import tensorflow as tf
from keras_roberta.roberta import build_bert_model
from keras_roberta.tokenizer import RobertaTokenizer
from fairseq.models.roberta import RobertaModel as FairseqRobertaModel
import numpy as np
import argparseif __name__ == '__main__':roberta_path = 'roberta-base'tf_roberta_path = 'tf_roberta_base'tf_ckpt_name = 'tf_roberta_base.ckpt'vocab_path = 'keras_roberta'config_path = os.path.join(tf_roberta_path, 'bert_config.json')checkpoint_path = os.path.join(tf_roberta_path, tf_ckpt_name)if os.path.splitext(checkpoint_path)[-1] != '.ckpt':checkpoint_path += '.ckpt'gpt_bpe_vocab = os.path.join(vocab_path, 'encoder.json')gpt_bpe_merge = os.path.join(vocab_path, 'vocab.bpe')roberta_dict = os.path.join(roberta_path, 'dict.txt')tokenizer = RobertaTokenizer(gpt_bpe_vocab, gpt_bpe_merge, roberta_dict)model = build_bert_model(config_path, checkpoint_path, roberta=True)  # 建立模型,加载权重# 编码测试text1 = "hello, world!"text2 = "This is Roberta!"sep = [tokenizer.sep_token]cls = [tokenizer.cls_token]# 1. 先用'bpe_tokenize'将文本转换成bpe tokenstokens1 = cls + tokenizer.bpe_tokenize(text1) + septokens2 = sep + tokenizer.bpe_tokenize(text2) + sep# 2. 最后转换成idtoken_ids1 = tokenizer.convert_tokens_to_ids(tokens1)token_ids2 = tokenizer.convert_tokens_to_ids(tokens2)token_ids = token_ids1 + token_ids2segment_ids = [0] * len(token_ids1) + [1] * len(token_ids2)print(token_ids)print(segment_ids)print('\n ===== tf model predicting =====\n')our_output = model.predict([np.array([token_ids]), np.array([segment_ids])])print(our_output)print('\n ===== torch model predicting =====\n')roberta = FairseqRobertaModel.from_pretrained(roberta_path)roberta.eval()  # disable dropoutinput_ids = roberta.encode(text1, text2).unsqueeze(0)  # batch of size 1print(input_ids)their_output = roberta.model(input_ids, features_only=True)[0]print(their_output)

输出结果如下:

[0, 42891, 6, 232, 328, 2, 2, 713, 16, 1738, 102, 328, 2]
[0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1]===== tf model predicting =====
[[[-0.01123665  0.05132651 -0.02170264 ... -0.03562857 -0.02836962-0.00519008][ 0.04382067  0.07045364 -0.00431021 ... -0.04662359 -0.107701670.1121687 ][ 0.06198474  0.05240346  0.11088232 ... -0.08883709 -0.02932207-0.12898633]...[-0.00229368  0.045834    0.00811818 ... -0.11751424 -0.067181660.04085271][-0.08509324 -0.27506304 -0.02425355 ... -0.24215901 -0.154818250.17167582][-0.05180666  0.06384835 -0.05997407 ... -0.09398533 -0.05159672-0.03988626]]]===== torch model predicting =====
tensor([[    0, 42891,     6,   232,   328,     2,     2,   713,    16,  1738,102,   328,     2]])
tensor([[[-0.0525,  0.0818, -0.0170,  ..., -0.0546, -0.0569, -0.0099],[-0.0765, -0.0568, -0.1400,  ..., -0.2612, -0.0455,  0.2975],[-0.0142,  0.1184,  0.0530,  ..., -0.0844,  0.0199,  0.1340],...,[-0.0019,  0.1263, -0.0787,  ..., -0.3986, -0.0626,  0.1870],[ 0.0127, -0.2116,  0.0696,  ..., -0.1622, -0.1265,  0.0986],[-0.0473,  0.0748, -0.0419,  ..., -0.0892, -0.0595, -0.0281]]],grad_fn=<TransposeBackward0>)

可以看到,两者在tokenize时的token_ids是一致的。

英语文本分类

  接着我们需要看下转化为的tensorflow版本的Roberta模型在英语文本分类数据集上的效果了。
  这里我们使用的是GLUE数据集中的SST-2SST-2(The Stanford Sentiment Treebank,斯坦福情感树库),单句子分类任务,包含电影评论中的句子和它们情感的人类注释。这项任务是给定句子的情感,类别分为两类正面情感(positive,样本标签对应为1)和负面情感(negative,样本标签对应为0),并且只用句子级别的标签。也就是,本任务也是一个二分类任务,针对句子级别,分为正面和负面情感。关于该数据集的具体介绍可参考网址:https://nlp.stanford.edu/sentiment/index.html。
  SST-2数据集中训练集样本数量为67349,验证集样本数量为872,测试集样本数量为1820,数据存储格式为tsv,读取数据的代码如下:(utils/load_data.py)

def read_model_data(file_path):data = []with open(file_path, 'r', encoding='utf-8') as f:lines = [_.strip() for _ in f.readlines()]for i, line in enumerate(lines):if i:items = line.split('\t')label = [0, 1] if int(items[1]) else [1, 0]data.append([label, items[0]])return data

  在tokenizer部分,我们采用GTP2Tokenizer,该部分代码如下(utils/roberta_tokenizer.py):

# roberta tokenizer function for text pair
def tokenizer_encode(tokenizer, text, max_seq_length):sep = [tokenizer.sep_token]cls = [tokenizer.cls_token]# 1. 先用'bpe_tokenize'将文本转换成bpe tokenstokens1 = cls + tokenizer.bpe_tokenize(text) + sep# 2. 最后转换成idtoken_ids = tokenizer.convert_tokens_to_ids(tokens1)segment_ids = [0] * len(token_ids)pad_length = max_seq_length - len(token_ids)if pad_length >= 0:token_ids += [0] * pad_lengthsegment_ids += [0] * pad_lengthelse:token_ids = token_ids[:max_seq_length]segment_ids = segment_ids[:max_seq_length]return token_ids, segment_ids

  创建模型如下(model_train.py):

# 构建模型
def create_cls_model():# Roberta modelroberta_model = build_bert_model(CONFIG_FILE_PATH, CHECKPOINT_FILE_PATH, roberta=True)  # 建立模型,加载权重for layer in roberta_model.layers:layer.trainable = Truecls_layer = Lambda(lambda x: x[:, 0])(roberta_model.output)    # 取出[CLS]对应的向量用来做分类p = Dense(2, activation='softmax')(cls_layer)     # 多分类model = Model(roberta_model.input, p)model.compile(loss='categorical_crossentropy',optimizer=Adam(1e-5),   # 用足够小的学习率metrics=['accuracy'])return model

模型参数如下:

# 模型参数配置
EPOCH = 10              # 训练轮次
BATCH_SIZE = 64         # 批次数量
MAX_SEQ_LENGTH = 80     # 最大长度

模型训练完后,在验证数据集上的准确率(accuracy)为0.9415,F1值为0.9415,取得了不错效果。

模型预测

  我们对新样本进行模型预测(model_predict.py),预测结果如下:

Awesome movie for everyone to watch. Animation was flawless.
label: 1, prob: 0.9999607

I almost balled my eyes out 5 times. Almost. Beautiful movie, very inspiring.
label: 1, prob: 0.9999519

Not even worth it. It’s a movie that’s too stupid for adults, and too crappy for everyone. Skip if you’re not 13, or even if you are.
label: 0, prob: 0.9999864

总结

  本文介绍了如何将原始torch版本的英文Roberta模型转化为tensorflow版本模型,并且Keras中使用tensorflow版本模型实现英语文本分类。
  本项目代码已放至Github,网址为:https://github.com/percent4/keras_roberta_text_classificaiton。
  感谢阅读,如有任何问题,欢迎大家交流~

参考网址

  1. fairseq: https://github.com/pytorch/fairseq
  2. GLUE tasks: https://gluebenchmark.com/tasks
  3. SST-2: https://nlp.stanford.edu/sentiment/index.html
  4. keras_roberta: https://github.com/midori1/keras_roberta
  5. Roberta paper: https://arxiv.org/pdf/1907.11692.pdf

这篇关于NLP(五十四)在Keras中使用英文Roberta模型实现文本分类的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:https://blog.csdn.net/jclian91/article/details/124775338
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/373851

相关文章

Java Thread中join方法使用举例详解

《JavaThread中join方法使用举例详解》JavaThread中join()方法主要是让调用改方法的thread完成run方法里面的东西后,在执行join()方法后面的代码,这篇文章主要介绍... 目录前言1.join()方法的定义和作用2.join()方法的三个重载版本3.join()方法的工作原

Spring AI使用tool Calling和MCP的示例详解

《SpringAI使用toolCalling和MCP的示例详解》SpringAI1.0.0.M6引入ToolCalling与MCP协议,提升AI与工具交互的扩展性与标准化,支持信息检索、行动执行等... 目录深入探索 Spring AI聊天接口示例Function CallingMCPSTDIOSSE结束语

Linux系统之lvcreate命令使用解读

《Linux系统之lvcreate命令使用解读》lvcreate是LVM中创建逻辑卷的核心命令,支持线性、条带化、RAID、镜像、快照、瘦池和缓存池等多种类型,实现灵活存储资源管理,需注意空间分配、R... 目录lvcreate命令详解一、命令概述二、语法格式三、核心功能四、选项详解五、使用示例1. 创建逻

Python实现批量提取BLF文件时间戳

《Python实现批量提取BLF文件时间戳》BLF(BinaryLoggingFormat)作为Vector公司推出的CAN总线数据记录格式,被广泛用于存储车辆通信数据,本文将使用Python轻松提取... 目录一、为什么需要批量处理 BLF 文件二、核心代码解析:从文件遍历到数据导出1. 环境准备与依赖库

在Java中使用OpenCV实践

《在Java中使用OpenCV实践》用户分享了在Java项目中集成OpenCV4.10.0的实践经验,涵盖库简介、Windows安装、依赖配置及灰度图测试,强调其在图像处理领域的多功能性,并计划后续探... 目录前言一 、OpenCV1.简介2.下载与安装3.目录说明二、在Java项目中使用三 、测试1.测

linux下shell脚本启动jar包实现过程

《linux下shell脚本启动jar包实现过程》确保APP_NAME和LOG_FILE位于目录内,首次启动前需手动创建log文件夹,否则报错,此为个人经验,供参考,欢迎支持脚本之家... 目录linux下shell脚本启动jar包样例1样例2总结linux下shell脚本启动jar包样例1#!/bin

go动态限制并发数量的实现示例

《go动态限制并发数量的实现示例》本文主要介绍了Go并发控制方法,通过带缓冲通道和第三方库实现并发数量限制,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面... 目录带有缓冲大小的通道使用第三方库其他控制并发的方法因为go从语言层面支持并发,所以面试百分百会问到

Go语言并发之通知退出机制的实现

《Go语言并发之通知退出机制的实现》本文主要介绍了Go语言并发之通知退出机制的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录1、通知退出机制1.1 进程/main函数退出1.2 通过channel退出1.3 通过cont

Python实现PDF按页分割的技术指南

《Python实现PDF按页分割的技术指南》PDF文件处理是日常工作中的常见需求,特别是当我们需要将大型PDF文档拆分为多个部分时,下面我们就来看看如何使用Python创建一个灵活的PDF分割工具吧... 目录需求分析技术方案工具选择安装依赖完整代码实现使用说明基本用法示例命令输出示例技术亮点实际应用场景扩

java如何实现高并发场景下三级缓存的数据一致性

《java如何实现高并发场景下三级缓存的数据一致性》这篇文章主要为大家详细介绍了java如何实现高并发场景下三级缓存的数据一致性,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 下面代码是一个使用Java和Redisson实现的三级缓存服务,主要功能包括:1.缓存结构:本地缓存:使