用LSTM模型做imdb电影评论情感分析

2023-10-20 01:50

本文主要是介绍用LSTM模型做imdb电影评论情感分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

imdb数据集介绍

IMDB影评数据集中含有来自IMDB的25,000条影评,被标记为正面/负面两种评价。影评已被预处理为词下标构成的序列。方便起见,单词的下标基于它在数据集中出现的频率标定,例如整数3所编码的词为数据集中第3常出现的词。这样的组织方法使得用户可以快速完成诸如“只考虑最常出现的10,000个词,但不考虑最常出现的20个词”这样的操作
按照惯例,0不代表任何特定的词,而用来编码任何未知单词

keras中内置了imdb数据集,我们直接导入即可(由于已经下载了,这里指定path)。

由于博主之前已经有一篇文章已经对数据进行了分析,这里就不过多赘述了,感兴趣的朋友可以移步用一维卷积模型做imdb电影评论情感分析

导入数据

from keras.datasets import imdb
#只考虑出现频率最高的10000个单词,其余低频率单词会被编码为0
max_word = 10000
(train_x, train_y), (test_x, test_y) = imdb.load_data(num_words=max_word,path='/root/.keras/datasets/imdb.npz')

处理数据

from keras.preprocessing.sequence import pad_sequences
maxlen = 500
train_x =  pad_sequences(train_x,maxlen=maxlen)
test_x =  pad_sequences(test_x,maxlen=maxlen)

用keras中的pad_sequences方法对数据进行填充或切割,使数据序列长度的恒为500,长度不足的填充0,长度大于500的被截断。

定义回调函数

keras会在每一轮训练后调用回调函数

from keras.callbacks import EarlyStopping,ModelCheckpoint
callbacks_list = [EarlyStopping(monitor = 'val_accuracy', #监控验证精度patience = 3, #如果验证精度多于三轮不改善则中断训练),#在训练的过程中不断得保存最优的模型ModelCheckpoint(filepath = 'my_model_lstm.h5', #模型保存路径monitor = 'val_accuracy', #监控验证精度save_best_only = True, #如果val_accuracy没有改善则不需要覆盖模型)
]

LSTM层

长短期记忆网络(LSTM)是一种时间循环神经网络,是RNN的一个优秀的变种模型,它继承了大部分RNN模型的特性,同时解决了梯度反向传播过程中产生的梯度消失问题。它非常适合于长时间序列的特征,能分析输入信息之间的整体逻辑序列。
下面我们通过一个例子来熟悉LSTM
定义模型

from keras import Sequential
from keras.layers import LSTM
model_test = Sequential()
model_test.add(LSTM(5,input_shape=(4,3)))
model_test.compile(loss='mse',optimizer='sgd')

查看模型结构

model_test.summary()

在这里插入图片描述
我们定义了5个LSTM节点,它接受一个形状为(4,3)的输入,输出形状为(None,5)。
通过模型的输出

data = np.random.random((1,4,3))
print(data)
print("==========================")
print(model_test.predict(data))

输出为

[[[0.79716507 0.34357063 0.90199362][0.81896706 0.36259831 0.83346227][0.92933103 0.50251658 0.90276097][0.42825427 0.91050999 0.05773106]]]
==========================
[[ 0.04960854 -0.09560797  0.06205023 -0.23291263 -0.21847163]]

每个节点都会从时序的角度来提取特征,获得一个输出结果。


接下来定义我们训练imdb电影评论的模型

定义模型

from keras import layers
from keras.losses import BinaryCrossentropy
from keras.models import Sequential
model = Sequential([layers.Embedding(max_word,32),layers.LSTM(32),layers.Dense(1,activation="sigmoid")
])
model.compile(optimizer="rmsprop",loss=BinaryCrossentropy(),metrics=["accuracy"])

训练模型

history = model.fit(train_x,train_y,epochs=10,batch_size = 128,validation_data=(test_x, test_y),callbacks=callbacks_list)

训练结果如下

Train on 25000 samples, validate on 25000 samples
Epoch 1/10
25000/25000 [==============================] - 135s 5ms/step - loss: 0.4738 - accuracy: 0.7788 - val_loss: 0.3055 - val_accuracy: 0.8770
Epoch 2/10
25000/25000 [==============================] - 129s 5ms/step - loss: 0.2779 - accuracy: 0.8928 - val_loss: 0.2790 - val_accuracy: 0.8867
Epoch 3/10
25000/25000 [==============================] - 134s 5ms/step - loss: 0.2286 - accuracy: 0.9123 - val_loss: 0.3296 - val_accuracy: 0.8721
Epoch 4/10
25000/25000 [==============================] - 129s 5ms/step - loss: 0.2028 - accuracy: 0.9246 - val_loss: 0.3176 - val_accuracy: 0.8810
Epoch 5/10
25000/25000 [==============================] - 129s 5ms/step - loss: 0.1777 - accuracy: 0.9356 - val_loss: 0.3551 - val_accuracy: 0.8551

可以看到在第五轮训练完成后训练就提前结束了,因为三轮验证精度都没有改善,同时训练过程中最好的模型已经被保存了,验证精度最高为0.8867。

LSTM通常用于时序较长的特征数据,常用于机器翻译,对话生成,编码,解码等。今天分享的内容就到这里了,希望能够对大家有所帮助。
PS:过两天会分享一篇文章来分析比较LSTM模型和一维卷积模型的特点。

这篇关于用LSTM模型做imdb电影评论情感分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:https://blog.csdn.net/weixin_42494845/article/details/106026758
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/243813

相关文章

Android 缓存日志Logcat导出与分析最佳实践

《Android缓存日志Logcat导出与分析最佳实践》本文全面介绍AndroidLogcat缓存日志的导出与分析方法,涵盖按进程、缓冲区类型及日志级别过滤,自动化工具使用,常见问题解决方案和最佳实... 目录android 缓存日志(Logcat)导出与分析全攻略为什么要导出缓存日志?按需过滤导出1. 按

Linux中的HTTPS协议原理分析

《Linux中的HTTPS协议原理分析》文章解释了HTTPS的必要性:HTTP明文传输易被篡改和劫持,HTTPS通过非对称加密协商对称密钥、CA证书认证和混合加密机制,有效防范中间人攻击,保障通信安全... 目录一、什么是加密和解密?二、为什么需要加密?三、常见的加密方式3.1 对称加密3.2非对称加密四、

MySQL中读写分离方案对比分析与选型建议

《MySQL中读写分离方案对比分析与选型建议》MySQL读写分离是提升数据库可用性和性能的常见手段,本文将围绕现实生产环境中常见的几种读写分离模式进行系统对比,希望对大家有所帮助... 目录一、问题背景介绍二、多种解决方案对比2.1 原生mysql主从复制2.2 Proxy层中间件:ProxySQL2.3

python使用Akshare与Streamlit实现股票估值分析教程(图文代码)

《python使用Akshare与Streamlit实现股票估值分析教程(图文代码)》入职测试中的一道题,要求:从Akshare下载某一个股票近十年的财务报表包括,资产负债表,利润表,现金流量表,保存... 目录一、前言二、核心知识点梳理1、Akshare数据获取2、Pandas数据处理3、Matplotl

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

MySQL 内存使用率常用分析语句

《MySQL内存使用率常用分析语句》用户整理了MySQL内存占用过高的分析方法,涵盖操作系统层确认及数据库层bufferpool、内存模块差值、线程状态、performance_schema性能数据... 目录一、 OS层二、 DB层1. 全局情况2. 内存占js用详情最近连续遇到mysql内存占用过高导致

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499

Olingo分析和实践之EDM 辅助序列化器详解(最佳实践)

《Olingo分析和实践之EDM辅助序列化器详解(最佳实践)》EDM辅助序列化器是ApacheOlingoOData框架中无需完整EDM模型的智能序列化工具,通过运行时类型推断实现灵活数据转换,适用... 目录概念与定义什么是 EDM 辅助序列化器?核心概念设计目标核心特点1. EDM 信息可选2. 智能类

Olingo分析和实践之OData框架核心组件初始化(关键步骤)

《Olingo分析和实践之OData框架核心组件初始化(关键步骤)》ODataSpringBootService通过初始化OData实例和服务元数据,构建框架核心能力与数据模型结构,实现序列化、URI... 目录概述第一步:OData实例创建1.1 OData.newInstance() 详细分析1.1.1