达观杯--风险事件实验记录

2023-10-08 00:30

本文主要是介绍达观杯--风险事件实验记录,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

达观杯–风险事件实验记录

官方代码

#!/usr/bin/env python
# coding: utf-8import pandas as pd
from sklearn.model_selection import train_test_splitimport sys
sys.path.append("./")# ### 加载数据集,并切分train/dev# In[2]:# 加载数据
df_train = pd.read_csv("./datasets/phase_1/splits/fold_0/train.txt")
df_train.columns = ["id", "text", "label"]
df_val = pd.read_csv("./datasets/phase_1/splits/fold_0/dev.txt")
df_val.columns = ["id", "text", "label"]
df_test = pd.read_csv("./datasets/phase_1/splits/fold_0/test.txt")
df_test.columns = ["id", "text", ]# 构建词表
charset = set()
for text in df_train['text']:for char in text.split(" "):charset.add(char)
id2char = ['OOV', ',', '。', '!', '?'] + list(charset)
char2id = {id2char[i]: i for i in range(len(id2char))}# 标签集
id2label = list(df_train['label'].unique())
label2id = {id2label[i]: i for i in range(len(id2label))}# ### 定义模型# In[3]:# 定义模型from tensorflow.keras.layers import *
from tensorflow.keras.models import *
MAX_LEN = 128
input_layer = Input(shape=(MAX_LEN,))
layer = Embedding(input_dim=len(id2char), output_dim=256)(input_layer)
layer = Bidirectional(LSTM(256, return_sequences=True))(layer)
layer = Flatten()(layer)
output_layer = Dense(len(id2label), activation='softmax')(layer)
model = Model(inputs=input_layer, outputs=output_layer)
model.summary()
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])from tensorflow.keras.preprocessing.sequence import pad_sequences
import numpy as npX_train, X_val, X_test = [], [], []
y_train = np.zeros((len(df_train), len(id2label)), dtype=np.int8)
y_val = np.zeros((len(df_val), len(id2label)), dtype=np.int8)for i in range(len(df_train)):X_train.append([char2id[char] for char in df_train.loc[i, 'text'].split(" ")])y_train[i][label2id[df_train.loc[i, 'label']]] = 1
for i in range(len(df_val)):X_val.append([char2id[char] if char in char2id else 0 for char in df_val.loc[i, 'text'].split(" ")])y_val[i][label2id[df_val.loc[i, 'label']]] = 1
for i in range(len(df_test)):X_test.append([char2id[char] if char in char2id else 0 for char in df_test.loc[i, 'text'].split(" ")])X_train = pad_sequences(X_train, maxlen=MAX_LEN, padding='post', truncating='post')
X_val = pad_sequences(X_val, maxlen=MAX_LEN, padding='post', truncating='post')
X_test = pad_sequences(X_test, maxlen=MAX_LEN, padding='post', truncating='post')# ### 模型训练# In[5]:model.fit(x=X_train, y=y_train, validation_data=(X_val, y_val), epochs=5, batch_size=32)# In[19]:y_val_pred = model.predict(X_val).argmax(axis=-1)
print(y_val_pred[: 20])
y_val = []
for i in range(len(df_val)):y_val.append(label2id[df_val.loc[i, 'label']])
y_val = [int(w) for w in y_val]
print(y_val[: 20])from sklearn.metrics import classification_report
results = {}
classification_report_dict = classification_report(y_val_pred, y_val, output_dict=True)
for key0, val0 in classification_report_dict.items():if isinstance(val0, dict):for key1, val1 in val0.items():results[key0 + "__" + key1] = val1else:results[key0] = val0import json
print(json.dumps(results, indent=2, ensure_ascii=False))y_pred = model.predict(X_test).argmax(axis=-1)
pred_labels = [id2label[i] for i in y_pred]
pd.DataFrame({"id": df_test['id'], "label": pred_labels}).to_csv("submission.csv", index=False)

baseline f1-score
0.36730954652

StratifiedKFold 有放回交叉验证
20210901

dev macro-F101234avg
随机word2vec bilstm max-pool0.50197401053979820.53050473620153840.487120907159471260.487120907159471260.488103991753090660.501351448
随机word2vec textcnn max-pool0.4395620552615170.46484840733822890.442616125512826750.44570939244035070.4341243103527730.4453720582
随机word2vec bigru max-pool0.483426250238874640.50540704541556760.49331289220803780.52012172149033460.495564517284430630.499566485

submit 随机word2vec bilstm max-pool -> 0.56353646

20210902

dev macro-F101234avg
word2vec 128dim bilstm max-pool0.47087440684654240.478453412735319940.49494684981443540.474457750601617770.49207268228230060.48216102
word2vec 256dim bilstm max-pool0.50002424767355020.50747857754001520.488983134653656340.481419644085862740.50119122073624880.495819365

20210902

dev macro-F101234avg
word2vec bilstm dr_pool0.495509199632063360.49591742291327990.49756356181477690.49015137962620050.53642224670996690.503112762
word2vec bilstm slf_attn_pool0.5386909292600010.53488264227098110.53442791393901430.52971579211678130.50876949075931670.529297354
word2vec bilstm avg_pool0.50002424767355020.50747857754001520.488983134653656340.481419644085862740.50119122073624880.495819365
word2vec bilstm max_pool0.53783731233296860.54301060486485180.53966150432342090.53740386741775140.53642224670996690.538867107

有点过拟合

20210907

dev macro-F101234avg
bert-base-chinese+random0.50870.47650.49420.51020.49360.49664
bert-base-chinese+w2v0.51520.48650.50790.50370.5080.50426
chinese-bert-wwm-ext+random0.52810.48540.5120.50860.51590.51
chinese-bert-wwm-ext+w2v0.510.48690.50640.5050.50540.50274
chinese-roberta-wwm-ext+random0.5050.47990.50290.50730.49540.4981
chinese-roberta-wwm-ext+w2v0.50570.47860.49930.49170.49030.49312

20210908

dev macro-F101234avg
chinese-roberta-wwm-ext+counts0.53290.51010.51410.54120.52590.52484
chinese-roberta-wwm-ext + dict_vocab2freq0.52460.50720.50910.51390.51030.51302
chinese-roberta-wwm-ext + dict_vocab2freq_wiki_zh0.51550.50490.50750.52930.50910.51326
chinese-bert-wwm-ext + counts0.53520.514xx0.53040.50280.5206
chinese-bert-wwm-ext_dict + vocab2freq_08190.5254xxxx0.51510.51860.5197
chinese-bert-wwm-ext + dict_vocab2freq_wiki_zh0.52170.5105xx0.52740.52560.5213


*20210910
NEZHA 脱敏+counts

dev macro-F101234avg
NEZHA-Base + counts0.51910.50780.51780.51690.54690.5217
NEZHA-Base-WWM + counts0.54940.52580.50910.53250.52530.52948


Roberta 脱敏 + 预训练 + counts

dev macro-F101234avg
chinese-roberta-wwm-ext + pretrain + counts0.54270.52030.52370.5270.52860.52846

这篇关于达观杯--风险事件实验记录的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/161476

相关文章

统一返回JsonResult踩坑的记录

《统一返回JsonResult踩坑的记录》:本文主要介绍统一返回JsonResult踩坑的记录,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录统一返回jsonResult踩坑定义了一个统一返回类在使用时,JsonResult没有get/set方法时响应总结统一返回

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

java对接海康摄像头的完整步骤记录

《java对接海康摄像头的完整步骤记录》在Java中调用海康威视摄像头通常需要使用海康威视提供的SDK,下面这篇文章主要给大家介绍了关于java对接海康摄像头的完整步骤,文中通过代码介绍的非常详细,需... 目录一、开发环境准备二、实现Java调用设备接口(一)加载动态链接库(二)结构体、接口重定义1.类型

apache的commons-pool2原理与使用实践记录

《apache的commons-pool2原理与使用实践记录》ApacheCommonsPool2是一个高效的对象池化框架,通过复用昂贵资源(如数据库连接、线程、网络连接)优化系统性能,这篇文章主... 目录一、核心原理与组件二、使用步骤详解(以数据库连接池为例)三、高级配置与优化四、典型应用场景五、注意事

SpringBoot实现文件记录日志及日志文件自动归档和压缩

《SpringBoot实现文件记录日志及日志文件自动归档和压缩》Logback是Java日志框架,通过Logger收集日志并经Appender输出至控制台、文件等,SpringBoot配置logbac... 目录1、什么是Logback2、SpringBoot实现文件记录日志,日志文件自动归档和压缩2.1、

qtcreater配置opencv遇到的坑及实践记录

《qtcreater配置opencv遇到的坑及实践记录》我配置opencv不管是按照网上的教程还是deepseek发现都有些问题,下面是我的配置方法以及实践成功的心得,感兴趣的朋友跟随小编一起看看吧... 目录电脑环境下载环境变量配置qmake加入外部库测试配置我配置opencv不管是按照网上的教程还是de

使用nohup和--remove-source-files在后台运行rsync并记录日志方式

《使用nohup和--remove-source-files在后台运行rsync并记录日志方式》:本文主要介绍使用nohup和--remove-source-files在后台运行rsync并记录日... 目录一、什么是 --remove-source-files?二、示例命令三、命令详解1. nohup2.

Python开发文字版随机事件游戏的项目实例

《Python开发文字版随机事件游戏的项目实例》随机事件游戏是一种通过生成不可预测的事件来增强游戏体验的类型,在这篇博文中,我们将使用Python开发一款文字版随机事件游戏,通过这个项目,读者不仅能够... 目录项目概述2.1 游戏概念2.2 游戏特色2.3 目标玩家群体技术选择与环境准备3.1 开发环境3

Java使用SLF4J记录不同级别日志的示例详解

《Java使用SLF4J记录不同级别日志的示例详解》SLF4J是一个简单的日志门面,它允许在运行时选择不同的日志实现,这篇文章主要为大家详细介绍了如何使用SLF4J记录不同级别日志,感兴趣的可以了解下... 目录一、SLF4J简介二、添加依赖三、配置Logback四、记录不同级别的日志五、总结一、SLF4J

在Spring Boot中浅尝内存泄漏的实战记录

《在SpringBoot中浅尝内存泄漏的实战记录》本文给大家分享在SpringBoot中浅尝内存泄漏的实战记录,结合实例代码给大家介绍的非常详细,感兴趣的朋友一起看看吧... 目录使用静态集合持有对象引用,阻止GC回收关键点:可执行代码:验证:1,运行程序(启动时添加JVM参数限制堆大小):2,访问 htt