文本反垃圾在花椒直播中的应用概述

2023-12-08 20:10

本文主要是介绍文本反垃圾在花椒直播中的应用概述,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

奇技指南

本文主要以文本为对象,简要地介绍花椒平台在文本反垃圾方面所采用的文本垃圾拦截技术

本文转载自花椒技术公众号

背景

随着花椒用户和主播用户的数量不断增加,一些非法用户(垃圾虫)利用花椒平台数据流量大、信息传播范围广的优势,通过各种多媒体手段(文本、图片、语音、短视频等)在用户个人资料信息(昵称,签名,头像等)及直播间聊天等场景散播垃圾信息,这些信息严重影响了用户的观看体验,甚至会导致用户流失、活跃度下降,此外一些情节严重的违法违规内容会给平台带来运营风险和负面的社会影响。

问题分析

本文主要以文本为对象,简要地介绍花椒平台在文本反垃圾方面所采用的文本垃圾拦截技术。目前平台上所接触到的文本垃圾信息基本上可以概括为以下几个类别:

  1. 垃圾广告:各类商品广告、诈骗广告等

  2. 色情内容:色情词汇、色情服务及低俗信息等

  3. 暴恐、政治敏感词: 暴恐涉政、违禁品等

  4. 竟品信息及其他信息等

对于平台初期数据量较少、垃圾信息形式单一的情况,采用人工审核的方式基本可以解决问题。但是随着平台业务的拓宽与发展,业务量迅速增加,仅依靠人工审核方式无法应对,这时需要借助一些规则策略和算法模型辅助人工审核,以减少人工审核工作量,提高审核效率。

简单的垃圾信息,可以通过设置规则进行关键词过滤和屏蔽,正则表达则可以发挥很大作用。但是发布者为了逃避拦截,通常都会对垃圾信息进行改造和伪装,比如拼音替换,同义词替换,象形字替换,嵌入表情字符,用表情代替字符,甚至是将文字顺序打乱。对于复杂的信息,其表达形式广泛、没有规律,仅仅通过规则过滤达不到效果,可借助精准的算法模型进行检测。

垃圾信息拦截是一个常见的文本二分类任务,是自然语言处理领域的一个基本任务,目的是推断出给定的文本的标签。二分类问题常见的评价指标有准确率(accuracy),精准率(precision),召回率(recall),F1-score等。

文本分类算法介绍

传统文本分类方法

一般来讲传统机器学习文本分类任务过程包括文本预处理、特征提取、文本表示、训练分类器和分类性能评估。其中构建特征工程和分类建模方法是文本分类任务中最重要的两个环节。

文本的预处理包括文本分词、去除停用词(包括标点、数字和一些无意义的词)、词义消歧、统计等处理。中文与英文相比,在中文文本预处理过程中,首先要进行分词处理,而英文文本单词与单词之间通过空格即可分割,无需进行分词处理。

特征提取和文本表示目的就是将文本转化为计算机可以理解的向量形式。词袋模型(Bag of Words)是用于文本表示的最简单的方法, BoW把文本转换为文档中单词出现次数的矩阵,只关注文档中是否出现给定的单词和单词出现频率,而舍弃文本的结构、单词出现的顺序和位置。词频-逆向文件频率(TF-IDF)是一种在文本挖掘中广泛使用的特征向量化方法,主要衡量一个文档中词语在语料库中的重要程度。Word2vec采用一系列代表文档的词语来训练word2vec权重矩阵,将每个词语映射到一个固定大小的向量。

分类器用的比较多的是LR,SVM,MLP,GBDT等,当然还有其他一些分类算法,这里不多赘述。

基于CNN的文本分类方法

随着互联网的普及,一些用户为求彰显个性,开始大量使用同音字、音近字、特殊符号等异形文字(火星文)。由于这种文字与日常使用的文字相比有明显的不同并且文法也相当奇异,目前平台上遇到的难以识别样本大多是数字、QQ、微信的变种、多是象形字符,不含语义、分词模型对这些符号无法处理而且文本都很简短。

Badcase样本示例

传统文本分类方法所存在的问题

  1. 这些文字如果使用常规的分词方法会导致分词失败

  2. 即使能成功分词,也很难查找到大规模语料库对词语进行向量表示

  3. 过滤异种符号和文字,导致抓不住火星文特征

因此需要一种不借助分词的模型,以单个字词为原子进行词向量表示,并且可以挖掘学习词与词之间的语序及语义信息。

因此需要一种不借助分词的模型,以单个字词为原子进行词向量表示,并且可以挖掘学习词与词之间的语序及语义信息。

TextCNN 原理

CNN(Convolutional Neural Network)卷积神经网络在图像处理方面应用很多,TextCNN模型创新性的将CNN结构应用在了NLP领域,为文本分类提供了新的思路,TextCNN解决了传统方法分词处理和词向量表示两个关键问题,其贡献主要有以下几点: 

  1. 避免分词,以字符为单位的文本向量表示

  2. CNN能捕捉局部区域的词序及语义信息,所表达的特征更加丰富

  3. 采用不同尺寸的卷积核,可以提取到 n-gram 的特征

  4. 卷积结构运算速度快,模型响应时长控制在 50ms 以下

模型结构

TextCNN 模型采用交叉熵损失函数,即将文本处理建模为一个二分类问题。该模型先将文本进行词嵌入(Embedding)获得词向量,然后采用不同尺寸卷积核进行卷积运算提取特征,接着进行最大池化(Max pooling)得到显著特征,最后接一个概率输出层(Softmax)进行文本分类。

卷积部分

对于一维的文本数据,经过词向量化操作后可以得到类似于图像的二维向量。假设输入的每个词的向量维度为k,即词向量空间维度为k,则包含n个单词的句子组成一个 n×k 的二维矩阵,假设卷积核为h×k,h则是卷积滑动窗口的大小,卷积特征

注意到卷积核的宽度k与词向量的维度一致,是因为输入的每一行向量代表一个词,即在抽取特征的过程中,将词作为文本的最小粒度

例如有一个样本 T={"我","爱","花","椒","直","播"},样本输入长度为N= 6,词向量空间维度为 k=5,假设滑动窗口尺寸h=4,则卷积核尺寸为4×5。

输入数据

卷积核

假设滑动窗口移动步长为1,上述输入数据经过卷积运算后将得到如下长度为n-h+1=3的向量输出结果

同理,假设采用2,3,4三种尺寸卷积核,每种尺寸对应有m个卷积核,这样经过卷积运算后,每个尺寸的卷积核对应有的卷积特征。

池化层

最大池化即对领域内特征点取最大值,通常情况下max-pooling能减小卷积层参数误差造成估计均值的偏移,更多的保留显著特征信息,最大池化的定义及示例如下:

对于上述卷积操作得到的3m个(n−h+1)×1的卷积特征采用尺寸为(n−h+1)×1的最大池化(max_pooling)操作得到3个m×1维的特征,最后这些特征进行拼接,得到3m×1维的向量。当用CNN提取出特征向量后,就可以将其输入到概率输出层(softmax)进行分类,其中softmax函数定义如下:

以下是TextCNN模型代码实现:

#coding:utf-8import tensorflow as tfimport numpy as np

class TextCNN(object): def __init__(self, sequence_length, num_classes, vocab_size, embedding_size, filter_sizes, num_filters, l2_reg_lambda=0.0): self.input_x = tf.placeholder(tf.int32, [None, sequence_length], name="input_x") self.input_y = tf.placeholder(tf.float32, [None, num_classes], name="input_y") self.dropout_keep_prob = tf.placeholder(tf.float32, name="dropout_keep_prob") l2_loss = tf.constant(0.0)
#Embedding with tf.device('/cpu:0'), tf.name_scope("embedding"): self.W = tf.get_variable('lookup_table', dtype=tf.float32, shape=[vocab_size, embedding_size], initializer=tf.random_uniform_initializer()) self.W = tf.concat((tf.zeros(shape=[1, embedding_size]), self.W[1:, :]), 0) self.embedded_chars = tf.nn.embedding_lookup(self.W, self.input_x) self.embedded_chars_expanded = tf.expand_dims(self.embedded_chars, -1)
#Convolution pooled_outputs = []
for i, filter_size in enumerate(filter_sizes): with tf.name_scope("conv-maxpool-%s" % filter_size): filter_shape = [filter_size, embedding_size, 1, num_filters] W = tf.Variable(tf.truncated_normal(filter_shape, stddev=0.1), name="W") b = tf.Variable(tf.constant(0.1,shape=[num_filters]), name="b") conv = tf.nn.conv2d(self.embedded_chars_expanded,W,strides=[1, 1, 1, 1], padding="VALID",name="conv") h = tf.nn.relu(tf.nn.bias_add(conv, b), name="relu") pooled = tf.nn.max_pool(h,ksize=[1, sequence_length - filter_size + 1, 1, 1], strides=[1, 1, 1, 1],padding='VALID',name="pool") pooled_outputs.append(pooled)
num_filters_total = num_filters * len(filter_sizes) self.h_pool = tf.concat(pooled_outputs, 3) self.h_pool_flat = tf.reshape(self.h_pool, [-1, num_filters_total])
with tf.name_scope("dropout"): self.h_drop = tf.nn.dropout(self.h_pool_flat, self.dropout_keep_prob)
#Output with tf.name_scope("output"): W = tf.get_variable("W",shape=[num_filters_total, num_classes], initializer=tf.contrib.layers.xavier_initializer()) b = tf.Variable(tf.constant(0.1, shape=[num_classes]), name="b") l2_loss += tf.nn.l2_loss(W) l2_loss += tf.nn.l2_loss(b) self.scores = tf.nn.xw_plus_b(self.h_drop, W, b, name="scores") self.predictions = tf.argmax(self.scores, 1, name="predictions")
#Loss with tf.name_scope("loss"): losses = tf.nn.softmax_cross_entropy_with_logits(logits=self.scores, labels=self.input_y) self.loss = tf.reduce_mean(losses) + l2_reg_lambda * l2_loss
#Accuracy with tf.name_scope("accuracy"): correct_predictions = tf.equal(self.predictions, tf.argmax(self.input_y, 1)) self.accuracy = tf.reduce_mean(tf.cast(correct_predictions, "float"), name="accuracy")

训练结果

小结

本节简要地介绍了传统方法在文本分类方法任务中的基本流程以及存在的问题,并且阐述了深度学习方法在文本分类任务中优势,以及TextCNN以单个字符为单位,采用卷积提取局部特征,对于处理类似火星文的文本更加鲁棒。此外之所以选用CNN而没有选用像word2vec以及没有提到的RNN等深度学习方法,是因为CNN相对于word2vec能获得更好的局部的语序信息及语义信息;相比于RNN而言,CNN 是分层架构,CNN更适合提取关键特征,对于分类问题效果更好,而RNN是连续结构,更适合顺序建模,此外CNN适合并行计算,还可以采用GPU加速计算,响应时间短,inference只有3ms,非常适合垃圾文本检测速度的要求。

文本反垃圾模型线上部署流程

服务架构

反垃圾服务分为线上与线下两层。线上实时服务要求毫秒级判断文本是否属于垃圾文本,线下离线计算需要根据新进的样本不断更新模型,并及时推送到线上。垃圾文本识别是一个长期攻防的过程,平台上的垃圾文本会不断演变,模型的效果也会随之变化。

Tensorflow serving模型部署

TensorFlow Serving是一个灵活、高性能的机器学习模型服务系统,专为生产环境而设计。使用TensorFlow Serving可以将训练好的机器学习模型轻松部署到线上,并且支持热更新。它使用gRPC作为接口接受外部调用,服务稳定,接口简单。能检测模型最新版本并自动加载。这意味着一旦部署 TensorFlow Serving 后,不需要为线上服务操心,只需要关心线下模型训练。

客户端调用

TensorFlow Serving通过gRPC服务接受外部调用。gRPC是一个高性能、通用的开源RPC框架, gRPC提供了一种简单的方法来精确地定义服务和自动为客户端生成可靠性很强的功能库。

在使用gRPC进行通信之前,需要完成两步操作:

  1. 定义服务

  2. 生成服务端和客户端代码

定义服务这块工作TensorFlow Serving已经帮我们完成了。TensorFlow Serving项目中model.proto、predict.proto和prediction_service.proto这个三个.proto文件定义了一次预测请求的输入和输出

接下来用写好的客户端程序来调用部署好的模型,启动服务后,访问下面地址可以查看识别结果,说明模型部署成功且可以正常使用。

参考资料

  1. Kim Y. Convolutional neural networks for sentence classification[J]. arXiv preprint arXiv:1408.5882, 2014.

  2. http://web.stanford.edu/class/cs224n/slides/cs224n-2019-lecture11-convnets.pdf

  3. https://www.cnblogs.com/ljhdo/p/10578047.html

  4. https://tensorflow.google.cn/tfx/serving/architecture

  5. https://baike.baidu.com/item/火星文/608814

关注我们

界世的你当不

只做你的肩膀

 360官方技术公众号 

技术干货|一手资讯|精彩活动

空·

这篇关于文本反垃圾在花椒直播中的应用概述的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/471179

相关文章

PostgreSQL的扩展dict_int应用案例解析

《PostgreSQL的扩展dict_int应用案例解析》dict_int扩展为PostgreSQL提供了专业的整数文本处理能力,特别适合需要精确处理数字内容的搜索场景,本文给大家介绍PostgreS... 目录PostgreSQL的扩展dict_int一、扩展概述二、核心功能三、安装与启用四、字典配置方法

Python中re模块结合正则表达式的实际应用案例

《Python中re模块结合正则表达式的实际应用案例》Python中的re模块是用于处理正则表达式的强大工具,正则表达式是一种用来匹配字符串的模式,它可以在文本中搜索和匹配特定的字符串模式,这篇文章主... 目录前言re模块常用函数一、查看文本中是否包含 A 或 B 字符串二、替换多个关键词为统一格式三、提

Java MQTT实战应用

《JavaMQTT实战应用》本文详解MQTT协议,涵盖其发布/订阅机制、低功耗高效特性、三种服务质量等级(QoS0/1/2),以及客户端、代理、主题的核心概念,最后提供Linux部署教程、Sprin... 目录一、MQTT协议二、MQTT优点三、三种服务质量等级四、客户端、代理、主题1. 客户端(Clien

Python中图片与PDF识别文本(OCR)的全面指南

《Python中图片与PDF识别文本(OCR)的全面指南》在数据爆炸时代,80%的企业数据以非结构化形式存在,其中PDF和图像是最主要的载体,本文将深入探索Python中OCR技术如何将这些数字纸张转... 目录一、OCR技术核心原理二、python图像识别四大工具库1. Pytesseract - 经典O

CSS中的Static、Relative、Absolute、Fixed、Sticky的应用与详细对比

《CSS中的Static、Relative、Absolute、Fixed、Sticky的应用与详细对比》CSS中的position属性用于控制元素的定位方式,不同的定位方式会影响元素在页面中的布... css 中的 position 属性用于控制元素的定位方式,不同的定位方式会影响元素在页面中的布局和层叠关

SpringBoot3应用中集成和使用Spring Retry的实践记录

《SpringBoot3应用中集成和使用SpringRetry的实践记录》SpringRetry为SpringBoot3提供重试机制,支持注解和编程式两种方式,可配置重试策略与监听器,适用于临时性故... 目录1. 简介2. 环境准备3. 使用方式3.1 注解方式 基础使用自定义重试策略失败恢复机制注意事项

苹果macOS 26 Tahoe主题功能大升级:可定制图标/高亮文本/文件夹颜色

《苹果macOS26Tahoe主题功能大升级:可定制图标/高亮文本/文件夹颜色》在整体系统设计方面,macOS26采用了全新的玻璃质感视觉风格,应用于Dock栏、应用图标以及桌面小部件等多个界面... 科技媒体 MACRumors 昨日(6 月 13 日)发布博文,报道称在 macOS 26 Tahoe 中

Python实现精准提取 PDF中的文本,表格与图片

《Python实现精准提取PDF中的文本,表格与图片》在实际的系统开发中,处理PDF文件不仅限于读取整页文本,还有提取文档中的表格数据,图片或特定区域的内容,下面我们来看看如何使用Python实... 目录安装 python 库提取 PDF 文本内容:获取整页文本与指定区域内容获取页面上的所有文本内容获取

Python使用Tkinter打造一个完整的桌面应用

《Python使用Tkinter打造一个完整的桌面应用》在Python生态中,Tkinter就像一把瑞士军刀,它没有花哨的特效,却能快速搭建出实用的图形界面,作为Python自带的标准库,无需安装即可... 目录一、界面搭建:像搭积木一样组合控件二、菜单系统:给应用装上“控制中枢”三、事件驱动:让界面“活”

详解如何使用Python从零开始构建文本统计模型

《详解如何使用Python从零开始构建文本统计模型》在自然语言处理领域,词汇表构建是文本预处理的关键环节,本文通过Python代码实践,演示如何从原始文本中提取多尺度特征,并通过动态调整机制构建更精确... 目录一、项目背景与核心思想二、核心代码解析1. 数据加载与预处理2. 多尺度字符统计3. 统计结果可