使用Python+jieba和java+庖丁分词在Spark集群上进行中文分词统计

2023-12-13 09:32

本文主要是介绍使用Python+jieba和java+庖丁分词在Spark集群上进行中文分词统计,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

写在前边的话:

        本篇博客也是在做豆瓣电影数据的分析过程中,需要对影评信息和剧情摘要信息进行分析而写的一篇博客

        以前学习Hadoop时,感觉做中文分词也没那么麻烦,但是到了Spark,却碰到了诸多困难,但幸好最终都解决了这些问题,而得到了正确的结果,这里我们不解释具体的spark语法之类的,着重于解决中文分词统计这个问题

        同步github地址:点击查看


1:Python+jieba

      使用Python版本的spark,首先想到的便是jieba分词,这里结合python的jieba分词和Spark对文件内容进行分词和词频统计,使用的样例数据依旧豆瓣电影的影评数据,这里只是采用了大鱼海棠的影评信息进行分词。

      数据样例的格式如下:

26051523        根据真实事件改编,影片聚焦1973年智利政变时期,一对年轻的德国夫妇丹尼尔与莱娜反抗智利军政府统领、独裁者皮诺切特的故事。当时正值智利政变的高潮期,丹尼尔被皮诺切特的手下绑架到一个被称为“尊严殖民地”的秘密基地。那儿正是前德国纳粹分子逃亡智利所建的聚集地,而军政府武装进行着大量的刑讯工作与秘密人体实验,被绑架的人从来没有一个曾活着逃出“殖民地”。然而丹尼尔的妻子莱娜没有放弃,她找到了基地所在,并计划救出丈夫。

     需要注意的是:如果去掉下面函数中的combine函数,则正常保存统计结果,显示的形式大致是这样的

     

     而这里的combine函数就是为了解决这个问题,最终的统计结果为

     

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <span style="font-family:Microsoft YaHei;font-size:14px;">#-*-coding:utf-8-*-  
  2. from pyspark import SparkConf, SparkContext  
  3.   
  4. import jieba  
  5.   
  6. def split(line):  
  7.     word_list = jieba.cut(line.strip().split("\t")[1])  #进行中文分词  
  8.     ls =[]  
  9.     for word in word_list:  
  10.         if len(word)>1:      #过滤掉单音节词  
  11.             ls.append(word)  
  12.     return ls  
  13.   
  14. def combine(line):        #去除保存结果中的括号和解=解决中文编码显示的问题  
  15.     result = ""  
  16.     result +=line[0]+"\t"+str(line[1])   #让数字在前,方便统计  
  17.     return result  
  18.   
  19. def main(sc):  
  20.     text = sc.textFile("/file/douban_movie_data/movie_summary.txt")  
  21.     word_list = text.map(split).collect() #保存为列表  
  22.     count = sc.parallelize(word_list[0]) #返回列表中的第一个元素  
  23.     results = count.map(lambda w:(w,1)).reduceByKey(lambda x,y:x+y).map(combine).sortByKey().saveAsTextFile("/file/douban_movie_data/result")  
  24.     print "succeed"  
  25.   
  26. if __name__=="__main__":  
  27.     conf = SparkConf().setAppName("wordSplit")  
  28.     conf.setMaster("local")  
  29.     scSparkContext(conf = conf)  
  30.     main(sc)</span>  


2:Java+Scala+庖丁分词

       网上搜了一遍,有使用ansj分词的,但是瞄了一遍,不懂,于是还是回归到了庖丁分词,整体的程序分为两部分,一个是Java+庖丁分词程序,一个是Scala提交spark的统计程序,具体代码和解释如下

       至于如何使用Idea+Spark构建开发环境请移步:点击阅读

       庖丁分词等中文分词比较请移步:点击阅读

          这里需要注意的是:庖丁分词的字典库的配置问题(下图红线所示),正常情况下,程序打成jar包在spark集群上运行会报出各种错误,但主要是两个方面,一个是spark集群的内存问题(我用的是自己电脑的虚拟机,视具体配置而定),二是字典库的路径问题,我这里是把dic放在集群上每台机器的一个指定的相同的目录,同时把jar包在放在集群上的每台机器上

            

tokens.java

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <span style="font-family:Microsoft YaHei;font-size:14px;">import java.io.IOException;  
  2. import java.io.StringReader;  
  3. import java.util.ArrayList;  
  4. import java.util.List;  
  5.   
  6. import net.paoding.analysis.analyzer.PaodingAnalyzer;  
  7.   
  8. import org.apache.lucene.analysis.Analyzer;  
  9. import org.apache.lucene.analysis.Token;  
  10. import org.apache.lucene.analysis.TokenStream;  
  11.   
  12. public class tokens {  
  13.     public static List<String> anaylyzerWords (String str){  
  14.         // TODO Auto-generated method stub  
  15.         //定义一个解析器    
  16.         Analyzer analyzer = new PaodingAnalyzer();  
  17.         //定义一个存放存词的列表  
  18.         List<String> list=new ArrayList<String>();  
  19.         //得到token序列的输出流  
  20.         TokenStream tokens = analyzer.tokenStream(str, new StringReader(str));  
  21.         try{  
  22.             Token t;  
  23.             while((t=tokens.next() ) !=null){  
  24.                 list.add(t.termText());  
  25.             }  
  26.         }catch(IOException e){  
  27.             e.printStackTrace();  
  28.         }  
  29.         return list;  
  30.     }  
  31.   
  32.     public static void main(String[] args){  
  33.         String text = "本思想就是在分词的同时进行句法、语义分析, 利用句法信息和语义信息来进行词性标注, " +  
  34.                 "以解决分词歧义现象。因为现有的语法知识、句法规则十分笼统、复杂, 基于语法和规则的分词" +  
  35.                 "法所能达到的精确度远远还不能令人满意, 目前这种分词系统还处在试验阶段。";  
  36.         List<String> list=tokens.anaylyzerWords(text);  
  37.         for(String s:list){  
  38.             System.out.println(s);  
  39.         }  
  40.   
  41.     }  
  42. }  </span>  


Analyzer.scala
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <span style="font-family:Microsoft YaHei;font-size:14px;">import org.apache.spark._  
  2. /**  
  3.   * Created by gaoyt on 2016/8/11.  
  4.   */  
  5. object Analyzer {  
  6.   def main(args: Array[String]): Unit = {  
  7.     val conf = new SparkConf().setAppName("my app").setMaster("spark://192.168.48.130:7077")  
  8.     val sc = new SparkContext(conf)  
  9.     val outputPath = "/file/douban_movie_data/summary"  
  10.     sc.addJar("/home/master/SparkApp/WordAnalyzer.jar")  
  11.     sc.textFile("/file/douban_movie_data/movie_summary.txt").map(x => {  
  12.       val list=tokens.anaylyzerWords(x)  
  13.       list.toString.replace("[", "").replace("]", "").split(",")  
  14.     }).flatMap(x => x.toList).map(x => (x.trim(),1)).reduceByKey(_+_).saveAsTextFile(outputPath)  
  15.   
  16.   }  
  17. }</span>  

最终的运行结果如下:


执行查看命令

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <span style="font-family:Microsoft YaHei;font-size:14px;">/opt/hadoop/bin/hdfs dfs -cat /file/douban_movie_data/summary/part-00001</span>  

这篇关于使用Python+jieba和java+庖丁分词在Spark集群上进行中文分词统计的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/487955

相关文章

Spring事务传播机制最佳实践

《Spring事务传播机制最佳实践》Spring的事务传播机制为我们提供了优雅的解决方案,本文将带您深入理解这一机制,掌握不同场景下的最佳实践,感兴趣的朋友一起看看吧... 目录1. 什么是事务传播行为2. Spring支持的七种事务传播行为2.1 REQUIRED(默认)2.2 SUPPORTS2

Python函数作用域示例详解

《Python函数作用域示例详解》本文介绍了Python中的LEGB作用域规则,详细解析了变量查找的四个层级,通过具体代码示例,展示了各层级的变量访问规则和特性,对python函数作用域相关知识感兴趣... 目录一、LEGB 规则二、作用域实例2.1 局部作用域(Local)2.2 闭包作用域(Enclos

怎样通过分析GC日志来定位Java进程的内存问题

《怎样通过分析GC日志来定位Java进程的内存问题》:本文主要介绍怎样通过分析GC日志来定位Java进程的内存问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、GC 日志基础配置1. 启用详细 GC 日志2. 不同收集器的日志格式二、关键指标与分析维度1.

Java进程异常故障定位及排查过程

《Java进程异常故障定位及排查过程》:本文主要介绍Java进程异常故障定位及排查过程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、故障发现与初步判断1. 监控系统告警2. 日志初步分析二、核心排查工具与步骤1. 进程状态检查2. CPU 飙升问题3. 内存

Linux中压缩、网络传输与系统监控工具的使用完整指南

《Linux中压缩、网络传输与系统监控工具的使用完整指南》在Linux系统管理中,压缩与传输工具是数据备份和远程协作的桥梁,而系统监控工具则是保障服务器稳定运行的眼睛,下面小编就来和大家详细介绍一下它... 目录引言一、压缩与解压:数据存储与传输的优化核心1. zip/unzip:通用压缩格式的便捷操作2.

Python实现对阿里云OSS对象存储的操作详解

《Python实现对阿里云OSS对象存储的操作详解》这篇文章主要为大家详细介绍了Python实现对阿里云OSS对象存储的操作相关知识,包括连接,上传,下载,列举等功能,感兴趣的小伙伴可以了解下... 目录一、直接使用代码二、详细使用1. 环境准备2. 初始化配置3. bucket配置创建4. 文件上传到os

java中新生代和老生代的关系说明

《java中新生代和老生代的关系说明》:本文主要介绍java中新生代和老生代的关系说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、内存区域划分新生代老年代二、对象生命周期与晋升流程三、新生代与老年代的协作机制1. 跨代引用处理2. 动态年龄判定3. 空间分

Java设计模式---迭代器模式(Iterator)解读

《Java设计模式---迭代器模式(Iterator)解读》:本文主要介绍Java设计模式---迭代器模式(Iterator),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,... 目录1、迭代器(Iterator)1.1、结构1.2、常用方法1.3、本质1、解耦集合与遍历逻辑2、统一

Java内存分配与JVM参数详解(推荐)

《Java内存分配与JVM参数详解(推荐)》本文详解JVM内存结构与参数调整,涵盖堆分代、元空间、GC选择及优化策略,帮助开发者提升性能、避免内存泄漏,本文给大家介绍Java内存分配与JVM参数详解,... 目录引言JVM内存结构JVM参数概述堆内存分配年轻代与老年代调整堆内存大小调整年轻代与老年代比例元空

深度解析Java DTO(最新推荐)

《深度解析JavaDTO(最新推荐)》DTO(DataTransferObject)是一种用于在不同层(如Controller层、Service层)之间传输数据的对象设计模式,其核心目的是封装数据,... 目录一、什么是DTO?DTO的核心特点:二、为什么需要DTO?(对比Entity)三、实际应用场景解析