如何使用IDEA加载已有Spark项目

2024-08-22 09:18

本文主要是介绍如何使用IDEA加载已有Spark项目,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

背景是这样的:手上有一个学长之前实现的Spark项目,使用到了GraphX,并且用的Scala编写,现在需要再次运行这个项目,但如果直接在IDEA中打开项目,则由于各种错误会导致运行失败,这里就记录一下该如何使用IDEA来加载老旧的Spark项目。
注意:默认你的机器已有Scala环境,项目使用IDEA打开,对Sbt不做要求,因为这里采用的是NoSbt方式添加依赖的。

确定项目的版本环境

这一步是非常重要的,很多情况下就是由于版本的不匹配导致代码解析出现错误,主要的环境版本包括:

  • Java Version 1.8 必须
  • scala-sdk-x.xx.x
  • spark-assembly-x.x.x-hadoop.x.x.jar //注意这是在No-sbt模式下必须的,这个包很大,大概170M,导入后不用再添加其他依赖即可对Spark程序进行本地(Local)运行,其已包括GraphX模块。
Java的版本

这里由于要是用Scala所以必须使用 Version 1.8+,关于如何修改版本这里不赘述。

Scala的版本

这里可以通过右键项目名称,进入项目设置页面具体查看原项目使用的版本:

alt

alt

之后可以添加相应的Scala版本支持,比如假设这里需要 2.10.4 那么直接勾选即可,但是如果本机没有对应的版本,那么可以点击下方的New Liberay选择Scala SDK,进入如下页面:

alt

在上述页面中你可以选择更多版本的Scala环境,如果还是没有你需要的版本,那么点击下方的Download按钮,可以进一步选择你需要的版本(涵盖所有版本),这是在线下载的操作,所以可能时间会非常慢,非常慢!

Spark-assembly的版本

关于这个地方要特别注意版本的对应,老项目里有代码用到了 GraphX中 图的 mapReduceTriplets ,这应该在Spark-2.x.x以后被取消了,所以如果下次再在网上看到使用mapReduceTriplets的代码,复制到本地却无法识别时,不要慌张,那是他们使用了老版本的Spark-GraphX。
在这里,原项目使用的是 spark-assembly-1.4.1-hadoop2.6.0.jar 但是这个jar包早就不在项目文件中了,然后在网上也没有搜到完全匹配的Jar包,但上文已说到,找个spark-1.x 版本的即可,所以在网上找了一个 spark-assembly-1.5.1-hadoop2.6.0.jar,同样在 上图 中的右侧点击加号后选择JARS or direct..添加到项目依赖中即可。

确定项目代码的运行环境

在上一部分中对原项目的项目的所需依赖的版本进行了更正对应之后,可以发现原先满屏飘红的代码已经没有错误了,即这时IDEA已经具有了对于代码的完全的解析能力,这时我们写代码调方法都可以自动补全等等。

虽然代码无措,但是直接运行仍然是出不来结果的,因为原项目的代码有原来的运行环境,可能是集群环境或其他,另外,源代码的执行也有可能需要传入若干参数,贸然运行当然就不会得到预期结果。

这部分的修改要具体情况具体分析,但大致都有以下几步:

  • 查看Main函数的传入参数,如果带参数的,要明确参数的具体意义,一个是参数类型,一个是参数意义。比如迭代次数,或是文件路径。如果偷懒,可以去掉传入参数,直接对相应变量赋值,这样就可以在IDE中直接运行调试了。
//诸如下面赋值内容要搞清楚具体意义
if(args.length!=5){
printf("Please input right parameters <vertex path> <edges path> <output path> <deep> <time> ")
return
}
//可以直接对变量赋值,而不用输入参数args(x)
val time=args(4).toInt
val vertexPath=args(0)
val edgesPath=args(1)
val outputPath=args(2)
val deep:Int=args(3).toInt
  • 集群运行还是本地运行,这里比较好改:
val conf = new SparkConf().setAppName("Proj_SIG") 
//如果是简单调试,直接改为本地运行即可
val conf = new SparkConf().setAppName("Proj_SIG").setMaster("local")

可能需要的Hadoop支持

如果出现错误:Failed to locate the winutils binary in the hadoop binary path 那么说明当前IDEA环境缺失hadoop的支持。

解决方案:

首先我们需要明白,hadoop只能运行在linux环境下,如果我们在windows下用idea开发spark的时候底层比方说文件系统这些方面调用hadoop的时候是没法调用的,这也就是为什么会提示这样的错误。
当我们有这样的错误的时候,其实还是可以使用spark计算框架的,不过当我们使用saveAsTextFile的时候会提示错误,这是因为spark使用了hadoop上hdfs那一段的程序,而我们windows环境下没有hadoop,怎么办?
第一步: 官网下载相应版本的hadoop。
第二步:解压到你想要安装的任何路径,解压过程会提示出现错误,不去管他,这是因为linux文件不支持windows。
第三步:设置环境变量,在系统变量中添加HADOOP_HOME,指向你解压的文件路径。然后再path中添加 %HADOOP_HOME%bin和%HADOOP_HOME%sbin
第四步:找一找可以使用的重新编译的winutils兼容工具插件包,这个可以在这里下载:
第五步:下载完以后在我们hadoop文件夹中替换下载包中的两个目录。

回到idea会发现bug完美解决。

上述几步修改完成后,原先的代码基本就可以跑起来了,再次强调这里使用了NoSBT的模式,手动添加了一个assembly包,再就是对应Scala-SDK的版本,最后对代码内容上进行部分改动,使其可以在本地单机进行调试运行。



😒 留下您对该文章的评价 😄


这篇关于如何使用IDEA加载已有Spark项目的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1095858

相关文章

Java中流式并行操作parallelStream的原理和使用方法

《Java中流式并行操作parallelStream的原理和使用方法》本文详细介绍了Java中的并行流(parallelStream)的原理、正确使用方法以及在实际业务中的应用案例,并指出在使用并行流... 目录Java中流式并行操作parallelStream0. 问题的产生1. 什么是parallelS

Linux join命令的使用及说明

《Linuxjoin命令的使用及说明》`join`命令用于在Linux中按字段将两个文件进行连接,类似于SQL的JOIN,它需要两个文件按用于匹配的字段排序,并且第一个文件的换行符必须是LF,`jo... 目录一. 基本语法二. 数据准备三. 指定文件的连接key四.-a输出指定文件的所有行五.-o指定输出

Linux jq命令的使用解读

《Linuxjq命令的使用解读》jq是一个强大的命令行工具,用于处理JSON数据,它可以用来查看、过滤、修改、格式化JSON数据,通过使用各种选项和过滤器,可以实现复杂的JSON处理任务... 目录一. 简介二. 选项2.1.2.2-c2.3-r2.4-R三. 字段提取3.1 普通字段3.2 数组字段四.

Linux kill正在执行的后台任务 kill进程组使用详解

《Linuxkill正在执行的后台任务kill进程组使用详解》文章介绍了两个脚本的功能和区别,以及执行这些脚本时遇到的进程管理问题,通过查看进程树、使用`kill`命令和`lsof`命令,分析了子... 目录零. 用到的命令一. 待执行的脚本二. 执行含子进程的脚本,并kill2.1 进程查看2.2 遇到的

详解SpringBoot+Ehcache使用示例

《详解SpringBoot+Ehcache使用示例》本文介绍了SpringBoot中配置Ehcache、自定义get/set方式,并实际使用缓存的过程,文中通过示例代码介绍的非常详细,对大家的学习或者... 目录摘要概念内存与磁盘持久化存储:配置灵活性:编码示例引入依赖:配置ehcache.XML文件:配置

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

k8s按需创建PV和使用PVC详解

《k8s按需创建PV和使用PVC详解》Kubernetes中,PV和PVC用于管理持久存储,StorageClass实现动态PV分配,PVC声明存储需求并绑定PV,通过kubectl验证状态,注意回收... 目录1.按需创建 PV(使用 StorageClass)创建 StorageClass2.创建 PV

vite搭建vue3项目的搭建步骤

《vite搭建vue3项目的搭建步骤》本文主要介绍了vite搭建vue3项目的搭建步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学... 目录1.确保Nodejs环境2.使用vite-cli工具3.进入项目安装依赖1.确保Nodejs环境

IDEA和GIT关于文件中LF和CRLF问题及解决

《IDEA和GIT关于文件中LF和CRLF问题及解决》文章总结:因IDEA默认使用CRLF换行符导致Shell脚本在Linux运行报错,需在编辑器和Git中统一为LF,通过调整Git的core.aut... 目录问题描述问题思考解决过程总结问题描述项目软件安装shell脚本上git仓库管理,但拉取后,上l

Redis 基本数据类型和使用详解

《Redis基本数据类型和使用详解》String是Redis最基本的数据类型,一个键对应一个值,它的功能十分强大,可以存储字符串、整数、浮点数等多种数据格式,本文给大家介绍Redis基本数据类型和... 目录一、Redis 入门介绍二、Redis 的五大基本数据类型2.1 String 类型2.2 Hash