spark job server on Spark1.6.0-CDH5.11.0初步使用

2023-12-30 02:08

本文主要是介绍spark job server on Spark1.6.0-CDH5.11.0初步使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  1. 下载spark job server(sjs)
    因为下载的是与cdh版本匹配的sjs源码,所以需要在以下连接下载相关版本。
    https://github.com/bjoernlohrmann/spark-jobserver
  2. 这次安装使用 yarn模式运行的sjs,具体的安装参照github英文版,参考如下
    https://github.com/spark-jobserver/spark-jobserver
    first of all
    进入sjs源码目录的job-server,修改config目录下的参数。复制local.sh.template为local.sh,以及复制local.conf.template为local.conf。修改local.sh,如下。
 # Environment and deploy file
# For use with bin/server_deploy, bin/server_package etc.
DEPLOY_HOSTS="masterslave1slave2"
APP_USER=root
APP_GROUP=root
# optional SSH Key to login to deploy server
#SSH_KEY=/path/to/keyfile.pem
INSTALL_DIR=/usr/local/jsstart
LOG_DIR=/var/log/job-server
PIDFILE=spark-jobserver.pid
JOBSERVER_MEMORY=1G
SPARK_VERSION=1.6.0-cdh5.11.0
MAX_DIRECT_MEMORY=1G
SPARK_HOME=/opt/cloudera/parcels/CDH/lib/spark
SPARK_CONF_DIR=$SPARK_HOME/conf
# Only needed for Mesos deploys
#SPARK_EXECUTOR_URI=/home/spark/spark-1.5.0.tar.gz
# Only needed for YARN running outside of the cluster
# You will need to COPY these files from your cluster to the remote machine
# Normally these are kept on the cluster in /etc/hadoop/conf
YARN_CONF_DIR=/opt/cloudera/parcels/CDH/lib/hadoop/etc/hadoop
HADOOP_CONF_DIR=/opt/cloudera/parcels/CDH/lib/hadoop/etc/hadoop
#
# Also optional: extra JVM args for spark-submit
# export SPARK_SUBMIT_OPTS+="-agentlib:jdwp=transport=dt_socket,server=y,suspend=n,address=5433"
SCALA_VERSION=2.10.6

修改的local.conf如下:主要将local模式注释掉,保留yarn-client模式

# spark.master will be passed to each job's JobContext
#  master = "local[4]"
# master = "mesos://vm28-hulk-pub:5050"master = "yarn-client"

需要将local.sh复制到sjs目录下的bin目录下面,local.conf需要复制到local.sh中设置的INSTALL_DIR=/usr/local/jsstart的目录下
second:编辑好配置文件,检查无误,在sjs的bin目录下
./server_deploy.sh local
这个local是对应刚刚配置的local.sh,local.conf,自此在INSTALL_DIR=/usr/local/jsstart目录下面就会生成文件,有如下:
这里写图片描述
third:启动
./server_start.sh
检测成功与否:jps查看是否有一个sparksubmit进程,然后在web ui窗口是否起来
fourth:跑测试用例
首先对测试用例进行编译,很简单,只需要进入sbt目录
sbt job-server-tests/package
最后会在job-server-tests的目录下找到测试用例的jar包,进而上传
curl –data-binary @job-server-tests_2.10-0.6.2-KNIME_cdh-5.11.jar 192.168.77.154:8090/jars/test
跑sparkPi的实例
curl -d “input.string = hello job server” ‘192.168.77.151:8090/jobs?appName=test&classPath=spark.jobserver.WordCountExample’
查看job结果
curl -v 192.168.77.154:8090/jobs/a606d18d-5962-4602-814b-73e6dd116e8d
结果也可以在8090端口查看,可以看到在yarn上面就有这么一个job
这里写图片描述
至此,安装测试完毕,进一步了解使用,编码。

这篇关于spark job server on Spark1.6.0-CDH5.11.0初步使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/551393

相关文章

Conda与Python venv虚拟环境的区别与使用方法详解

《Conda与Pythonvenv虚拟环境的区别与使用方法详解》随着Python社区的成长,虚拟环境的概念和技术也在不断发展,:本文主要介绍Conda与Pythonvenv虚拟环境的区别与使用... 目录前言一、Conda 与 python venv 的核心区别1. Conda 的特点2. Python v

Spring Boot中WebSocket常用使用方法详解

《SpringBoot中WebSocket常用使用方法详解》本文从WebSocket的基础概念出发,详细介绍了SpringBoot集成WebSocket的步骤,并重点讲解了常用的使用方法,包括简单消... 目录一、WebSocket基础概念1.1 什么是WebSocket1.2 WebSocket与HTTP

C#中Guid类使用小结

《C#中Guid类使用小结》本文主要介绍了C#中Guid类用于生成和操作128位的唯一标识符,用于数据库主键及分布式系统,支持通过NewGuid、Parse等方法生成,感兴趣的可以了解一下... 目录前言一、什么是 Guid二、生成 Guid1. 使用 Guid.NewGuid() 方法2. 从字符串创建

Python使用python-can实现合并BLF文件

《Python使用python-can实现合并BLF文件》python-can库是Python生态中专注于CAN总线通信与数据处理的强大工具,本文将使用python-can为BLF文件合并提供高效灵活... 目录一、python-can 库:CAN 数据处理的利器二、BLF 文件合并核心代码解析1. 基础合

Python使用OpenCV实现获取视频时长的小工具

《Python使用OpenCV实现获取视频时长的小工具》在处理视频数据时,获取视频的时长是一项常见且基础的需求,本文将详细介绍如何使用Python和OpenCV获取视频时长,并对每一行代码进行深入解析... 目录一、代码实现二、代码解析1. 导入 OpenCV 库2. 定义获取视频时长的函数3. 打开视频文

SQL Server配置管理器无法打开的四种解决方法

《SQLServer配置管理器无法打开的四种解决方法》本文总结了SQLServer配置管理器无法打开的四种解决方法,文中通过图文示例介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的... 目录方法一:桌面图标进入方法二:运行窗口进入检查版本号对照表php方法三:查找文件路径方法四:检查 S

Spring IoC 容器的使用详解(最新整理)

《SpringIoC容器的使用详解(最新整理)》文章介绍了Spring框架中的应用分层思想与IoC容器原理,通过分层解耦业务逻辑、数据访问等模块,IoC容器利用@Component注解管理Bean... 目录1. 应用分层2. IoC 的介绍3. IoC 容器的使用3.1. bean 的存储3.2. 方法注

Python内置函数之classmethod函数使用详解

《Python内置函数之classmethod函数使用详解》:本文主要介绍Python内置函数之classmethod函数使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录1. 类方法定义与基本语法2. 类方法 vs 实例方法 vs 静态方法3. 核心特性与用法(1编程客

Linux中压缩、网络传输与系统监控工具的使用完整指南

《Linux中压缩、网络传输与系统监控工具的使用完整指南》在Linux系统管理中,压缩与传输工具是数据备份和远程协作的桥梁,而系统监控工具则是保障服务器稳定运行的眼睛,下面小编就来和大家详细介绍一下它... 目录引言一、压缩与解压:数据存储与传输的优化核心1. zip/unzip:通用压缩格式的便捷操作2.

使用Python实现可恢复式多线程下载器

《使用Python实现可恢复式多线程下载器》在数字时代,大文件下载已成为日常操作,本文将手把手教你用Python打造专业级下载器,实现断点续传,多线程加速,速度限制等功能,感兴趣的小伙伴可以了解下... 目录一、智能续传:从崩溃边缘抢救进度二、多线程加速:榨干网络带宽三、速度控制:做网络的好邻居四、终端交互