jobserver 具体参数设置

2024-05-07 15:32

本文主要是介绍jobserver 具体参数设置,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Job Server概述

Spark-jobserver 提供了一个 RESTful 接口来提交和管理 spark 的 jobs、jars 和 job contexts。此项目包含了完整的 Spark job server 的项目,包括单元测试和项目部署脚本。
“Spark as Service”:针对 job 和 contexts 的各个方面提供了 REST 风格的 api 接口进行管理

  • 支持 SparkSQL、Hive、Streaming Contexts/jobs 以及定制 job contexts
  • 通过集成 Apache Shiro 来支持 LDAP 权限验证
  • 支持亚秒级别低延迟的任务通过长期运行的 job contexts
  • 可以通过结束 context 来停止运行的作业(job)
  • 分割 jar 上传步骤以提高 job 的启动
  • 异步和同步的 job API,其中同步 API 对低延时作业非常有效
  • 支持 Standalone Spark 和 Mesos、yarn
  • Job 和 jar 信息通过一个可插拔的 DAO 接口来持久化
  • 命名 RDD 以缓存,并可以通过该名称获取 RDD。这样可以提高作业间 RDD 的共享和重用
  • 支持 Scala 2.10 版本和 2.11 版本
    git地址: git@github.com:spark-jobserver/spark-jobserver.git

编译、打包、部署

从github中clone此项目的代码,此处选择jobserver-0.6.2-spark-1.6.1版本分支。
首先根据目标平台来创建相应的配置文件:
$JOBSERVER_HOME/config目录下已存在一些配置模板,可以复用这些模板并对其中的配置项做相应的调整。
在conf目录下创建datacloud.conf及datacloud.sh文件,修改其中的配置项。

$JOBSERVER_HOME/bin/server_package datacloud //编译打包
打包成功后,拷贝出job-server.tar.gz到目标运行平台,应该部署安装spark的服务器环境中。

启动、停止服务

$JOBSERVER_HOME/bin/server_start 启动服务,默认监听端口为8090,可在启动前修改datacloud.conf进行配置。
$JOBSERVER_HOME/bin/server_stop停止服务,注意服务停止后,常驻context将停止运行,因此,重启jobserver需要重新创建常驻context。

定制job Project

添加依赖:

resolvers += "Job Server Bintray" at "https://dl.bintray.com/spark-jobserver/maven"
libraryDependencies += "spark.jobserver" %% "job-server-api" % "0.6.2" % "provided"
libraryDependencies += "spark.jobserver" %% "job-server-extras" % "0.6.2" % "provided"

通过job server来提交的job,必须实现SparkJob相关的接口,这是jobserver复用context机制的前提:

object SampleJob  extends SparkJob {override def runJob(sc:SparkContext, jobConfig: Config): Any = ???override def validate(sc:SparkContext, config: Config): SparkJobValidation = ???
}

runJob定义一个job的具体实现逻辑。
validate在job执行之前做参数进行验证,验证通过后才会调用runjob方法。

Context管理

GET /contexts - 列出当前所有context
POST /contexts/<name> - 创建context
DELETE /contexts/<name> - 停止一个context,并且停止所有在其运行的作业。
PUT /contexts?reset=reboot - 删除所有context,并且从配置中重新重建context。

POST创建context时,可以对context资源进行配置:
dependent-jar-uris=file:///path/a.jar,file:///path/b.jar 此参数用以对依赖jar包进行配置
num-cpu-cores=10 配置cpu资源
memory-per-node=512m 配置内存资源
上述配置会覆盖datacloud.conf相同的配置项,可配置项可参考job-server/src/main/resources/application.conf

Job管理

GET /jobs - 列出所有job,以及job执行状态,包括等待中、运行中、已完成
POST /jobs - 启动新作业,参数?sync=true标志同步等待作业计算结果
GET /jobs/<jobId> - 获取指定job的执行状态和结果
DELETE /jobs/<jobId> - kill特定job
GET /jobs/<jobId>/config - 获取job相关的配置信息

Job Server使用

临时异步方式提交作业

此方式会临时创建context,作业执行完成后,context被删除。

curl -d "input.string = a b c a b see" '172.16.31.63:8092/jobs?appName=test&classPath=spark.jobserver.WordCountExample
{"status": "STARTED","result": {"jobId": "5453779a-f004-45fc-a11d-a39dae0f9bf4","context": "b7ea0eb5-spark.jobserver.WordCountExample"}
}

因为是异步方式提交作业,需要主动检查作业的执行结果:

curl localhost:8090/jobs/5453779a-f004-45fc-a11d-a39dae0f9bf4
{"duration": "6.341 secs","classPath": "spark.jobserver.WordCountExample","startTime": "2015-10-16T03:17:03.127Z","context": "b7ea0eb5-spark.jobserver.WordCountExample","result": {"a": 2,"b": 2,"c": 1,"see": 1},"status": "FINISHED","jobId": "5453779a-f004-45fc-a11d-a39dae0f9bf4"
}

临时同步方式提交作业

添加sync参数,值为true

curl -d "input.string = a b c a b see" '172.16.31.63:8092/jobs?appName=test&classPath=spark.jobserver.WordCountExample&sync=true'

请求的response中将包含计算结果数据

{"result": {"b": 2,"a": 2,"see": 1,"c": 1}
}

常驻context同步方式提交作业

首先创建一个常驻context

curl -d "" '172.16.31.63:8092/contexts/test-context?num-cpu-cores=4&memory-per-node=512m'

基于此context来创建一个job

curl -d "input.string = a b c a b see" '172.16.31.63:8092/jobs?appName=test&classPath=spark.jobserver.WordCountExample&context=test-context&sync=true'

常驻Context集群已为其分配资源,并且会一直处于运行状态,提交作业时,将会复用此Context进行计算。
如果Jobserver服务进行重启,之前的Context将会终止,其占用资源将被释放。

这篇关于jobserver 具体参数设置的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/967747

相关文章

MySQL分区表的具体使用

《MySQL分区表的具体使用》MySQL分区表通过规则将数据分至不同物理存储,提升管理与查询效率,本文主要介绍了MySQL分区表的具体使用,具有一定的参考价值,感兴趣的可以了解一下... 目录一、分区的类型1. Range partition(范围分区)2. List partition(列表分区)3. H

Java Multimap实现类与操作的具体示例

《JavaMultimap实现类与操作的具体示例》Multimap出现在Google的Guava库中,它为Java提供了更加灵活的集合操作,:本文主要介绍JavaMultimap实现类与操作的... 目录一、Multimap 概述Multimap 主要特点:二、Multimap 实现类1. ListMult

golang中slice扩容的具体实现

《golang中slice扩容的具体实现》Go语言中的切片扩容机制是Go运行时的一个关键部分,它确保切片在动态增加元素时能够高效地管理内存,本文主要介绍了golang中slice扩容的具体实现,感兴趣... 目录1. 切片扩容的触发append 函数的实现2. runtime.growslice 函数gro

Golang interface{}的具体使用

《Golanginterface{}的具体使用》interface{}是Go中可以表示任意类型的空接口,本文主要介绍了Golanginterface{}的具体使用,具有一定的参考价值,感兴趣的可以了... 目录一、什么是 interface{}?定义形China编程式:二、interface{} 有什么特别的?✅

Qt之QMessageBox的具体使用

《Qt之QMessageBox的具体使用》本文介绍Qt中QMessageBox类的使用,用于弹出提示、警告、错误等模态对话框,具有一定的参考价值,感兴趣的可以了解一下... 目录1.引言2.简单介绍3.常见函数4.按钮类型(QMessage::StandardButton)5.分步骤实现弹窗6.总结1.引言

PyQt5 QDate类的具体使用

《PyQt5QDate类的具体使用》QDate是PyQt5中处理日期的核心类,本文主要介绍了PyQt5QDate类的具体使用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价... 目录核心功能常用方法及代码示例​1. 创建日期对象​2. 获取日期信息​3. 日期计算与比较​4. 日

SQL Server中的PIVOT与UNPIVOT用法具体示例详解

《SQLServer中的PIVOT与UNPIVOT用法具体示例详解》这篇文章主要给大家介绍了关于SQLServer中的PIVOT与UNPIVOT用法的具体示例,SQLServer中PIVOT和U... 目录引言一、PIVOT:将行转换为列核心作用语法结构实战示例二、UNPIVOT:将列编程转换为行核心作用语

Pandas透视表(Pivot Table)的具体使用

《Pandas透视表(PivotTable)的具体使用》透视表用于在数据分析和处理过程中进行数据重塑和汇总,本文就来介绍一下Pandas透视表(PivotTable)的具体使用,感兴趣的可以了解一下... 目录前言什么是透视表?使用步骤1. 引入必要的库2. 读取数据3. 创建透视表4. 查看透视表总结前言

Qt中QUndoView控件的具体使用

《Qt中QUndoView控件的具体使用》QUndoView是Qt框架中用于可视化显示QUndoStack内容的控件,本文主要介绍了Qt中QUndoView控件的具体使用,具有一定的参考价值,感兴趣的... 目录引言一、QUndoView 的用途二、工作原理三、 如何与 QUnDOStack 配合使用四、自

go中空接口的具体使用

《go中空接口的具体使用》空接口是一种特殊的接口类型,它不包含任何方法,本文主要介绍了go中空接口的具体使用,具有一定的参考价值,感兴趣的可以了解一下... 目录接口-空接口1. 什么是空接口?2. 如何使用空接口?第一,第二,第三,3. 空接口几个要注意的坑坑1:坑2:坑3:接口-空接口1. 什么是空接