本文主要是介绍Spark的简单安装和介绍( Spark端口为8081),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Spark简介(2022-06-14A)
Spark提供了一个分布式的、弹性的、数据集合(RDD)、我们在Scala当中学习的Seq、Set、Map集合的操作,可以直接应用在RDD(集合),进行Spark数据分析。
Spark集群构建:
Spark框架,没有太多的要求,只是一个计算框架。主从配置,比较方便
- N台机器构建都可以,并且可以很轻松配置出高可用集群。
安装配置(借助两台主机,完成一个Spark高可用的集群)
- 上传安装包、解压
tar -zxvf spark-3.1.2-bin-hadoop2.7.tgz -C /usr/hadoop/
2.配置文件
三个配置模板
spark-defaults.conf
spark-env.sh
export HADOOP_CONF_DIR=/usr/hadoop/hadoop-2.10.1/etc/hadoop
export YARN_CONF_DIR=/usr/hadoop/hadoop-2.10.1/etc/hadoopexport SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=192.168.42.111:2181,192.168.42.112:2181,192.168.42.112:2181 -Dspark.deploy.zookeeper.dir=/usr/hadoop/spark-3.1.2-bin-hadoop2.7/zkData"
Workers
将Local host修改为一下主机IP
192.168.42.111
192.168.42.112
192.168.42.113
- 分发配置好的spark目录
scp -r spark-3.1.2-bin-hadoop2.7/ 192.168.42.112:/usr/hadoop/
启动测试
Spark依赖与zookeeper,先将Hadoop启动后
出现Mode类似即可
然后进入sbin目录启动Spark
./start-all.sh
这篇关于Spark的简单安装和介绍( Spark端口为8081)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!