hadoop2.7.3平台怎么搭建spark2.1.1

这篇文章主要讲解了“hadoop2.7.3平台怎么搭建spark2.1.1”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“hadoop2.7.3平台怎么搭建spark2.1.1”吧!

创新互联公司成都企业网站建设服务,提供成都网站制作、做网站网站开发,网站定制,建网站,网站搭建,网站设计,响应式网站开发,网页设计师打造企业风格网站,提供周到的售前咨询和贴心的售后服务。欢迎咨询做网站需要多少钱:13518219792

hadoop平台搭建spark 
三台机器
master
slave1
slave2

--安装配置scala  master 节点

tar -zxvf  scala-2.12.2.tgz

/etc/profile

export SCALA_HOME=/usr/scala-2.12.2

export PATH=$SCALA_HOME/bin:$PATH

scala -version

复制到slave 并配置环境变量

scp -r scala-2.12.2 root@slave1:/usr/

scp -r scala-2.12.2 root@slave2:/usr/

---安装spark  在master节点运行

tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz

vi /etc/profile

export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7

export PATH=$SPARK_HOME/bin:$PATH

最终变量

export HADOOP_HOME=/usr/hadoop-2.7.3

export SCALA_HOME=/usr/scala-2.12.2

export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7

export PATH=$PATH:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin

配置

 1.spark-env.sh

cp spark-env.sh.template spark-env.sh

修改此文件,在文件末尾添加

###jdk安装目录

export JAVA_HOME=/usr/java/jdk1.8.0_101

###scala安装目录

export SCALA_HOME=/usr/scala-2.12.2

###spark集群的master节点的ip

export SPARK_MASTER_IP=192.168.58.10

###指定的worker节点能够最大分配给Excutors的内存大小

export SPARK_WORKER_MEMORY=1g

###hadoop集群的配置文件目录

export HADOOP_CONF_DIR=/usr/hadoop-2.7.3/etc/hadoop

2.slaves

cp slaves.template slaves

master

slave1

slave2

将spark文件和环境变量复制到slave节点

scp -r spark-2.1.1-bin-hadoop2.7 root@slave1:/usr/

scp -r spark-2.1.1-bin-hadoop2.7 root@slave2:/usr/

如果没有设置节点ip不用管下面的

在Slave1和Slave2修改$SPARK_HOME/conf/spark-env.sh,

将export SPARK_LOCAL_IP=114.55.246.88改成Slave1和Slave2对应节点的IP。

spark启动与关闭 保证hadoop已经运行

启动 进入到spark目录

./sbin/start-all.sh

关闭

./sbin/stop-all.sh

---验证

http://192.168.58.10:8080/

spark-shell

感谢各位的阅读,以上就是“hadoop2.7.3平台怎么搭建spark2.1.1”的内容了,经过本文的学习后,相信大家对hadoop2.7.3平台怎么搭建spark2.1.1这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!


分享题目:hadoop2.7.3平台怎么搭建spark2.1.1
链接URL:http://ybzwz.com/article/gedhgj.html