hadoop2.7.3平台怎么搭建spark2.1.1
这篇文章主要讲解了“hadoop2.7.3平台怎么搭建spark2.1.1”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“hadoop2.7.3平台怎么搭建spark2.1.1”吧!
创新互联公司成都企业网站建设服务,提供成都网站制作、做网站网站开发,网站定制,建网站,网站搭建,网站设计,响应式网站开发,网页设计师打造企业风格网站,提供周到的售前咨询和贴心的售后服务。欢迎咨询做网站需要多少钱:13518219792
hadoop平台搭建spark
三台机器
master
slave1
slave2
--安装配置scala master 节点
tar -zxvf scala-2.12.2.tgz
/etc/profile
export SCALA_HOME=/usr/scala-2.12.2
export PATH=$SCALA_HOME/bin:$PATH
scala -version
复制到slave 并配置环境变量
scp -r scala-2.12.2 root@slave1:/usr/
scp -r scala-2.12.2 root@slave2:/usr/
---安装spark 在master节点运行
tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz
vi /etc/profile
export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
最终变量
export HADOOP_HOME=/usr/hadoop-2.7.3
export SCALA_HOME=/usr/scala-2.12.2
export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7
export PATH=$PATH:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin
配置
1.spark-env.sh
cp spark-env.sh.template spark-env.sh
修改此文件,在文件末尾添加
###jdk安装目录
export JAVA_HOME=/usr/java/jdk1.8.0_101
###scala安装目录
export SCALA_HOME=/usr/scala-2.12.2
###spark集群的master节点的ip
export SPARK_MASTER_IP=192.168.58.10
###指定的worker节点能够最大分配给Excutors的内存大小
export SPARK_WORKER_MEMORY=1g
###hadoop集群的配置文件目录
export HADOOP_CONF_DIR=/usr/hadoop-2.7.3/etc/hadoop
2.slaves
cp slaves.template slaves
master
slave1
slave2
将spark文件和环境变量复制到slave节点
scp -r spark-2.1.1-bin-hadoop2.7 root@slave1:/usr/
scp -r spark-2.1.1-bin-hadoop2.7 root@slave2:/usr/
如果没有设置节点ip不用管下面的
在Slave1和Slave2修改$SPARK_HOME/conf/spark-env.sh,
将export SPARK_LOCAL_IP=114.55.246.88改成Slave1和Slave2对应节点的IP。
spark启动与关闭 保证hadoop已经运行
启动 进入到spark目录
./sbin/start-all.sh
关闭
./sbin/stop-all.sh
---验证
http://192.168.58.10:8080/
spark-shell
感谢各位的阅读,以上就是“hadoop2.7.3平台怎么搭建spark2.1.1”的内容了,经过本文的学习后,相信大家对hadoop2.7.3平台怎么搭建spark2.1.1这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!
分享题目:hadoop2.7.3平台怎么搭建spark2.1.1
链接URL:http://ybzwz.com/article/gedhgj.html