SPARK安装-创新互联
使用 安装包:
站在用户的角度思考问题,与客户深入沟通,找到新邱网站设计与新邱网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:网站制作、成都网站设计、企业官网、英文网站、手机端网站、网站推广、域名申请、虚拟主机、企业邮箱。业务覆盖新邱地区。scala-2.10.3.tgz
spark-0.9.0-incubating-bin-hadoop2.tgz
hadoop-2.3.0-cdh6.0.0.tar.gz
jdk1.7.0_45
下载地址:http://mirror.bit.edu.cn/apache/spark/spark-0.9.0-incubating/
spark-0.9.0-incubating-bin-hadoop2.tgz
http://archive.cloudera.com/cdh6/cdh/5/下载 sacala和hadoop
安装软件
tar
zxvf
spark-0.9.0-incubating-bin-hadoop2.tgz
tar
zxvf
scala-2.10.3.tgz
配置用户环境变量~/.bashrc
export JAVA_HOME=/hadoop/jdk1.7.0_45
export HADOOP_HOME=/hadoop/hadoop
export HADOOP_CONF_DIR=/hadoop/hadoop-config
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SCALA_HOME/bin:$SPARK_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH
export HADOOP_HOME_WARN_SUPPRESS=1
export SCALA_HOME=/hadoop/scala-2.10.3
export SPARK_EXAMPLES_JAR=/hadoop/spark/examples/target/spark-examples_2.10-0.9.0-incubating.jar
export SPARK_HOME=/hadoop/spark-0.9.0-incubating-bin-hadoop2
配置环境变量: /hadoop/spark-0.9.0-incubating-bin-hadoop2/conf下
修改spark-env.sh文件,加入spark必要的配置:
export SCALA_HOME=/hadoop/scala-2.10.3
export JAVA_HOME=/hadoop/jdk1.7.0_45
export SPARK_HOME=/hadoop/spark
拷贝环境变量到其他节点,立即 生效 source .bash_profile
测试环境变量 scala -version
配置conf文件:
vi slaves
bigdata-2
bigdata-4
文件分发至其他节点
spark启动:
cd /hadoop/spark-0.9.0-incubating-bin-hadoop2/sbin
./start-all.sh
查看进程:
jps
22580 NameNode
25767 Master
27758 Jps
23024 ResourceManager
22812 SecondaryNameNode
节点进程:
70869 Worker
70150 NodeManager
71462 Jps
70023 DataNode
~安装完毕~安装完毕~安装完毕~安装完毕~安装完毕~
spark使用:
运行SparkPi: cd /hadoop/spark/bin
ll /hadoop/spark/bin
-rw-rw-r--. 1 hadoop hadoop 2601 2月 3 03:13 compute-classpath.cmd
-rwxrwxr-x. 1 hadoop hadoop 3330 2月 3 03:13 compute-classpath.sh
-rwxrwxr-x. 1 hadoop hadoop 2070 2月 3 03:13 pyspark
-rw-rw-r--. 1 hadoop hadoop 1827 2月 3 03:13 pyspark2.cmd
-rw-rw-r--. 1 hadoop hadoop 1000 2月 3 03:13 pyspark.cmd
-rwxrwxr-x. 1 hadoop hadoop 3055 2月 3 03:13 run-example
-rw-rw-r--. 1 hadoop hadoop 2047 2月 3 03:13 run-example2.cmd
-rw-rw-r--. 1 hadoop hadoop 1012 2月 3 03:13 run-example.cmd
-rwxrwxr-x. 1 hadoop hadoop 5151 2月 3 03:13 spark-class
-rwxrwxr-x. 1 hadoop hadoop 3212 2月 3 03:13 spark-class2.cmd
-rw-rw-r--. 1 hadoop hadoop 1010 2月 3 03:13 spark-class.cmd
-rwxrwxr-x. 1 hadoop hadoop 3038 2月 3 03:13 spark-shell
-rwxrwxr-x. 1 hadoop hadoop 941 2月 3 03:13 spark-shell.cmd
. /run-example org.apache.spark.examples.SparkPi spark://master:7077
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。
本文名称:SPARK安装-创新互联
分享链接:http://ybzwz.com/article/dpppcd.html