如何在window上使用VirtualBox搭建Ubuntu15.04全分布Hadoop2.7.1集群
今天就跟大家聊聊有关如何在window上使用VirtualBox搭建Ubuntu15.04全分布Hadoop2.7.1集群,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
创新互联提供成都网站建设、做网站、网页设计,成都品牌网站建设,一元广告等致力于企业网站建设与公司网站制作,十多年的网站开发和建站经验,助力企业信息化建设,成功案例突破上千,是您实现网站建设的好选择.
先给大家看看配置好的集群截图:
注意(default是docker的,大家不用管,下面四台才是,其中Ubuntu_0是master,Ubuntu_1,2,3是slave节点)
一.新建虚拟机,配置基础java环境,配置网络访问
下载Ubuntu15.04,打开VirtualBox,新建Ubuntu虚拟机,用户名linux1,不截图了,内存选1G就够了
接下来,下载并安装JDK:
下载:去官网下载对应版本的JDK,我这里是jdk-8u60-linux-x64.tar.gz
新建安装目录:
sudo mkdir /usr/local/java
解压JDK:
sudo tar xvf ~/Downloads/jdk-8u60-linux-x64.tar.gz -C /usr/local/java
设置全局环境变量:
sudo gedit ~/.bashrc
文件末尾添加:
export JAVA_HOME=/usr/local/java/jdk1.8.0_60 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH
验证:新开终端,输入java验证(当前终端内不生效)
接下来,配置网络(为啥要配置:因为你搭的是集群,用的是集群的服务,肯定想除了集群以外的机器能访问,而不是像网上那些人省事,直接在master上安装Eclipse,进行开发,这样是不对的,举个例子,我的宿主机是Windows,用VirtualBox搭的集群,我想在windows上使用Eclipse进行编程,使用集群的Hadoop服务,我可不想在master上安装Eclipse开发,虽然会省掉不少错误解决的麻烦事,但是是不对的!服务就是要远程调用的)
设置第一个网卡:NAT可以使虚拟机使用宿主机的IP上网,这样,你的虚拟机就可以缺什么软件就安什么了,方便!
接下来设置第二个网卡:这使得宿主机能够ping通虚拟机
二.克隆虚拟机
选中第一台ubuntu_0(一定要关闭它),你会发现右侧的绵羊(你应该知道为啥是绵羊吧)图标是可以点击的,我现在用着集群呢,懒得关,索性找张别人的图,点开后的样子是这样的:
注意要重置网卡设置,命名随便了。我一共clone了3个虚拟机,名字分别是Ubuntu_1,Ubuntu_2,Ubuntu_3,“完全复制”,一直点确定。
三.设置虚拟机静态IP
为啥要设置呢?虚拟机默认是DHCP的,如果你搭建Hadoop集群,不能总是让Hadoop集群所在的机器启动一次就换一次IP吧,那麻烦了。所以,设置静态IP很有必要。
我对网络这块迷糊,我就说我的方法了。
下面的操作适用于所有4个虚拟机。
sudo gedit /etc/network/interfaces
在
auto lo iface lo inet loopback
下加入:
auto eth2 #这是第二块网卡 iface eth2 inet static
address 192.168.99.101 #在终端输入ifconfig查看下,然后每台机器这个地址最后一段(共四段)自增1(这四台机器是101(用作master),100,102,103(这三个用作slave)) netmask 255.255.255.0 #ifconfig gateway 10.0.2.2 # route查看,第一行就是
静态IP弄好了,接下来,就是设置主机名了。
命令:
sudo gedit /etc/hostname
命令:
sudo gedit /etc/hosts
修改成需要的主机名(我这里是linux0-cloud,linux1-cloud,linux2-cloud,linux3-cloud),重启?等下,还没完事呢。
接下来修改hosts文件:
为什么要设置hosts,hosts是干嘛的,我的理解是,根据主机名找IP,所以呢,
修改所有虚拟机的hosts文件, 命令:sudo gedit /etc/hosts。设置为如图所示:
以上操作四台机器必须都应用!好了,重启吧!
四.安装SSH,使得master可以无密码登录所有slave节点(不解释原因)
所有主机安装ssh
命令:
sudo apt-get install ssh
在master节点上,
命令:
ssh-keygen -t rsa -P "" cat .ssh/id_rsa.pub >>.ssh/authorized_keys,
使用ssh localhost查看是否能够无密码登录
下面会进行master在无密码情况下ssh连接到slave节点
其他所有节点执行命令:
ssh-keygen -t rsa -P ""
接下来,只要将master的公钥放到其它slave节点即可使用无密码登录ssh节点
将master .ssh/authorized_keys使用scp命令拷贝到其它slave节点上,做到master访问slave不需要密码(如果slave访问master,那么过程相反)
在master上执行命令:
scp .ssh/authorized_keys linux1@linux1-cloud:~/.ssh/authorized_keys scp .ssh/authorized_keys linux1@linux2-cloud:~/.ssh/authorized_keys scp .ssh/authorized_keys linux1@linux3-cloud:~/.ssh/authorized_keys
五.安装Hadoop2.7.1
下面先对master节点进行配置,然后将配置好的文件复制到其余机器上
在master上
新建目录,命令:mkdir ~/hadoop
解压hadoop,命令:tar xvf ~/Downloads/hadoop-2.7.1.tar.gz -C ~/hadoop
新建hdfs文件夹(不能使用sudo创建,权限问题):
mkdir ~/dfs mkdir ~/dfs/name mkdir ~/dfs/data mkdir ~/tmp
修改hadoop/hadoop-2.7.1/etc/hadoop/hadoop-env.sh配置文件 ,
export JAVA_HOME=/usr/local/java/jdk1.8.0_60
修改/etc/hadoop/slaves文件:
修改/etc/hadoop/core-site.xml文件,
fs.defaultFS hdfs://linux0-cloud:8020 io.file.buffer.size 131072 hadoop.tmp.dir /home/linux1/tmp Abase for other temporary directories.
修改/etc/hadoop/hdfs-site.xml文件,
dfs.namenode.secondary.http-address linux0-cloud:9001 这里使namenode同时作为secondary namenode,实际应该设置其他机器的比如linux1-cloud:9001 你可以访问linux0-cloud:50070也可以访问linux0-cloud:9001(或者其他比如:linux1-cloud:8001)查看hadoop概况(namenode们状态是同步的) dfs.namenode.name.dir file:/home/linux1/dfs/name dfs.datanode.data.dir file:/home/linux1/dfs/data dfs.replication 3 dfs.webhdfs.enabled true
修改etc/hadoop/mapred-site.xml,
mapreduce.framework.name yarn mapreduce.jobhistory.address linux0-cloud:10020 mapreduce.jobhistory.webapp.address linux0-cloud:19888
修改yarn-site.xml文件,
yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.address linux0-cloud:8032 yarn.resourcemanager.scheduler.address linux0-cloud:8030 yarn.resourcemanager.resource-tracker.address linux0-cloud:8031 yarn.resourcemanager.admin.address linux0-cloud:8033 yarn.resourcemanager.webapp.address linux0-cloud:8088
下面将hadoop复制到其它slave节点:
命令:
sudo scp -r ~/hadoop linux1@linux1-cloud:~/ sudo scp -r ~/hadoop linux1@linux2-cloud:~/ sudo scp -r ~/hadoop linux1@linux3-cloud:~/
设置所有节点环境变量:
gedit ~/.bashrc
添加:
export HADOOP_HOME=/home/linux1/hadoop/hadoop-2.7.1 export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_YARN_HOME=$HADOOP_HOME export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
应用环境变量:
source ~/.bashrc
六.启动Hadoop
首先格式化:
hdfs namenode -format
启动hdfs:
start-dfs.sh
启动yarn:
start-yarn.sh
你也可以输入192.168.99.101:50070访问,不给你们截图,宿主机浏览器有不少标签
看完上述内容,你们对如何在window上使用VirtualBox搭建Ubuntu15.04全分布Hadoop2.7.1集群有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注创新互联行业资讯频道,感谢大家的支持。
网页名称:如何在window上使用VirtualBox搭建Ubuntu15.04全分布Hadoop2.7.1集群
网站网址:http://ybzwz.com/article/pdihcc.html