Hadoop的三种模式的安装

Hadoop的三种模式的安装

一.Hadoop的三种模式

1.单节点模式

创新互联建站是专业的榆林网站建设公司,榆林接单;提供网站建设、成都网站制作,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行榆林网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!

2.伪分布模式,一般用于测试

3.完全分布模式,集群环境,常用

Hadoop 主从节点分解:

二.安装环境

1.单机模式,一台主机,172.25.22.10

2.伪分布模式,一台主机,172.25.22.11

3.完全分布模式,三台主机,172.25.22.10 11 12

软件包:

hadoop-1.2.1.tar.gz

jdk-7u79-linux-x64.tar.gz

三.配置步骤之单机模式

注意:在配置环境时,最好以一个普通用户的身份去配置,三种模式都是以普通用户hadoop身份运行的

1.

单机模式只有一个节点,只需将hadoop包解压到相应的位置下即可,本次解压的目录是在/home/hadoop下,然后做一个软链接,方便之后切换目录。和修改配配置文件中文件目录的位置

ln -s hadoop-1.2.1/ hadoop

ln -s jdk1.7.0_79/ java

Hadoop的三种模式的安装

2.修改一下配置文件

Hadoop的三种模式的安装

将java的目录写进去

Hadoop的三种模式的安装

3.下一步配置ssh 无密码登陆到本机

ssh-keygen

ssh-copy-id 172.25.22.10

配置完成,可以直接ssh localhost到本机

4.配置完成后,测试

首先建立一个input 目录

mkdir input

Cp conf/*.xml input/

Hadoop的三种模式的安装

拿一个例子测试一下,

bin/hadoop jar hadoop-examples-1.2.1.jar grep input output 'dfs[a-z.]+'

Output输出的目录可自动生成

看到hadoop里边有这个目录,而且可以查看

如果拿网页看的话

http://172.25.22.10:50070/dfshealth.jsp 可以看到hdfs中保存的文件

http://172.25.22.10:50030/jobtracker.jsp 可以看到正在处理的过程

四.伪分布模式的配置

由于伪分布模式也是在一个节点上,在单节点的模式下,配置其几个配置文件

1.编辑其conf下的配置文件

#####vim core-site.xml 添加内容

    fs.default.name

    hdfs://172.25.22.10:9000

   

Hadoop的三种模式的安装

#####vim mapred-site.xml

    mapred.job.tracker

    172.25.22.10:9001

   

Hadoop的三种模式的安装

######vim hdfs-site.xml

    dfs.replication

    1

   

Hadoop的三种模式的安装

配置文件修改完成

2.对hadoop进行格式化

bin/hadoop namenode -format

3.开启所有进程

bin/start-all.sh

Hadoop的三种模式的安装

4.查看进程

/home/hadoop/java/bin/jps

所有的进程都在这一个节点上,

JobTracker  #####负责任务调度

TaskTracker #####负责数据处理

SecondaryNameNode

NameNode  #####包含元数据信息

DataNode   #####数据节点,存储数据

5.测试

bin/hadoop -put conf/ input

bin/hadoop jar hadoop-examples-1.2.1.jar grep input output 'dfs[a-z.]+'

这里的input 和之前那个input是完全不一样的,这个是存储在分布式文件系统中的

用网页查看可以看到

Hadoop的三种模式的安装

三台主机Hadoop的三种模式的安装

五.完全分布式的配置

三台主机:

172.25.22.10  master

172.25.22.11  slave

172.25.22.12  slave

三台主机的配置是一样的,所以怎么使slave主机和master主机配置文件都相同呢?Scp的方式可以,但是会比较麻烦,所以考虑到nfs共享

1.在伪分布模式三个配置文件已经配置完成的基础下,配置master slave文件

Hadoop的三种模式的安装

Hadoop的三种模式的安装

2.配置nfs文件共享

在三台主机上,首先需要安装的服务

yum install -y rpcbind

yum install -y nfs-utils

开启rpcbind服务

Hadoop的三种模式的安装

3.配置exports文件

/home/hadoop   172.25.22.0/255.255.255.0(rw,anonuid=900,anongid=900)

Hadoop的三种模式的安装

exports -v

exportfs -rv

Hadoop的三种模式的安装

4.由于slave节点要和master节点的文件同步

所以在slave节点上

showmount -e 172.25.22.10

Hadoop的三种模式的安装

mount 172.25.22.10:/home/hadoop/ /home/hadoop/

可以看到文件都同步过去

5.在master节点上要给普通用户hadoop设置密码

然后

ssh-keygen

ssh-copy-id 172.25.22.10

这样就可以实现三台主机以普通用户登陆的无密码的交互

配置完成,需要测试:

注意:如果在刚开始的时候,是在root用户下安装的hadoop,那么想在普通用户下搭建的话,首先三台主机创建一个相同名字的用户,并且uid gid 都要保持一致,然后把在root下做的目录迁移过去

mv hadoop-1.2.1/ /home/hadoop/

并且要修改这个目录的归属组和归属用户

chown  hadoop.hadoop /home/hadoop/* -R

软链接和java环境的修改

6.用分布式环境测试一下

首先格式化,然后打开所有的进程

bin/hadoop namenode -format

bin/start-all.sh

看各个节点的进程

Hadoop的三种模式的安装

Hadoop的三种模式的安装

Hadoop的三种模式的安装

测试程序,执行一个wordcount例子

bin/hadoop fs -put conf/ input

bin/hadoop jar hadoop-examples-1.2.1.jar wordcount input output

Hadoop的三种模式的安装

Hadoop的三种模式的安装


分享标题:Hadoop的三种模式的安装
分享路径:http://ybzwz.com/article/igsjog.html