Zookeeper的安装部署
1. 安装JDK
参考jdk的安装。
创新互联公司服务项目包括新华网站建设、新华网站制作、新华网页制作以及新华网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,新华网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到新华省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!
2. ZooKeeper安装
2.1. 单机模式
2.1.1. 下载并安装ZooKeeper
步骤:
1) 在下载地址:http://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.4.9/下载稳定版本的zookeeper。
2) $ tar -zxvf zookeeper-3.4.9.tar.gz 将zookeeper安装包tar开。
3) 将tar开的文件目录拷贝到安装目录
$ cp -R zookeeper-3.4.9 /software/
4) 切换到zookeeper安装目录创建zookeeper的软连接
$ ln -s zookeeper-3.4.9/ zk
5)配置zookeeper的安装路径到操作系统环境变量
编辑环境变量文件:sudo vim/etc/profile
在文件中添加如下内容:
export ZOOKEEPER_HOME =/software/zk
export PATH=$ ZOOKEEPER_HOME /bin:$PATH
$ source /etc/profile #环境变量立即生效
2.1.2. 创建zoo.cfg配置文件
1)、切换到zookeeper的安装目录下的conf目录
$ cp zoo_sample.cfg zoo.cfg
2)、修改zoo.cfg的内容
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/hadoop/zookeeper/data
clientPort=2181
注:zookeeper配置参数详解 (主要是$ZOOKEEPER_HOME/conf/zoo.cfg文件)
参数名 | 说明 |
clientPort | 客户端连接server的端口,即对外服务端口,一般设置为2181。 |
dataDir | 存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。建议同时配置参数dataLogDir,事务日志的写性能直接影响zk性能。 |
tickTime | 这个时间是作为 Zookeeper服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime时间就会发送一个心跳。 |
dataLogDir | 事务日志输出目录。尽量给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提升ZK性能。 (No Java system property) |
globalOutstandingLimit | 最大请求堆积数。默认是1000。ZK运行的时候,尽管server已经没有空闲来处理更多的客户端请求了,但是还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止Server内存溢出,这个请求堆积数还是需要限制下的。 |
preAllocSize | 预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每个事务日志大小就是64M。如果ZK的快照频率较大的话,建议适当减小这个参数。(Java system property:zookeeper.preAllocSize) |
snapCount | 每进行snapCount次事务日志输出后,触发一次快照(snapshot),此时,ZK会生成一个snapshot.*文件,同时创建一个新的事务日志文件log.*。默认是100000.(真正的代码实现中,会进行一定的随机数处理,以避免所有服务器在同一时间进行快照而影响性能)(Java system property:zookeeper.snapCount) |
traceFile | 用于记录所有请求的log,一般调试过程中可以使用,但是生产环境不建议使用,会严重影响性能。(Java system property:? requestTraceFile) |
maxClientCnxns | 单个客户端与单台服务器之间的连接数的限制,是ip级别的,默认是60,如果设置为0,那么表明不作任何限制。请注意这个限制的使用范围,仅仅是单台客户端机器与单台ZK服务器之间的连接数限制,不是针对指定客户端IP,也不是ZK集群的连接数限制,也不是单台ZK对所有客户端的连接数限制。指定客户端IP的限制策略,这里有一个patch,可以尝试一下:http://rdc.taobao.com/team/jm/archives/1334(No Java system property) |
clientPortAddress | 对于多网卡的机器,可以为每个IP指定不同的监听端口。默认情况是所有IP都监听 clientPort指定的端口。 New in 3.3.0 |
minSessionTimeoutmaxSessionTimeout | Session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2 * tickTime ~ 20 * tickTime 这个范围 New in 3.3.0 |
fsync.warningthresholdms | 事务日志输出时,如果调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms。(Java system property: fsync.warningthresholdms)New in 3.3.4 |
autopurge.purgeInterval | 在上文中已经提到,3.4.0及之后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。(No Java system property) New in 3.4.0 |
autopurge.snapRetainCount | 这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。(No Java system property) New in 3.4.0 |
electionAlg | 在之前的版本中,这个参数配置是允许我们选择leader选举算法,但是由于在以后的版本中,只会留下一种“TCP-based version of fast leader election”算法,所以这个参数目前看来没有用了,这里也不详细展开说了。(No Java system property) |
initLimit | Follower在启动过程中,会从Leader同步所有最新数据,然后确定自己能够对外服务的起始状态。Leader允许Follower在initLimit时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果ZK集群的数据量确实很大了,Follower在启动的时候,从Leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。(No Java system property) |
syncLimit | 在运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果Leader发出心跳包在syncLimit之后,还没有从Follower那里收到响应,那么就认为这个Follower已经不在线了。注意:不要把这个参数设置得过大,否则可能会掩盖一些问题。(No Java system property) |
leaderServes | 默认情况下,Leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让Leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会大大提高写操作的性能。(Java system property: zookeeper.leaderServes)。 |
server.x=[hostname]:nnnnn[:nnnnn] | 这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于F和L之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。 |
group.x=nnnnn[:nnnnn]weight.x=nnnnn | 对机器分组和权重设置,可以 参见这里(No Java system property) |
cnxTimeout | Leader选举过程中,打开一次连接的超时时间,默认是5s。(Java system property: zookeeper. cnxTimeout) |
zookeeper.DigestAuthenticationProvider.superDigest | ZK权限设置相关,具体参见 《 使用super 身份对有权限的节点进行操作》 和 《 ZooKeeper 权限控制》 |
skipACL | 对所有客户端请求都不作ACL检查。如果之前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效。(Java system property: zookeeper.skipACL) |
forceSync | 这个参数确定了是否需要在事务日志提交的时候调用FileChannel.force来保证数据完全同步到磁盘。(Java system property: zookeeper.forceSync) |
jute.maxbuffer | 每个节点最大数据量,是默认是1M。这个限制必须在server和client端都进行设置才会生效。(Java system property: jute.maxbuffer) |
2.1.3.启动ZooKeeper服务
$ zkServer.sh start
2.1.4.启动ZooKeeper客户端
$ zkCli.sh
2.2. 伪分布式模式
2.2.1. 新建myid文件
给每个zk server指定一个id(唯一性),存放在myid文件中,值介于1-255之间。
该myid文件存放在zoo.cfg配置文件中的dataDir=/home/hadoop/zookeeper/data配置项的路径下。
这里创建3个zk服务及创建三个zoo1.cfg、zoo2.cfg、zoo3.cfg,需要三个dataDir路径,例如:
dataDir=/home/hadoop/zookeeper/data1
dataDir=/home/hadoop/zookeeper/data2
dataDir=/home/hadoop/zookeeper/data3
2.2.2. 在zoo.cfg中增加配置项
语法:server.n=hostname:port1:port2
其中n为服务器ID,即myid中的值;hostname为服务器名称;port1为follower连接leader的端口;port2被用于领导者选举。
2.2.3. 启动ZooKeeper服务
$>zkServer.sh start /software/zk/conf/zoo1.cfg
$>zkServer.sh start/software/zk/conf/zoo2.cfg
$>zkServer.sh start/software/zk/conf/zoo3.cfg
2.2.4. 查看zk服务状态
1)、使用四字命令
$>echo ruok |nc localhost 2181
$>echo conf |nc localhost 2181
$>echo envi |nc localhost 2181
$>echo stat |nc localhost 2181
2)、使用其它命令
$ zkServer.sh status /software/zk/conf/zoo1.cfg
2.2.5. 通过zk客户端连接zk服务
$ zkCli.sh //默认连接到localhost2181,使用zoo.cfg
$ zkCli.sh -server s200:2182 //连接到指定的zk服务
2.3. 完全分布式
2.3.1.分发ZooKeeper
将zookeeper安装文件分发到需要安装zookeeper服务的服务器上。
2.3.2.分发ZooKeeper的环境变量
将其中一台配置好的环境变量分发到所有服务器上,并重启服务器或者使用source命令使环境变量生效。
2.3.3.新建myid文件
参考伪分布模式中的“新建myid文件”。
2.3.4.在zoo.cfg中增加配置项
在zk server服务器上的$ZOOKEEPER_HOME/conf/zoo.cfg文件中增加配置项,参考伪分布模式。
例:
server.201=s201:2888:3888
server.202=s202:2888:3888
server.203=s203:2888:3888
2.3.5.启动zk服务
登录到每台zk服务器使用下面命令启动zk服务
$ zkServer.sh start
标题名称:Zookeeper的安装部署
转载来于:http://ybzwz.com/article/joiopd.html