NoSQL之redis(分布式集群)
1.集群架构:
成都创新互联公司-专业网站定制、快速模板网站建设、高性价比甘南网站开发、企业建站全套包干低至880元,成熟完善的模板库,直接使用。一站式甘南网站制作公司更省心,省钱,快速模板网站建设找我们,业务覆盖甘南地区。费用合理售后完善,十载实体公司更值得信赖。
解释:
- 所有的redis节点彼此互联(PING-PONG机制),内部使用二进制协议优化传输速度和带宽。
- 节点的fail是通过集群中超过半数的节点检测失效时才生效.
- 客户端与redis节点直连,不需要中间proxy层.客户端不需要连接集群所有节点,连接集群中任何一个可用节点即可
- redis-cluster把所有的物理节点映射到[0-16383]slot上,cluster 负责维护
Redis 集群中内置了 16384 个哈希槽,当需要在 Redis 集群中放置一个 key-value 时, redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数, 这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点
|
误区解释:这里的集群和主从复制不同,这里的集群中所有的都是mater,都有单节点顾长官问题,而主从复制只是解决单点故障问题,
如果想让集群模式下午单点故障问题,需要给每一个master进行主从复制。
2.redis-cluster 投票容错
- 集群中所有master参与投票,如果半数以上master节点与其中一个master节点通信超过(cluster-node-timeout),认为该master节点挂掉。
集群不可用状态的判断:
- 如果集群任意master挂掉,且当前master没有slave,则集群进入fail状态。也可以理解成集群的[0-16383]slot映射不完全时进入fail状态。
- 如果集群超过半数以上master挂掉,无论是否有slave,集群进入fail状态。
3.redis集群的搭建
①ruby的安装
由于集群管理工具(redis-trib.rb)是使用ruby脚本语言编写的,所以需要ruby的环境
第一步:安装ruby [root@hdp01 bin2]# yum install ruby [root@hdp01 bin2]# yum install rubygems 第二步:将redis-3.0.0.gem文件上传到linux系统 第三步:安装ruby和redis接口 [root@hdp01 ~]# gem install redis-3.0.0.gem 第四步:将redis-3.0.0包下src目录中的以下文件拷贝到redis19/redis-cluster/ 第五步:查看是否拷贝成功 |
②搭建集群:
这里使用3台服务器模拟redis集群。 第一步:复制出redis到一个机器中 [root@hdp01 redis]# scp /xxx/redis-3.0.0 -r hostname01:~/apps 第二步:如果存在持久化文件,则删除 [root@hdp01 app]# rm -rf appendonly.aof dump.rdb 第三步:设置集群参数 开启集群模式:
第五步:复制redis服务到其他机器中 [root@hdp01 redis]# scp /xxx/redis-3.0.0 -r hostname02:~/apps[root@hdp01 redis]# scp /xxx/redis-3.0.0 -r hostname03:~/apps 第七步:启动三台机器 [root@hdp01 redis]#redis-server redis.conf(三台机器中都开启) 第九步:创建集群 [root@hdp01 redis-cluster]# ./redis-trib.rb create --replicas 1\ 192.168.130.128:6379 \ 192.168.130.129:6379 \ 192.168.130.130:6379 \ >>> Creating cluster Connecting to node 192.168.242.137:7001: OK Connecting to node 192.168.242.137:7002: OK Connecting to node 192.168.242.137:7003: OK Connecting to node 192.168.242.137:7004: OK Connecting to node 192.168.242.137:7005: OK Connecting to node 192.168.242.137:7006: OK >>> Performing hash slots allocation on 6 nodes... Using 3 masters: 192.168.242.137:7001 192.168.242.137:7002 192.168.242.137:7003 Adding replica 192.168.242.137:7004 to 192.168.242.137:7001 Adding replica 192.168.242.137:7005 to 192.168.242.137:7002 Adding replica 192.168.242.137:7006 to 192.168.242.137:7003 M: 8240cd0fe6d6f842faa42b0174fe7c5ddcf7ae24 192.168.242.137:7001 slots:0-5460 (5461 slots) master M: 4f52a974f64343fd9f1ee0388490b3c0647a4db7 192.168.242.137:7002 slots:5461-10922 (5462 slots) master M: cb7c5def8f61df2016b38972396a8d1f349208c2 192.168.242.137:7003 slots:10923-16383 (5461 slots) master S: 66adf006fed43b3b5e499ce2ff1949a756504a16 192.168.242.137:7004 replicates 8240cd0fe6d6f842faa42b0174fe7c5ddcf7ae24 S: cbb0c9bc4b27dd85511a7ef2d01bec90e692793b 192.168.242.137:7005 replicates 4f52a974f64343fd9f1ee0388490b3c0647a4db7 S: a908736eadd1cd06e86fdff8b2749a6f46b38c00 192.168.242.137:7006 replicates cb7c5def8f61df2016b38972396a8d1f349208c2 Can I set the above configuration? (type 'yes' to accept): yes >>> Nodes configuration updated >>> Assign a different config epoch to each node >>> Sending CLUSTER MEET messages to join the cluster Waiting for the cluster to join.. >>> Performing Cluster Check (using node 192.168.242.137:7001) M: 8240cd0fe6d6f842faa42b0174fe7c5ddcf7ae24 192.168.242.137:7001 slots:0-5460 (5461 slots) master M: 4f52a974f64343fd9f1ee0388490b3c0647a4db7 192.168.242.137:7002 slots:5461-10922 (5462 slots) master M: cb7c5def8f61df2016b38972396a8d1f349208c2 192.168.242.137:7003 slots:10923-16383 (5461 slots) master M: 66adf006fed43b3b5e499ce2ff1949a756504a16 192.168.242.137:7004 slots: (0 slots) master replicates 8240cd0fe6d6f842faa42b0174fe7c5ddcf7ae24 M: cbb0c9bc4b27dd85511a7ef2d01bec90e692793b 192.168.242.137:7005 slots: (0 slots) master replicates 4f52a974f64343fd9f1ee0388490b3c0647a4db7 M: a908736eadd1cd06e86fdff8b2749a6f46b38c00 192.168.242.137:7006 slots: (0 slots) master replicates cb7c5def8f61df2016b38972396a8d1f349208c2 [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered. |
③测试集群是否搭建成功
[root@hdp01 7001]# ./redis-cli -h 192.168.130.130-p 6379 –c #连接集群
相关命令介绍:
192.168.130.130:6379> cluster info #查看集群信息 192.168.130.130:6379> cluster nodes #查看集群节点 |
本文标题:NoSQL之redis(分布式集群)
URL链接:http://ybzwz.com/article/pcgjge.html