keepalived问题-keepalived+twemproxy +redis问题求教

问题描述

keepalived+twemproxy +redis问题求教
自己搭了玩的,2台虚拟机
10.20.71.150(redis2个实例分别是端口63796389 twemproxy 监听22122 -s22222
此外还有keepalived (只装了这一个没有master/slave。就有问题了))
10.20.71.161(redis2个实例分别是端口63796389 twemproxy 监听22122 -s22222)
VIP:10.20.71.65
集体配置:

```10.20.71.150 nutcracker.yml
alpha:
listen: 10.20.71.150:22122
hash: fnv1a_64
distribution: ketama
auto_eject_hosts: true
redis: true
server_retry_timeout: 2000
server_failure_limit: 1
servers:

  • 127.0.0.1:6379:1
  • 127.0.0.1:6389:1
  • 10.20.71.161:6379:1
  • 10.20.71.161:6389:1
```10.20.71.161 nutcracker.yml alpha:  listen: 10.20.71.161:22122  hash: fnv1a_64  distribution: ketama  auto_eject_hosts: true  redis: true  server_retry_timeout: 2000  server_failure_limit: 1  servers:   - 127.0.0.1:6379:1   - 127.0.0.1:6389:1   - 10.20.71.150:6379:1   - 10.20.71.150:6389:1
 ! Configuration File for keepalivedglobal_defs {   notification_email {     acassen@firewall.loc     failover@firewall.loc     sysadmin@firewall.loc   }   notification_email_from Alexandre.Cassen@firewall.loc   smtp_server 192.168.200.1   smtp_connect_timeout 30   router_id LVS_DEVEL}vrrp_instance VI_1 {    state MASTER    interface eth0    virtual_router_id 51    priority 100    advert_int 1    authentication {        auth_type PASS        auth_pass 1111    }    virtual_ipaddress {        10.20.71.65    }}virtual_server 10.20.71.65 22122 {    delay_loop 3    lb_algo wrr    lb_kind DR    protocol TCP    sorry_server 127.0.0.1 22122    real_server 10.20.71.150 22122 {        TCP_CHECK {            connect_timeout 3            nb_get_retry 3            delay_before_retry 3        }    }    real_server 10.20.71.161 22122 {        TCP_CHECK {            connect_timeout 3            nb_get_retry 3            delay_before_retry 3        }    }}

```各进程情况,以及ipvsadm -Ln

[root@dev2 src]# ps -ef|grep redis
root 734 1 0 02:32 ? 00:00:05 /opt/redis-3.0.2/src/redis-server *:6379

root 742 1 0 02:32 ? 00:00:05 /opt/redis-3.0.2/src/redis-server *:6389

root 2754 1899 0 05:02 pts/0 00:00:00 grep redis
[root@dev2 src]# ps -ef|grep nut
root 2090 1 0 04:04 ? 00:00:00 /opt/twemproxy-0.4.0/src/nutcracker -d -c /opt/nutcracker2.yml -o /opt/twemproxy.log
root 2756 1899 0 05:02 pts/0 00:00:00 grep nut
[root@dev2 src]# ps -ef|grep keepalived
root 2126 1 0 04:05 ? 00:00:00 /usr/sbin/keepalived -D
root 2127 2126 0 04:05 ? 00:00:00 /usr/sbin/keepalived -D
root 2128 2126 0 04:05 ? 00:00:00 /usr/sbin/keepalived -D
root 2758 1899 0 05:02 pts/0 00:00:00 grep keepalived
[root@dev2 src]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 10.20.71.65:22122 wrr
-> 10.20.71.150:22122 Local 1 0 0

-> 10.20.71.161:22122 Route 1 0 0

[root@dev2 src]#

```问题现象:VIP(65)+22122不能访问[root@dev2 src]# ./redis-cli -h 10.20.71.65 -p 22122Could not connect to Redis at 10.20.71.65:22122: Connection timed outnot connected> ```真实IP+22122可以访问(应该能证明twemproxy没有问题吧)[root@dev2 src]# ./redis-cli -h 10.20.71.150 -p 2212210.20.71.150:22122> set oo 11OK10.20.71.150:22122> get oo11""10.20.71.150:22122> ```真实IP+redis端口也是可以的(redis应该也没装错)[root@dev2 src]# ./redis-cli -h 10.20.71.150 -p 638910.20.71.150:6389> set pp ppOK10.20.71.150:6389> get pppp""```最后VIP+redis端口也是可以的[root@dev2 src]# ./redis-cli -h 10.20.71.65 -p 638910.20.71.65:6389> keys *1) ""m""2) ""pp""3) ""redisinstallredord""4) ""1""
{""service"":""nutcracker""source"":""dev2""version"":""0.3.0""uptime"":2934timestamp"":1440665580total_connections"":955curr_connections"":2alpha"": {""client_eof"":0client_err"":951client_connections"":1server_ejects"":0forward_error"":0fragments"":0127.0.0.1:6379"": {""server_eof"":0server_err"":0server_timedout"":0server_connections"":1server_ejected_at"":0requests"":4request_bytes"":109responses"":4response_bytes"":26in_queue"":0in_queue_bytes"":0out_queue"":0out_queue_bytes"":0}127.0.0.1:6389"": {""server_eof"":at"":0requests"":0request_bytes"":0responses"":0response_bytes"":0in_queue"":0in_queue_bytes"":0out_queue"":0out_queue_bytes"":0}10.20.71.161:6379"": {""server_eof"":0server_err"":0server_timedout"":0server_connections"":0server_ejected_at"":0requests"":0request_bytes"":0responses"":0response_bytes"":0in_queue"":0in_queue_bytes"":0out_queue"":0out_queue_bytes:0}10.20.71.161:6389"": {""server_eof"":0server_err"":0server_timedout"":0server_connections"":0server_ejected_at"":0requests"":0request_bytes"":0responses"":0response_bytes"":0in_queue"":0in_queue_bytes"":0out_queue"":0out_queue_bytes"":0}}}Connection to host lost.C:WindowsSystem32>telnet 10.20.71.65 22222

telnet个端口IP组合以及应用程序请求和redis-cli表现一致。

求问,为什么最希望访问的组合 VIP+22122(proxy端口)不能访问?????

时间: 2025-01-24 15:30:47

keepalived问题-keepalived+twemproxy +redis问题求教的相关文章

js-离线的QQ在线客服还显示彩色在线图表,如何解决?

问题描述 离线的QQ在线客服还显示彩色在线图表,如何解决? 如题,我用的是QQ推广工具里面QQ客服功能,用的是一下代码: <a target=""_blank"" href=""http://wpa.qq.com/msgrd?v=3&uin=12345678&site=qq&menu=yes""> <img border=""0"" src=&q

利用redis-sentinel+keepalived实现redis高可用

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 .作者信息和本声明.否则将追究法律责任.http://dgd2010.blog.51cto.com/1539422/1742766 目标.需求: 为上层应用提供高可靠.低延迟.低(无限接近0)数据损失的Redis缓存服务 方案概述: 采用同一网络内的三台主机(可以是物理主机.虚拟机或docker容器),要求三台主机之间都能相互访问,每一台主机上都安装redis-server.redis-sentinel和keepalived. re

Nginx反向代理,负载均衡,redis session共享,keepalived高可用

相关知识自行搜索,直接上干货... 使用的资源: nginx主服务器一台,nginx备服务器一台,使用keepalived进行宕机切换. tomcat服务器两台,由nginx进行反向代理和负载均衡,此处可搭建服务器集群. redis服务器一台,用于session的分离共享. nginx主服务器:192.168.50.133 nginx备服务器:192.168.50.135 tomcat项目服务器1:192.168.50.137 tomcat项目服务器2:192.168.50.139 redis服

keepalived构建高可用MySQL-HA

关于MySQL-HA,目前有多种解决方案,比如heartbeat.drbd.mmm.共享存储,但是它们各有优缺点.heartbeat.drbd配置较为复杂,需要自己写脚本才能实现MySQL自动切换,对于不会脚本语言的人来说,这无疑是一种脑裂问题;对于mmm,生产环境中很少有人用,且mmm 管理端需要单独运行一台服务器上,要是想实现高可用,就得对mmm管理端做HA,这样无疑又增加了硬件开支;对于共享存储,个人觉得MySQL数据还是放在本地较为安全,存储设备毕竟存在单点隐患.使用MySQL双mast

Nginx+Keepalived(双机热备)搭建高可用负载均衡环境(HA)

基于 Nginx+Tomcat+Redis负载均衡Session共享来实现后续的功能 个人微信小程序.是关于人工智能的.应用是百度大脑 和 腾讯优图的人脸识别 有问题加QQ:783021975 验证问题写明在哪知道的QQ.直接说问的问题.会在不忙的时候回复你.毕竟我也有自己的工作要做. 一张简单的图说下大概的意思 安装Keepalived到CentOS虚拟机环境(2个虚拟机都安装) 使用的版本为keepalived-1.2.24.tar.gz 为了方便安装,在系统里面提前下载好相关的库 yum

Redis 代理服务Twemproxy

1.twemproxy explore &http://www.aliyun.com/zixun/aggregation/37954.html">nbsp;     当11545.html">我们有大量 Redis 或 Memcached 的时候,通常只能通过客户端的一些数据分配算法(比如一致性哈希),来实现集群存储的特性.虽然Redis 2.6版本已经发布Redis Cluster,但还不是很成熟适用正式生产环境. Redis 的 Cluster 方案还没有正式推

详解利用Keepalived+Nginx解决站点高可用性

背景: 公司官网PV不高,压力不大,所以公司给出两台服务器来提供官网web服务,毕竟是公司门面,不能出现问题!所以就需要一个轻量级web容灾方案! 方案: 利用keepalived+nginx实现官网web的高可用性 两台服务器一台为主,一台为备机,使两台机器公用一个虚拟IP,当主服务器宕机,106.3.32.6这个IP会自动切换到备机上,前端机恢复之后再自动切换回主服务机 然后,主服务机和备机利用rsync实现实时同步数据, rsync的安装配置可以参照我之前的一篇文章:http://cuim

LVS+Keepalived构建高可用负载均衡的测试

一. 启动LVS高可用集群服务 首先,启动每个real server节点的服务: [root@localhost ~]# /etc/init.d/lvsrs  start start LVS  of  REALServer 然后,分别在主备Director Server启动Keepalived服务: [root@DR1 ~]#/etc/init.d/Keepalived  start [root@DR1 ~]#/ ipvsadm -L IP Virtual Server version 1.2.

CENTOS中如何利用Keepalived构建双主MySQL+双机热备

系统环境:CentOS 6.3 x64 MySQL版本:mysql-5.6.10 Keepalived版本:keepalived-1.2.7 MySQL-VIP:192.168.7.253 MySQL-master1:192.168.7.201 MySQL-master2:192.168.7.249 首先关闭iptables和SELINUX # service iptables stop # setenforce 0 # vi /etc/sysconfig/selinux -----------