Nignx 连接tomcat时会话粘性问题分析

在多台后台服务器的环境下,我们为了确保一个客户只和一台服务器通信,我们势必使用长连接。使用什么方式来实现这种连接呢,常见的有使用nginx自带的ip_hash来做,我想这绝对不是一个好的办法,如果前端是CDN,或者说一个局域网的客户同时访问服务器,导致出现服务器分配不均衡,以及不能保证每次访问都粘滞在同一台服务器。如果基于cookie会是一种什么情形,想想看, 每台电脑都会有不同的cookie,在保持长连接的同时还保证了服务器的压力均衡。

问题分析:
1. 一开始请求过来,没有带session信息,jvm_route就根据round robin的方法,发到一台tomcat上面。
2. tomcat添加上session 信息,并返回给客户。 
3. 用户再此请求,jvm_route看到session中有后端服务器的名称,它就把请求转到对应的服务器上。

暂时jvm_route模块还不支持默认fair的模式。jvm_route的工作模式和fair是冲突的。对于某个特定用户,当一直为他服务的 tomcat宕机后,默认情况下它会重试max_fails的次数,如果还是失败,就重新启用round robin的方式,而这种情况下就会导致用户的session丢失。

总的说来,jvm_route是通过session_cookie这种方式来实现session粘性,将特定会话附属到特定tomcat上,从而解决session不同步问题,但无法解决宕机后会话转移问题。
假如没有这个jvm_route,用户再请求的时候,由于没有session信息,nignx就会再次随机的发送请求到后端的tomcat服务器,这种情况,对于普通的页面访问是没有问题的。对于带有登录验证信息的请求,其结果就是永远登录不了应用服务器。
这个模块通过session cookie的方式来获取session粘性。如果在cookie和url中并没有session,则这只是个简单的round-robin 负载均衡。

要解决以上类似的问题,从网上查了下,大致有如下几种方式:

1)ip_hash(不推荐使用)

 nginx中的ip_hash技术能够将某个ip的请求定向到同一台后端,这样一来这个ip下的某个客户端和某个后端就能建立起稳固的session,ip_hash是在upstream配置中定义的: 

 

Java代码  

  1. upstream backend {   
  2.     server 192.168.12.10:8080 ;   
  3.     server 192.168.12.11:9090 ;   
  4.     ip_hash;   
  5.     }   

 不推荐使用的原因如下:

  1/ nginx不是最前端的服务器。

   ip_hash要求nginx一定是最前端的服务器,否则nginx得不到正确ip,就不能根据ip作hash。譬如使用的是squid为最前端,那么nginx取ip时只能得到squid的服务器ip地址,用这个地址来作分流是肯定错乱的。 

    2/ nginx的后端还有其它方式的负载均衡。

   假如nginx后端又有其它负载均衡,将请求又通过另外的方式分流了,那么某个客户端的请求肯定不能定位到同一台session应用服务器上。

   3/ 多个外网出口。

    很多公司上网有多个出口,多个ip地址,用户访问互联网时候自动切换ip。而且这种情况不在少数。使用 ip_hash 的话对这种情况的用户无效,无法将某个用户绑定在固定的tomcat上 。

 

2)nginx_upstream_jvm_route(nginx扩展,推荐使用) ——我试了下1.8版本的,发现新的版本已经不支持了!!!擦。。不过1.4.2的版本据说是支持的。

nginx_upstream_jvm_route 是一个nginx的扩展模块,用来实现基于 Cookie 的 Session Sticky 的功能。

简单来说,它是基于cookie中的JSESSIONID来决定将请求发送给后端的哪个server,nginx_upstream_jvm_route会在用户第一次请求后端server时,将响应的server标识绑定到cookie中的JSESSIONID中,从而当用户发起下一次请求时,nginx会根据JSESSIONID来决定由哪个后端server来处理。

 

1/ nginx_upstream_jvm_route安装

下载地址(svn):http://nginx-upstream-jvm-route.googlecode.com/svn/trunk/

假设nginx_upstream_jvm_route下载后的路径为/usr/local/nginx_upstream_jvm_route,

(1)进入nginx源码路径

patch -p0 < /usr/local/nginx_upstream_jvm_route/jvm_route.patch

(2)./configure  --with-http_stub_status_module --with-http_ssl_module --prefix=/usr/local/nginx --with-pcre=/usr/local/pcre-8.33 --add-module=/usr/local/nginx_upstream_jvm_route

(3)make & make install

2/ nginx配置

Java代码  

  1. upstream  tomcats_jvm_route  
  2.         {  
  3.              # ip_hash;   
  4.               server   192.168.33.10:8090 srun_id=tomcat01;   
  5.               server   192.168.33.11:8090 srun_id=tomcat02;  
  6.               jvm_route $cookie_JSESSIONID|sessionid reverse;  
  7.         }  

 3/ tomcat配置

修改192.168.33.10:8090tomcat的server.xml,

Xml代码  

  1. 将  
  2. <Engine name="Catalina" defaultHost="localhost" >  
  3. 修改为:  
  4. <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat01">  

 同理,在192.168.33.11:8090server.xml中增加jvmRoute="tomcat02"。

4/ 测试

启动tomcat和nginx,访问nginx代理,使用Google浏览器,F12,查看cookie中的JSESSIONID,

形如:ABCD123456OIUH897SDFSDF.tomcat01 ,刷新也不会变化

3)基于cookie的Nginx Sticky模块

时间: 2024-10-25 05:58:47

Nignx 连接tomcat时会话粘性问题分析的相关文章

Nignx 连接tomcat时会话粘性问题分析及解决方法_nginx

在多台后台服务器的环境下,我们为了确保一个客户只和一台服务器通信,我们势必使用长连接.使用什么方式来实现这种连接呢,常见的有使用nginx自带的ip_hash来做,我想这绝对不是一个好的办法,如果前端是CDN,或者说一个局域网的客户同时访问服务器,导致出现服务器分配不均衡,以及不能保证每次访问都粘滞在同一台服务器.如果基于cookie会是一种什么情形,想想看, 每台电脑都会有不同的cookie,在保持长连接的同时还保证了服务器的压力均衡. 问题分析: 1. 一开始请求过来,没有带session信

手机连接tomcat服务器的问题

问题描述 手机连接tomcat服务器的问题 用的是家里的路由器,手机ip是192.168.1.104,电脑是192.168.1.105,在电脑上面输入http://192.168.1.105:8080是可以的,但是在手机上面就不可以了. 解决方案 已经解决啦-- 防火墙那边的问题 解决方案二: 手机浏览器打不开?换个手机浏览器app呢. 打不开时页面提示什么错误信息,要分析一下. 解决方案三: 因为手机和电脑不一样,或者换个手机浏览器呢,看一下有用没,如果还是这样就要分析一下 解决方案四: 因为

java-tomcat启动时会拉起war包,war包在连接oracle时卡住

问题描述 tomcat启动时会拉起war包,war包在连接oracle时卡住 tomcat的启动日志 INFO: Initializing c3p0 pool... com.mchange.v2.c3p0.ComboPooledDataSource [ acquireIncrement -> 1 acquireRetryAttempts -> 5 acquireRetryDelay -> 500 autoCommitOnClose -> true automaticTestTabl

tcp连接-TCP连接关闭时怎么少了一次挥手ACK

问题描述 TCP连接关闭时怎么少了一次挥手ACK 1) 先启动tcpdump抓包 tcpdump -p -vv -s 0 -w capture.pcap host 42.62.41.195 2) 利用telnet登陆"水木"社区来观察TCP的3次握手连接建立和4次挥手连接关闭 telnet 42.62.41.195 3) 用wireshark分析抓取的封包capture.pcap发现TCP连接关闭时少了1次挥手ACK

PHP连接MSSQL时nvarchar字段长度被截断为255的解决方法_php技巧

本文实例讲述了PHP连接MSSQL时nvarchar字段长度被截断为255的解决方法.分享给大家供大家参考.具体分析如下: PHP 连接 MSSQL 的新手经常遇到这个问题:数据库里面的 nvarchar 字段中数据一切正常,但是用 PHP 查询出来却发现长度只有 255,我们都知道,在 MySQL 里面 varchar 的长度只有 255,但是 MSSQL 却不是,不会是 PHP 将 nvarchar 按照 MySQL 的 varchar 处理了吧. 本文给出了解决方法: 复制代码 代码如下:

mysql jsp-jsp连接mysql时运行sql语句失败

问题描述 jsp连接mysql时运行sql语句失败 四月 01, 2016 12:51:30 下午 org.apache.catalina.core.StandardWrapperValve invoke 严重: Servlet.service() for servlet [jsp] in context with path [/Test] threw exception [An exception occurred processing JSP page /register.jsp at li

Tomcat 远程代码执行漏洞分析(CVE-2017-12615)及补丁 Bypass

本文讲的是Tomcat 远程代码执行漏洞分析(CVE-2017-12615)及补丁 Bypass, (注:图片来源于网络) Apache Tomcat 修复了2个严重级别的漏洞, 分别为: 信息泄露漏洞(CVE-2017-12616).远程代码执行漏洞(CVE-2017-12615),在某些场景下,攻击者将分别能通过这两个漏洞,获取用户服务器上 JSP 文件的源代码,或是通过精心构造的攻击请求,向用户服务器上传恶意 JSP 文件,通过上传的 JSP 文件 ,可在用户服务器上执行任意代码. 漏洞概

Tomcat系统部署启动问题分析一例[sudo 启动]

今天的系统获取新的版本后部署时突然tomcat无法启动,而比较版本的变化内容,也就是几个jsp和js文件的变化,对于web.xml等都没有调整. 这个问题很是奇怪,下面把步骤总结一下,以避免类似的问题再次发生. 1 现象描述 已经发布的系统,IDE下运行正常,使用tomcat本身的startup.sh启动也正常 但是使用sudo start.sh 启动,日志中出现类似如下信息 StandardContext Start Server: Error filterStart 造成系统无法进入 2 解

tomcat-为什么我的myeclipse2014使用自己配置的Tomcat时,无法部署项目

问题描述 为什么我的myeclipse2014使用自己配置的Tomcat时,无法部署项目 配置文件和错误信息如上,尝试百度的好多方法,都得不到解决,谁能帮我看看,谢谢啦. 解决方案 感谢大家,我找到问题了,myeclipse2014配置自己安装的tomcat要把tomcat安装在某盘(我安装在C盘)根目录,如:C:Tomcat 7.0.以前安装在默认路径下,老出错.现在好啦,如果还有其他朋友遇到这个问题,就试试重新安装tomcat到根目录吧. 解决方案二: tomcat中无法部署myeclips