Nginx与Tomcat实现动静态分离和负载均衡_nginx

本文介绍了Nginx与Tomcat实现动静态分离和负载均衡,所谓动静分离就是通过nginx(或apache等)来处理用户端请求的图片、html等静态的文件,tomcat(或weblogic)处理jsp、do等动态文件,从而达到动静页面访问时通过不同的容器来处理。

一.Nginx简介:

Nginx一个高性能的HTTP和反向代理服务器, 具有很高的稳定性和支持热部署、模块扩展也很容易。当遇到访问的峰值,或者有人恶意发起慢速连接时,也很可能会导致服务器物理内存耗尽频繁交换,失去响应,只能重启服务器,Nginx采取了分阶段资源分配技术,处理静态文件和无缓存的反向代理加速,实现了负载均衡和容错,在这样高并发的访问情况下,能经受起高并发的处理。

二.Nginx安装与配置

第一步:下载Nginx 安装包   http://nginx.org/en/download.html

第二步:在linux上安装Nginx

#tar zxvf nginx-1.7.8.tar.gz //解压

#cd nginx-1.7.8

#./configure --with-http_stub_status_module --with-http_ssl_module//启动server状态页和https模块

会报缺少PCRE library错误,如图所示:

这时先执行第三步安装PCRE ,然后在3执行一下,这就可以了

4.make && make install //编译并安装

5.测试一下安装配置是否正确,Nginx安装在/usr/local/nginx

#/usr/local/nginx/sbin/nginx -t,如图所示:

第三步:在linux上安装PCRE

#tar zxvf pcre-8.10.tar.gz //解压

cd pcre-8.10

./configure

make && make install//编译并安装

三.Nginx +Tomcat 实现动静态分离

 动静态分离就是Nginx处理客户端的请求的静态页面(html页面)或者图片,Tomcat处理客户端请求的动态页面(jsp页面),因为Nginx处理的静态页面的效率高于Tomcat。

第一步:我们要配置Nginx文件

 #vi /usr/local/nginx/conf/nginx.conf

 #user nobody;
worker_processes 1;
error_log logs/error.log;
pid    logs/nginx.pid; 

events {
  use epoll;
  worker_connections 1024;
} 

http {
  include    mime.types;
  default_type application/octet-stream;
  log_format main '$remote_addr - $remote_user [$time_local] "$request" '
           '$status $body_bytes_sent "$http_referer" '
           '"$http_user_agent" "$http_x_forwarded_for"'; 

  access_log logs/access.log main;
  sendfile    on;
keepalive_timeout 65;
gzip on;
gzip_min_length 1k;
gzip_buffers   4 16k;
gzip_http_version 1.0;
gzip_comp_level 2;
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;
  server {
    listen    80 default;
    server_name localhost;
    <span style="color:#ff0000;"> location ~ .*\.(html|htm|gif|jpg|jpeg|bmp|png|ico|txt|js|css)$ //由nginx处理静态页面</span>
       {
         root  /usr/tomcat/apache-tomcat-8081/webapps/ROOT;
          expires   30d; //缓存到客户端30天
        }
    error_page 404       /404.html; 

    #redirect server error pages to the static page /50x.html 

    error_page  500 502 503 504 /50x.html;
    location = /50x.html {
      root  html;
    }
     <span style="color:#ff0000;"> location ~ \.(jsp|do)$ {//所有jsp的动态请求都交给Tomcat处理 </span>
      <span style="color:#ff0000;"> proxy_pass http://192.168.74.129:8081; //来自jsp或者do的后缀的请求交给tomcat处理</span>
      proxy_redirect off;
      proxy_set_header Host $host;  //后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      client_max_body_size 10m;  //允许客户端请求的最大单文件字节数
      client_body_buffer_size 128k; //缓冲区代理缓冲用户端请求的最大字节数
       proxy_connect_timeout 90;  //nginx跟后端服务器连接超时时间
       proxy_read_timeout 90;   //连接成功后,后端服务器响应时间
       proxy_buffer_size 4k;   //设置代理服务器(nginx)保存用户头信息的缓冲区大小
       proxy_buffers 6 32k;    //proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
      proxy_busy_buffers_size 64k;//高负荷下缓冲大小(proxy_buffers*2)
      proxy_temp_file_write_size 64k; //设定缓存文件夹大小,大于这个值,将从upstream服务器传
    } 

  }  

}

第二步:在tomcat 下的webapps/ROOT下新建index.html静态页面,如图所示:

第三步:启动Nginx服务

 #sbin/nginx   如图所示:

第四步:我们页面访问http://192.168.74.129/index.html 能正常显示正常的内容,如图所示:

第五步:测试Nginx 和Tomcat高并发的情况下处理静态页面性能如何?

采用了 Linux  ab网站压力测试命令来测试一下性能

1.测试一下Nginx 处理静态页面的性能

ab -c 100 -n 1000 http://192.168.74.129/index.html

 这个表示同时处理100个请求并运行1000次index.html文件,如图所示:

2.测试一下Tomcat处理静态页面的性能

ab -c 100 -n 1000 http://192.168.74.129:8081/index.html

这个表示同时处理100个请求并运行1000次index.html文件,如图所示:

相同的处理静态文件,Nginx处理的静态性能比Tomcat 好。Nginx每秒能请求5388次,而tomcat只请求2609次。

总结:我们在Nginx配置文件中,配置静态交给Nginx处理,动态请求交给Tomcat,提供了性能。

四.Nginx +Tomcat 负载均衡与容错

我们在高并发的情况下,为了提高服务器的性能,减少了单台服务器的并发压力,我们采用了集群部署,还能解决为了避免单台服务器挂掉,服务不能访问这种情况下,处理容错问题。

 第一步:我们这边部署了两天tomcat服务器,192.168.74.129:8081和192.168.74.129:8082

 第二步:Nginx作为了代理服务器,客服端请求服务器端时,采用了负载均衡来处理,这样就能平均的把客服端请求分发到每一天服务器,这样减少服务器端的压力。配置Nginx下的nginx.conf文件。

  #vi /usr/local/nginx/conf/nginx.conf

 

 #user nobody;
worker_processes 1;
error_log logs/error.log;
pid    logs/nginx.pid; 

events {
  use epoll;
  worker_connections 1024;
} 

http {
  include    mime.types;
  default_type application/octet-stream;
  log_format main '$remote_addr - $remote_user [$time_local] "$request" '
           '$status $body_bytes_sent "$http_referer" '
           '"$http_user_agent" "$http_x_forwarded_for"'; 

  access_log logs/access.log main;
  sendfile    on;
keepalive_timeout 65;
gzip on;
gzip_min_length 1k;
gzip_buffers   4 16k;
gzip_http_version 1.0;
gzip_comp_level 2;
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;
<span style="color:#ff0000;">upstream localhost_server {
    ip_hash;
    server 192.168.74.129:8081;
    server 192.168.74.129:8082;
  }</span> 

  server {
    listen    80 default;
    server_name localhost;
    <span style="color:#ff0000;"> location ~ .*\.(html|htm|gif|jpg|jpeg|bmp|png|ico|txt|js|css)$ //由nginx处理静态页面</span>
       {
         root  /usr/tomcat/apache-tomcat-8081/webapps/ROOT;
          expires   30d; //缓存到客户端30天
        }
    error_page 404       /404.html; 

    #redirect server error pages to the static page /50x.html 

    error_page  500 502 503 504 /50x.html;
    location = /50x.html {
      root  html;
    }
     <span style="color:#ff0000;">location ~ \.(jsp|do)$ {//所有jsp的动态请求都交给Tomcat处理 </span>
      <span style="color:#ff0000;">proxy_pass http://localhost_server; //来自jsp或者do的后缀的请求交给tomcat处理</span>
      proxy_redirect off;
      proxy_set_header Host $host;  //后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      client_max_body_size 10m;  //允许客户端请求的最大单文件字节数
      client_body_buffer_size 128k; //缓冲区代理缓冲用户端请求的最大字节数
       proxy_connect_timeout 90;  //nginx跟后端服务器连接超时时间
       proxy_read_timeout 90;   //连接成功后,后端服务器响应时间
       proxy_buffer_size 4k;   //设置代理服务器(nginx)保存用户头信息的缓冲区大小
       proxy_buffers 6 32k;    //proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
      proxy_busy_buffers_size 64k;//高负荷下缓冲大小(proxy_buffers*2)
      proxy_temp_file_write_size 64k; //设定缓存文件夹大小,大于这个值,将从upstream服务器传
    } 

  }  

}

说明:

1.upstream 中的server是指向服务器的IP(域名)和端口,后面还可以带参数

1)weight :设置服务器的转发权重 默认值是1。

2)max_fails : 是与fail_timeout配合使用,是指在fail_timeout时间段内,如果服务器转发失败次数超过max_fails设置的值,这台服务器就不                     可用,max_fails默认值是1

3)fail_timeout :表示在该时间段内转发失败多少次就认为这台服务器不能用。

4)down:表示这台服务器不能用。

 5)backup:表示使ip_hash设置的针对这台服务器无效,只有在所有非备份的服务器都失效后,才会向服务器转发请求。

 2.ip_hash 设置是在集群的服务器中,如果同一个客户端请求转发到多个服务器上,每台服务器可能缓存同一份信息,这会造成资源的浪费,采用的ip_hash设置会把同一个客户端第二次请求相同的信息时,会转发到第一次请求的服务器端。但ip_hash不能和weight 同时使用。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。

以上是小编为您精心准备的的内容,在的博客、问答、公众号、人物、课程等栏目也有的相关内容,欢迎继续使用右上角搜索按钮进行搜索nginx
负载均衡
nginx tomcat负载均衡、nginxtomcat负载均衡、nginx负载均衡配置、nginx 负载均衡、nginx tcp 负载均衡,以便于您获取更多的相关知识。

时间: 2024-08-22 14:33:13

Nginx与Tomcat实现动静态分离和负载均衡_nginx的相关文章

详解Ngigx+Tomcat配置动静分离,负载均衡_nginx

由于公司使用过Ngnix,对于刚接触Nginx来说,感觉有些好奇,于是研究了下. 本人在windows下使用的版本是nginx-1.8.1: 1. 启动Ngnix 双击nginx-1.8.1文件夹中nginx.exe,当任务管理器中存在两个nginx进程时,则说明启动成功! 2. Ngnix常用命令 nginx -s stop 强制关闭 nginx -s quit 安全关闭 nginx -s reload 改变配置文件的时候,重启nginx工作进程,来时配置文件生效   nginx -s reo

使用 NGINX 和 NGINX Plus 的 Ingress Controller 进行 Kubernetes 的负载均衡

本文讲的是使用 NGINX 和 NGINX Plus 的 Ingress Controller 进行 Kubernetes 的负载均衡[编者的话]本文描述了由 NGINX 和 NGINX Plus 实现的 Ingress Controller,完全支持了 Ingress 特性,使用 Ingress 将外部流量负载到集群内的服务,并提供了扩展来支持额外的负载均衡需求. 运行和管理跨机器集群的大规模的容器微服务应用是一个极具挑战的任务.Kubernetes 提供了一个强大的容器编排解决方案,从而帮助

MaxScale:实现MySQL读写分离与负载均衡的中间件利器

  1 MaxScale 是干什么的?  配置好了MySQL的主从复制结构后,我们希望实现读写分离,把读操作分散到从服务器中,并且对多个从服务器能实现负载均衡.   读写分离和负载均衡是MySQL集群的基础需求,MaxScale 就可以帮着我们方便的实现这些功能.       2 MaxScale 的基础构成  MaxScale 是MySQL的兄弟公司 MariaDB 开发的,现在已经发展得非常成熟.MaxScale 是插件式结构,允许用户开发适合自己的插件.   MaxScale 目前提供的插

MySQL数据库实现读写分离与负载均衡

MySQL 数据库的读写分离和负载均衡一般是通过第三方软件来实现的. 也可以通过mysql驱动程序来实现,如com.mysql.jdbc.ReplicationDriver. 详细文档参见:http://dev.mysql.com/doc/refman/5.5/en/connector-j-info.html  代码如下 复制代码 import java.sql.Connection; import java.sql.ResultSet; import java.util.Properties;

Nginx + Tomcat 动静分离实现负载均衡(转)

0.前期准备 使用Debian环境.安装Nginx(默认安装),一个web项目,安装tomcat(默认安装)等. 1.一份Nginx.conf配置文件 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Nginx为Tomcat服务器作反向代理的配置教程_nginx

web上的server都叫web server,但是大家分工也有不同的. nginx常用做静态内容服务和代理服务器(不是你FQ那个代理),直面外来请求转发给后面的应用服务(tomcat,django什么的),tomcat更多用来做做一个应用容器,让java web app跑在里面的东西,对应同级别的有jboss,jetty等东西. 但是事无绝对,nginx也可以通过模块开发来提供应用功能,tomcat也可以直接提供http服务,通常用在内网和不需要流控等小型服务的场景. apache用的越来越少

nginx+iis实现简单的负载均衡_nginx

最近在研究分布式系统架构方面的知识,包括负载均衡,数据库读写分离,分布式缓存redis等.本篇先从负载均衡服务架构入手,关于负载均衡百度百科的定义如下:负载均衡,英文名称为Load Balance,其意思就是分摊到多个操作单元上进行执行,例如Web服务器.FTP服务器.企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务. 我的解释:一项任务交由一个开发人员处理总会有上限处理能力,这时可以考虑增加开发人员来共同处理这项任务,多人处理同一项任务时就会涉及到调度问题,即任务分配,这和多线程

Tomcat集群的三种负载均衡方式优缺点对照。

1.使用DNS轮询.2.使用Apache R-proxy方式.3.使用Apache mod_jk方式. DNS轮询的缺点是,当集群中某台服务器停止之后,用户由于dns缓存的缘故,便无法访问服务,必须等到dns解析更新,或者这台服务器重新启动.还有就是必须把集群中的所有服务端口暴露给外界,没有用apache做前置代理的方式安全,并且占用大量公网IP地址,而且tomcat还要负责处理静态网页资源,影响效率.优点是集群配置最简单,dns设置也非常简单. R-proxy的缺点是,当其中一台tomcat停

tengine + tomcat 安装整合实现高可用负载均衡

先介绍下tengine Tengine是由淘宝网发起的Web服务器项目.它在Nginx的基础上,针对大访问量网站的需求,添加了很多高级功能和特性.Tengine的性能和稳定性已经在大型的网站如淘宝网,天猫商城等得到了很好的检验.它的最终目标是打造一个高效.稳定.安全.易用的Web平台. 好,在做之前呢,说下为什么要做这个东西 1.nginx反向代理不需要tomcat的IP是否为外网IP,只要nginx server能和tomcat进行通讯,安全的同时减少了不必要的外网ip 2.当tomcat宕掉