使用Docker+nginx+tomcat7配置负载均衡步骤

本文介绍在Docker上配置简单的负载均衡,宿主机为Ubuntu 14.04.2 LTS,两个CentOS容器,宿主机安装Nginx,两台容器安装tomcat7。结构如下:

此方案的原理是将宿主机的端口和docker容器的端口做一个映射(即访问宿主机的某端口会映射到docker容器对应的端口),然后在宿主机通过配置Nginx,即可达到访问宿主机的某端口,按规则分配到指定的服务地址,即完成了负载均衡。

配置步骤

1.准备宿主机,宿主机是Ubuntu 14.04.2 LTS,安装在Vmware中,具体安装方式不做赘述。

2.在宿主机中安装Nginx,直接用如下命令即可。

sudo apt-get install nginx

安装完成后,可以查看Nginx是否安装完成,可以用如下命令查看版本,打印出Nginx版本,则说明安装成功。

$ nginx -v<br>
nginx version: nginx/1.4.6 (Ubuntu)

之后,可以用如下命令启动Nginx服务:

#启动服务
$ sudo service nginx start
 
#查看服务状态
$ sudo service nginx status
* nginx is running   #说明服务是启动状态

在浏览器中访问http://localhost,显示结果如下:

 

3.下载Docker镜像,用docker pull命令即可,具体镜像操作可参看这篇文章  

4.启动一个容器并设置端口映射,其中一台命令如下:

sudo docker run -t -i -p 3222:22 -p 3280:80 87e5b6b3ccc1 /bin/bash

上面的命令是以标准的bash输出方式启动一个容器,设置端口映射,用-p参数,-p 宿主机端口:docker容器端口 ,上面的命令是设置宿主机的3222端口映射到容器的22端口,设置宿主机的3280的端口映射到容器的80端口。

5.在容器中安装jre和tomcat7.0,安装jre

wget -O jre-7u6-linux-x64.rpm http://javadl.sun.com/webapps/download/AutoDL?BundleId=67387
 
yum install jre-7u6-linux-x64.rpm

查看jre是否安装成功

java -version
java version "1.7.0_06"
Java(TM) SE Runtime Environment (build 1.7.0_06-b24)
Java HotSpot(TM) 64-Bit Server VM (build 23.2-b09, mixed mode)

安装tomcat7.0

wget http://apache.fayea.com/tomcat/tomcat-7/v7.0.65/bin/apache-tomcat-7.0.65.tar.gz
tar -zxvf  apache-tomcat-7.0.65.tar.gz

启动tomcat,进入解压目录,cd到bin目录,执行命令并输入如下信息,说明tomcat启动成功

bash startup.sh
Using CATALINA_BASE:   /home/apache-tomcat-7.0.65
Using CATALINA_HOME:   /home/apache-tomcat-7.0.65
Using CATALINA_TMPDIR: /home/apache-tomcat-7.0.65/temp
Using JRE_HOME:        /usr
Using CLASSPATH:       /home/apache-tomcat-7.0.65/bin/bootstrap.jar:/home/apache-tomcat-7.0.65/bin/tomcat-juli.jar
Tomcat started.

由于tomcat默认端口是8080,这里设置的是80端口,所以,需要修改默认端口到80,进入tomcat安装目录的conf目录,用vi打开server.xml文件,将如下配置

<Connector port="8080" protocol="HTTP/1.1"
              connectionTimeout="20000"
              redirectPort="8443" />

修改为

<Connector port="80" protocol="HTTP/1.1"
              connectionTimeout="20000"
              redirectPort="8443" />

之后,在这台docker容器中,访问http://localhost,可以访问到tomcat主页,说明tomcat安装并配置成功。

6.进入tomcat的webapps/ROOT目录中,由于这个容器的ip为172.17.0.2,创建一个hello.html文件,在文件中写上如下内容“hello this is 172.17.0.2”,然后在宿主机访问http://172.17.0.2/hello.html,显示内容如下:

7.同上面的步骤一致,配置另外一台容器,只是容器启动时设置的映射端口有所区别,命令如下:
   
sudo docker run -t -i -p 3322:22 -p 3380:80 87e5b6b3ccc1 /bin/bash

最后在这台容器tomcat安装目录的webapps/ROOT目录下创建hello.html文件,因为这台容器的ip为172.17.0.3,所以hello.html文件中填入的内容为“hello this is 170.17.0.3”,之后在宿主机访问http://172.17.0.3/hello.html,显示如下内容:

8.容器配置完成后,剩下的工作就是配置宿主机的Nginx,用来完成负载均衡工作。

进入/etc/nginx目录,用vim编辑nginx.conf,在http节点中增加如下内容:

server {
                listen 80;
                server_name 192.168.1.106;
                location  / {
                        proxy_pass http://blance;
                }
        }
 
        upstream blance{
                server localhost:3280 weight=5;
                server localhost:3380 weight=5;
        }

首先定义一个upstream,设置web服务器的端口映射和权重,之后定义一个server,监听80端口,server_name为192.168.1.106,这是宿主机的ip地址(可配置成域名),“location /” 意思是监听80端口下的所有请求,并使用上面设置的upstream作为代理。

9.完成以上配置并保存后,在浏览器中访问http://192.168.1.106/hello.html,并刷新页面,会发现页面有时显示“hello this is 172.17.0.3”,有时显示“hello this is 172.17.0.2”,说明配置成功,这样就完成了一个简单的负载均衡环境的配置。

Nginx+Tomcat 负载均衡集群方案

该方案是我之前做过的一个项目生产应用的,目前运行良好,如何您生产使用,请先做好测试。

系统架构图

下载软件包

" ][root@Nginx-node1 src]# cd /usr/local/src
[root@Nginx-node1 src]# wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.02.tar.gz
[root@Nginx-node1 src]# wget http://nginx.org/download/nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# wget http://www.keepalived.org/software/keepalived-1.1.19.tar.gz
[root@Nginx-node1 src]# chmod +x *
[root@Nginx-node1 src]# ls -l
-rwxr-xr-x 1 root root  241437 10-01 17:25 keepalived-1.1.19.tar.gz
-rwxr-xr-x 1 root root  621534 03-04 01:00 nginx-0.8.34.tar.gz
-rwxr-xr-x 1 root root 1247730 03-31 16:31 pcre-8.02.tar.gz

" ][root@Nginx-node1 src]# cd /usr/local/src
[root@Nginx-node1 src]# wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.02.tar.gz
[root@Nginx-node1 src]# wget http://nginx.org/download/nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# wget http://www.keepalived.org/software/keepalived-1.1.19.tar.gz
[root@Nginx-node1 src]# chmod +x *
[root@Nginx-node1 src]# ls -l
-rwxr-xr-x 1 root root  241437 10-01 17:25 keepalived-1.1.19.tar.gz
-rwxr-xr-x 1 root root  621534 03-04 01:00 nginx-0.8.34.tar.gz
-rwxr-xr-x 1 root root 1247730 03-31 16:31 pcre-8.02.tar.gz

安装Nginx

安装Nginx依赖的包

" ][root@Nginx-node1 src]# tar zxvf pcre-8.02.tar.gz
[root@Nginx-node1 src]# cd pcre-8.02
[root@Nginx-node1 pcre-8.02]# ./configure
[root@Nginx-node1 pcre-8.02]# make &amp;&amp; make install

" ][root@Nginx-node1 src]# tar zxvf pcre-8.02.tar.gz
[root@Nginx-node1 src]# cd pcre-8.02
[root@Nginx-node1 pcre-8.02]# ./configure
[root@Nginx-node1 pcre-8.02]# make &amp;&amp; make install

安装Nginx

" ][root@Nginx-node1 pcre-8.02]# cd ../
[root@Nginx-node1 src]# tar zxvf nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# cd nginx-0.8.34
[root@Nginx-node1 nginx-0.8.34]# ./configure --prefix=/usr/local/nginx \
&gt; --with-http_stub_status_module \
&gt; --with-http_ssl_module
[root@Nginx-node1 nginx-0.8.34]# make &amp;&amp; make install
[root@Nginx-node1 ~]# vim /usr/local/nginx/conf/nginx.conf

" ][root@Nginx-node1 pcre-8.02]# cd ../
[root@Nginx-node1 src]# tar zxvf nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# cd nginx-0.8.34
[root@Nginx-node1 nginx-0.8.34]# ./configure --prefix=/usr/local/nginx \
&gt; --with-http_stub_status_module \
&gt; --with-http_ssl_module
[root@Nginx-node1 nginx-0.8.34]# make &amp;&amp; make install
[root@Nginx-node1 ~]# vim /usr/local/nginx/conf/nginx.conf

Nginx 配置文件

" ]user  website website;
worker_processes  4;

error_log  logs/error.log;
pid        logs/nginx.pid;
worker_rlimit_nofile 65535;

events {
    use epoll;
    worker_connections  10240;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    server_names_hash_bucket_size 128;
    client_header_buffer_size 32k;
    large_client_header_buffers 4 32k;
    client_max_body_size 8m;
    sendfile on;
    tcp_nopush     on;
    keepalive_timeout 60;
    tcp_nodelay on;

    gzip on;
    gzip_min_length  1k;
    gzip_buffers     4 16k;
    gzip_http_version 1.0;
    gzip_comp_level 2;
    gzip_types       text/plain application/x-javascript text/css application/xml;
    gzip_vary on;

    server_tokens off;

upstream web  #设置web集群池

{
ip_hash; #
server 192.168.0.141:8080;
server 192.168.0.142:8080;
server 192.168.0.143:8080;
server 192.168.0.144:8080;
server 192.168.0.145:8080;
server 192.168.0.146:8080;

}

upstream wap  #设置wap集群池
{
ip_hash;
server 192.168.0.151:8080;
server 192.168.0.152:8080;
server 192.168.0.153:8080;
server 192.168.0.154:8080;
server 192.168.0.155:8080;
server 192.168.0.156:8080;

}

    server {
        listen       80;
        server_name  www.***.com;

        location / {
            root   html;
            index  index.html index.htm;
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://web;  #注意设置在这里
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

    }

server {
        listen       80;
       server_name  wap.***.com;

        location / {
            root   html;
            index  index.html index.htm;
            proxy_redirect off;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_pass http://wap;  #注意:设置在这里
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

    }
}

" ]user  website website;
worker_processes  4;
 
error_log  logs/error.log;
pid        logs/nginx.pid;
worker_rlimit_nofile 65535;
 
events {
    use epoll;
    worker_connections  10240;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    server_names_hash_bucket_size 128;
    client_header_buffer_size 32k;
    large_client_header_buffers 4 32k;
    client_max_body_size 8m;
    sendfile on;
    tcp_nopush     on;
    keepalive_timeout 60;
    tcp_nodelay on;
 
    gzip on;
    gzip_min_length  1k;
    gzip_buffers     4 16k;
    gzip_http_version 1.0;
    gzip_comp_level 2;
    gzip_types       text/plain application/x-javascript text/css application/xml;
    gzip_vary on;
 
    server_tokens off;
 
upstream web  #设置web集群池
{
ip_hash; #
server 192.168.0.141:8080;
server 192.168.0.142:8080;
server 192.168.0.143:8080;
server 192.168.0.144:8080;
server 192.168.0.145:8080;
server 192.168.0.146:8080;
 
}
 
upstream wap  #设置wap集群池
{
ip_hash;
server 192.168.0.151:8080;
server 192.168.0.152:8080;
server 192.168.0.153:8080;
server 192.168.0.154:8080;
server 192.168.0.155:8080;
server 192.168.0.156:8080;
 
}
 
    server {
        listen       80;
        server_name  www.***.com;
 
        location / {
            root   html;
            index  index.html index.htm;
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://web;  #注意设置在这里
        }
 
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
 
    }
 
server {
        listen       80;
       server_name  wap.***.com;
 
        location / {
            root   html;
            index  index.html index.htm;
            proxy_redirect off;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_pass http://wap;  #注意:设置在这里
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
 
    }
}

Nginx Upstream支持的分配方法

nginx的upstream目前支持5种方式的分配

*1.轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

*2.weight (带权重的)

指定轮询权重,weight和访问比率成正比,用于后端服务器性能不均的情况。

例如:

" ]upstream bakend {
server 192.168.0.141 weight=10;
server 192.168.0.142 weight=10;
}

" ]upstream bakend {
server 192.168.0.141 weight=10;
server 192.168.0.142 weight=10;
}

*3.ip_hash

每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。

例如:

" ]upstream bakend {
ip_hash;
server 192.168.0.151:80;
server 192.168.0.152:80;
}

" ]upstream bakend {
ip_hash;
server 192.168.0.151:80;
server 192.168.0.152:80;
}

*4.fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

" ]upstream backend {
server server1;
server server2;
fair;
}

" ]upstream backend {
server server1;
server server2;
fair;
}

*5.url_hash(第三方)

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法

" ]upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}

" ]upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}

  
*设置说明:

每个设备的状态设置为:

1.down 表示单前的server暂时不参与负载
2.weight 默认为1.weight越大,负载的权重就越大。
3.max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
client_body_in_file_only 设置为On 可以讲client post过来的数据记录到文件中用来做debug
client_body_temp_path 设置记录文件的目录 可以设置最多3层目录
location 对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡

时间: 2024-10-28 13:45:18

使用Docker+nginx+tomcat7配置负载均衡步骤的相关文章

windows下nginx+tomcat配置负载均衡的方法_nginx

目标:Nginx做为HttpServer,连接多个tomcat应用实例,进行负载均衡. 注:本例程以一台机器为例子,即同一台机器上装一个nginx和2个Tomcat且安装了JDK1.7. 1.安装Nginx 安装Nginx教程 2.配置两个Tomcat 在本机上配置两个Tomcat,分别为tomcat7-8081.tomcat7-8082. tomcat7-8081访问地址:http://localhost:8081,浏览显示内容:this is 8081 port tomcat7-8082访问

如何使用 Weave 以及 Docker 搭建 Nginx 反向代理/负载均衡服务器

Hi, 今天我们将会学习如何使用 Weave 和 Docker 搭建 Nginx 的反向代理/负载均衡服务器.Weave 可以创建一个虚拟网络将 Docker 容器彼此连接在一起,支持跨主机部署及自动发现.它可以让我们更加专注于应用的开发,而不是基础架构.Weave 提供了一个如此棒的环境,仿佛它的所有容器都属于同个网络,不需要端口/映射/连接等的配置.容器中的应用提供的服务在 weave 网络中可以轻易地被外部世界访问,不论你的容器运行在哪里.在这个教程里我们将会使用 weave 快速并且简单

Nginx配置负载均衡及反向代理

简单介绍: 1.Nginx优点 Nginx 负均衡实现比较简单,可配置性很强,可以按URL做负载均衡,默认对后端有健康检查的能力.后端机器少的情况下(少于10台)负载均衡能力表现好.其优点主要有: 1)功能强大,支持高并发连接,内存消耗少:官方测试能够支撑5万并发连接,在实际生产环境中跑到2-3 万并发连接数,且在3万并发连接下,开启的10个Nginx 进程才消耗150M内存(15M*10=150M). 2)成本低廉:Nginx 为开源软件,免费使用. 3)Nginx 工作在网络的7 层,所以它

Nginx配置负载均衡

一,Nginx常用命令            1) 启动Nginx:start nginx 2) 停止Nginx:nginx -s stop 3) 修改配置后重启:nginx -s reload 二,以Tomcat服务器为例进行负载均衡设置     为了简单,我直接在windows解压了个nginx-1.10.0.zip.     之后再myeclipse里面部署了同一个项目,为了方便,第一个项目我设置的起始页面为:      /*测试nginx*/ @RequestMapping("/home

Linux环境下Nginx 通过upstream如何配置负载均衡以及实现

一,服务器准备情况,四台: 1,前段服务器: 192.168.1.112  hosts定向测试域名nginx.21yunwei.com 192.168.1.113 备用前端服务器. 后端web服务器池web_pools: 192.168.1.102 192.168.1.103 2,环境:统一centos 6 前端服务器安装nginx.环境安装这里就不写了,可以参考文章<linux下如何安装nginx环境配置>部署nginx环境. 后端web服务器 池统一安装apache:yum install

Nginx/LVS/HAProxy 负载均衡软件的优缺点详解

Nginx/LVS/HAProxy 负载均衡软件的优缺点详解 Nginx/LVS/HAProxy是目前使用最广泛的三种负载均衡软件,本人都在多个项目中实施过,参考了一些资料,结合自己的一些使用经验,总结一下. 一般对负载均衡的使用是随着网站规模的提升根据不同的阶段来使用不同的技术.具体的应用需求还得具体分析,如果是中小型的Web应用,比如日PV小于1000万,用Nginx就完全可以了:如果机器不少,可以用DNS轮询,LVS所耗费的机器还是比较多的:大型网站或重要的服务,且服务器比较多时,可以考虑

在容器服务中如何暴露服务到公网并配置负载均衡

在容器服务中,暴露应用提供的服务到公网有两种选择,一种是通过系统默认的路由应用acsrouting暴露服务到公网,适用的场景是:普通且简单的7层协议负载均衡,web页面访问路由服务,容器集群内服务之间7层协议互相访问的通信代理和负载均衡.另外一种是通过自定义SLB方式暴露服务,这种方式是属于较高级的功能,适用的场景是:4层协议负载均衡,自定义各服务的路由,在将传统架构迁移到容器架构过程中非容器集群的服务访问容器集群中容器的服务.下面分别以举例的方式介绍这些暴露服务到公网并配置负载均衡的能力. 如

Nginx几种负载均衡算法及配置实例

Nginx负载均衡(工作在七层"应用层")功能主要是通过upstream模块实现,Nginx负载均衡默认对后端服务器有健康检测的能力,仅限于端口检测,在后端服务器比较少的情况下负载均衡能力表现突出. Nginx的几种负载均衡算法: 1.轮询(默认):每个请求按时间顺序逐一分配到不同的后端服务器,如果后端某台服务器宕机,则自动剔除故障机器,使用户访问不受影响. 2.weight:指定轮询权重,weight值越大,分配到的几率就越高,主要用于后端每台服务器性能不均衡的情况. 3.ip_ha

详解Nginx中的geo模块与利用其配置负载均衡的示例_nginx

geo指令使用ngx_http_geo_module模块提供的.默认情况下,nginx有加载这个模块,除非人为的 --without-http_geo_module. ngx_http_geo_module模块可以用来创建变量,其值依赖于客户端IP地址.geo指令语法: geo [$address] $variable { ... } 默认值: - 配置段: http 定义从指定的变量获取客户端的IP地址.默认情况下,nginx从$remote_addr变量取得客户端IP地址,但也可以从其他变量