本文介绍在Docker上配置简单的负载均衡,宿主机为Ubuntu 14.04.2 LTS,两个CentOS容器,宿主机安装Nginx,两台容器安装tomcat7。结构如下:
此方案的原理是将宿主机的端口和docker容器的端口做一个映射(即访问宿主机的某端口会映射到docker容器对应的端口),然后在宿主机通过配置Nginx,即可达到访问宿主机的某端口,按规则分配到指定的服务地址,即完成了负载均衡。
配置步骤
1.准备宿主机,宿主机是Ubuntu 14.04.2 LTS,安装在Vmware中,具体安装方式不做赘述。
2.在宿主机中安装Nginx,直接用如下命令即可。
sudo apt-get install nginx
安装完成后,可以查看Nginx是否安装完成,可以用如下命令查看版本,打印出Nginx版本,则说明安装成功。
$ nginx -v<br>
nginx version: nginx/1.4.6 (Ubuntu)
之后,可以用如下命令启动Nginx服务:
#启动服务
$ sudo service nginx start
#查看服务状态
$ sudo service nginx status
* nginx is running #说明服务是启动状态
在浏览器中访问http://localhost,显示结果如下:
3.下载Docker镜像,用docker pull命令即可,具体镜像操作可参看这篇文章
4.启动一个容器并设置端口映射,其中一台命令如下:
sudo docker run -t -i -p 3222:22 -p 3280:80 87e5b6b3ccc1 /bin/bash
上面的命令是以标准的bash输出方式启动一个容器,设置端口映射,用-p参数,-p 宿主机端口:docker容器端口 ,上面的命令是设置宿主机的3222端口映射到容器的22端口,设置宿主机的3280的端口映射到容器的80端口。
5.在容器中安装jre和tomcat7.0,安装jre
wget -O jre-7u6-linux-x64.rpm http://javadl.sun.com/webapps/download/AutoDL?BundleId=67387
yum install jre-7u6-linux-x64.rpm
查看jre是否安装成功
java -version
java version "1.7.0_06"
Java(TM) SE Runtime Environment (build 1.7.0_06-b24)
Java HotSpot(TM) 64-Bit Server VM (build 23.2-b09, mixed mode)
安装tomcat7.0
wget http://apache.fayea.com/tomcat/tomcat-7/v7.0.65/bin/apache-tomcat-7.0.65.tar.gz
tar -zxvf apache-tomcat-7.0.65.tar.gz
启动tomcat,进入解压目录,cd到bin目录,执行命令并输入如下信息,说明tomcat启动成功
bash startup.sh
Using CATALINA_BASE: /home/apache-tomcat-7.0.65
Using CATALINA_HOME: /home/apache-tomcat-7.0.65
Using CATALINA_TMPDIR: /home/apache-tomcat-7.0.65/temp
Using JRE_HOME: /usr
Using CLASSPATH: /home/apache-tomcat-7.0.65/bin/bootstrap.jar:/home/apache-tomcat-7.0.65/bin/tomcat-juli.jar
Tomcat started.
由于tomcat默认端口是8080,这里设置的是80端口,所以,需要修改默认端口到80,进入tomcat安装目录的conf目录,用vi打开server.xml文件,将如下配置
<Connector port="8080" protocol="HTTP/1.1"
connectionTimeout="20000"
redirectPort="8443" />
修改为
<Connector port="80" protocol="HTTP/1.1"
connectionTimeout="20000"
redirectPort="8443" />
之后,在这台docker容器中,访问http://localhost,可以访问到tomcat主页,说明tomcat安装并配置成功。
6.进入tomcat的webapps/ROOT目录中,由于这个容器的ip为172.17.0.2,创建一个hello.html文件,在文件中写上如下内容“hello this is 172.17.0.2”,然后在宿主机访问http://172.17.0.2/hello.html,显示内容如下:
7.同上面的步骤一致,配置另外一台容器,只是容器启动时设置的映射端口有所区别,命令如下:
sudo docker run -t -i -p 3322:22 -p 3380:80 87e5b6b3ccc1 /bin/bash
最后在这台容器tomcat安装目录的webapps/ROOT目录下创建hello.html文件,因为这台容器的ip为172.17.0.3,所以hello.html文件中填入的内容为“hello this is 170.17.0.3”,之后在宿主机访问http://172.17.0.3/hello.html,显示如下内容:
8.容器配置完成后,剩下的工作就是配置宿主机的Nginx,用来完成负载均衡工作。
进入/etc/nginx目录,用vim编辑nginx.conf,在http节点中增加如下内容:
server {
listen 80;
server_name 192.168.1.106;
location / {
proxy_pass http://blance;
}
}
upstream blance{
server localhost:3280 weight=5;
server localhost:3380 weight=5;
}
首先定义一个upstream,设置web服务器的端口映射和权重,之后定义一个server,监听80端口,server_name为192.168.1.106,这是宿主机的ip地址(可配置成域名),“location /” 意思是监听80端口下的所有请求,并使用上面设置的upstream作为代理。
9.完成以上配置并保存后,在浏览器中访问http://192.168.1.106/hello.html,并刷新页面,会发现页面有时显示“hello this is 172.17.0.3”,有时显示“hello this is 172.17.0.2”,说明配置成功,这样就完成了一个简单的负载均衡环境的配置。
Nginx+Tomcat 负载均衡集群方案
该方案是我之前做过的一个项目生产应用的,目前运行良好,如何您生产使用,请先做好测试。
系统架构图
下载软件包
" ][root@Nginx-node1 src]# cd /usr/local/src
[root@Nginx-node1 src]# wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.02.tar.gz
[root@Nginx-node1 src]# wget http://nginx.org/download/nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# wget http://www.keepalived.org/software/keepalived-1.1.19.tar.gz
[root@Nginx-node1 src]# chmod +x *
[root@Nginx-node1 src]# ls -l
-rwxr-xr-x 1 root root 241437 10-01 17:25 keepalived-1.1.19.tar.gz
-rwxr-xr-x 1 root root 621534 03-04 01:00 nginx-0.8.34.tar.gz
-rwxr-xr-x 1 root root 1247730 03-31 16:31 pcre-8.02.tar.gz
" ][root@Nginx-node1 src]# cd /usr/local/src
[root@Nginx-node1 src]# wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.02.tar.gz
[root@Nginx-node1 src]# wget http://nginx.org/download/nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# wget http://www.keepalived.org/software/keepalived-1.1.19.tar.gz
[root@Nginx-node1 src]# chmod +x *
[root@Nginx-node1 src]# ls -l
-rwxr-xr-x 1 root root 241437 10-01 17:25 keepalived-1.1.19.tar.gz
-rwxr-xr-x 1 root root 621534 03-04 01:00 nginx-0.8.34.tar.gz
-rwxr-xr-x 1 root root 1247730 03-31 16:31 pcre-8.02.tar.gz
安装Nginx
安装Nginx依赖的包
" ][root@Nginx-node1 src]# tar zxvf pcre-8.02.tar.gz
[root@Nginx-node1 src]# cd pcre-8.02
[root@Nginx-node1 pcre-8.02]# ./configure
[root@Nginx-node1 pcre-8.02]# make && make install
" ][root@Nginx-node1 src]# tar zxvf pcre-8.02.tar.gz
[root@Nginx-node1 src]# cd pcre-8.02
[root@Nginx-node1 pcre-8.02]# ./configure
[root@Nginx-node1 pcre-8.02]# make && make install
安装Nginx
" ][root@Nginx-node1 pcre-8.02]# cd ../
[root@Nginx-node1 src]# tar zxvf nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# cd nginx-0.8.34
[root@Nginx-node1 nginx-0.8.34]# ./configure --prefix=/usr/local/nginx \
> --with-http_stub_status_module \
> --with-http_ssl_module
[root@Nginx-node1 nginx-0.8.34]# make && make install
[root@Nginx-node1 ~]# vim /usr/local/nginx/conf/nginx.conf
" ][root@Nginx-node1 pcre-8.02]# cd ../
[root@Nginx-node1 src]# tar zxvf nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# cd nginx-0.8.34
[root@Nginx-node1 nginx-0.8.34]# ./configure --prefix=/usr/local/nginx \
> --with-http_stub_status_module \
> --with-http_ssl_module
[root@Nginx-node1 nginx-0.8.34]# make && make install
[root@Nginx-node1 ~]# vim /usr/local/nginx/conf/nginx.conf
Nginx 配置文件
" ]user website website;
worker_processes 4;
error_log logs/error.log;
pid logs/nginx.pid;
worker_rlimit_nofile 65535;
events {
use epoll;
worker_connections 10240;
}
http {
include mime.types;
default_type application/octet-stream;
server_names_hash_bucket_size 128;
client_header_buffer_size 32k;
large_client_header_buffers 4 32k;
client_max_body_size 8m;
sendfile on;
tcp_nopush on;
keepalive_timeout 60;
tcp_nodelay on;
gzip on;
gzip_min_length 1k;
gzip_buffers 4 16k;
gzip_http_version 1.0;
gzip_comp_level 2;
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;
server_tokens off;
upstream web #设置web集群池
{
ip_hash; #
server 192.168.0.141:8080;
server 192.168.0.142:8080;
server 192.168.0.143:8080;
server 192.168.0.144:8080;
server 192.168.0.145:8080;
server 192.168.0.146:8080;
}
upstream wap #设置wap集群池
{
ip_hash;
server 192.168.0.151:8080;
server 192.168.0.152:8080;
server 192.168.0.153:8080;
server 192.168.0.154:8080;
server 192.168.0.155:8080;
server 192.168.0.156:8080;
}
server {
listen 80;
server_name www.***.com;
location / {
root html;
index index.html index.htm;
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://web; #注意设置在这里
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
server {
listen 80;
server_name wap.***.com;
location / {
root html;
index index.html index.htm;
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://wap; #注意:设置在这里
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
" ]user website website;
worker_processes 4;
error_log logs/error.log;
pid logs/nginx.pid;
worker_rlimit_nofile 65535;
events {
use epoll;
worker_connections 10240;
}
http {
include mime.types;
default_type application/octet-stream;
server_names_hash_bucket_size 128;
client_header_buffer_size 32k;
large_client_header_buffers 4 32k;
client_max_body_size 8m;
sendfile on;
tcp_nopush on;
keepalive_timeout 60;
tcp_nodelay on;
gzip on;
gzip_min_length 1k;
gzip_buffers 4 16k;
gzip_http_version 1.0;
gzip_comp_level 2;
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;
server_tokens off;
upstream web #设置web集群池
{
ip_hash; #
server 192.168.0.141:8080;
server 192.168.0.142:8080;
server 192.168.0.143:8080;
server 192.168.0.144:8080;
server 192.168.0.145:8080;
server 192.168.0.146:8080;
}
upstream wap #设置wap集群池
{
ip_hash;
server 192.168.0.151:8080;
server 192.168.0.152:8080;
server 192.168.0.153:8080;
server 192.168.0.154:8080;
server 192.168.0.155:8080;
server 192.168.0.156:8080;
}
server {
listen 80;
server_name www.***.com;
location / {
root html;
index index.html index.htm;
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://web; #注意设置在这里
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
server {
listen 80;
server_name wap.***.com;
location / {
root html;
index index.html index.htm;
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://wap; #注意:设置在这里
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
Nginx Upstream支持的分配方法
nginx的upstream目前支持5种方式的分配
*1.轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
*2.weight (带权重的)
指定轮询权重,weight和访问比率成正比,用于后端服务器性能不均的情况。
例如:
" ]upstream bakend {
server 192.168.0.141 weight=10;
server 192.168.0.142 weight=10;
}
" ]upstream bakend {
server 192.168.0.141 weight=10;
server 192.168.0.142 weight=10;
}
*3.ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
例如:
" ]upstream bakend {
ip_hash;
server 192.168.0.151:80;
server 192.168.0.152:80;
}
" ]upstream bakend {
ip_hash;
server 192.168.0.151:80;
server 192.168.0.152:80;
}
*4.fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
" ]upstream backend {
server server1;
server server2;
fair;
}
" ]upstream backend {
server server1;
server server2;
fair;
}
*5.url_hash(第三方)
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
" ]upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}
" ]upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}
*设置说明:
每个设备的状态设置为:
1.down 表示单前的server暂时不参与负载
2.weight 默认为1.weight越大,负载的权重就越大。
3.max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
client_body_in_file_only 设置为On 可以讲client post过来的数据记录到文件中用来做debug
client_body_temp_path 设置记录文件的目录 可以设置最多3层目录
location 对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡