Haproxy负载均衡集群架构设计的例子

公司最近有一个项目由于用户担心一台单机无法承担最多用户量的使用,要求上应用集群。我们根据应用情况设计了应用集群架构。

架构图如下:

部署应用集群的特点:

1. 前端代理负载均衡

因用户环境基础架构采用虚拟化集群平台,服务器均采用虚拟机实现,所以设计时采用单台Haproxy来实现。

前端选用haproxy:有一最大的特点HTTP第7层键康状态检查,与我们实际需要一致,因经常有应用压力大,应用无法响应的情况,正好通过这一个特性进行健康状态检查,保证用户透明访问。之前有采用haporxy的主备模式做双机主备应用集群。主备模式也是haproxy的一大特点。

本方案是采用负载均衡模式采用source模式。

2. 应用服务器会话复制

配置jboss 应用会话复制功能,保证用户登录会话三台服务器共享。

3. 共享存储空间

更多精彩内容:http://www.bianceng.cnhttp://www.bianceng.cn/Servers/web/

共享存储空间是集群应用的一个必备的功能,这里采用nfs来实现。用来实现代码与附件等数据一致。

4. haproxy配置要点文件记录如下:

(1) 取消将日志记录在/var/log/messages目录中

默认会也将haproxy日志记录在/var/log/message中,要去掉。

# vi /etc/syslog.conf
local3.*                       /var/log/haproxy.log
local0.*                       /var/log/haproxy.log
*.info;mail.none;authpriv.none;cron.none;local3.none      /var/log/messages

(2) haproxy日志切割

haproyx日志切割脚本,没有现成的,就专门写了一个日志切割脚本来实现每天的日志切割,加入到计划任务中,一定要su root -c 强制root权限执行。如果要保留访问日志,可以修改脚本实现。

#!/bin/bash
# author: koumm
# desc:
# date: 2013-01-31
# version: v1.0
# modify:
# cut haproxy log
mv /var/log/haproxy.log /var/log/haproxy.log.bak
if [ -e /var/log/haproxy.log.bak ]; then
logrotate -f /etc/logrotate.conf
chown nobody:nobody /var/log/haproxy.log
chmod +x /var/log/haproxy.log
fi
sleep 1
if [ -e /var/log/haproxy.log ]; then
rm -rf /var/log/haproxy.log.bak
fi

(3) haproxy配置文件记录

global
log    127.0.0.1   local0
maxconn 65535
chroot /usr/local/haproxy
uid 99
gid 99
stats socket /usr/local/haproxy/HaproxSocket level admin
daemon
nbproc 1
pidfile /usr/local/haproxy/haproxy.pid
#debug
defaults
log    127.0.0.1    local3
mode   http
option httplog
option httplog clf
option httpclose
#option dontlognull
option forwardfor
option redispatch
retries 2
maxconn 2000
balance source
#balance roundrobin
stats   uri     /haproxy-stats
stats   refresh 10s
contimeout      5000
clitimeout      50000
srvtimeout      50000
listen  APP_Cluster 0.0.0.0:80
mode http
option httpchk GET /test.html HTTP/1.0\r\nHost:192.168.0.110
server 192.168.0.111_node1  192.168.0.111:80 weight 3 check inter 2000 rise 2 fall 1
server 192.168.0.112_node2  192.168.0.112:80 weight 3 check inter 2000 rise 2 fall 1
server 192.168.0.113_node3  192.168.0.113:80 weight 3 check inter 2000 rise 2 fall 1
listen  stats_auth 0.0.0.0:91
mode  http
stats enable
stats uri  /admin
stats realm "LOGIN"
stats auth  admin:123456
#stats hide-version
stats refresh 10s
stats admin if TRUE

本文出自 “koumm的linux技术博客” 博客,请务必保留此出处http://koumm.blog.51cto.com/703525/1282152

以上是小编为您精心准备的的内容,在的博客、问答、公众号、人物、课程等栏目也有的相关内容,欢迎继续使用右上角搜索按钮进行搜索应用
, 集群
, 负载均衡
, log
, haproxy
, 集群日志
stats
haproxy负载均衡原理、haproxy tcp 负载均衡、haproxy 负载均衡、haproxy udp 负载均衡、haproxy四层负载均衡,以便于您获取更多的相关知识。

时间: 2024-09-17 04:16:07

Haproxy负载均衡集群架构设计的例子的相关文章

Haproxy负载均衡集群架构设计一例

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 .作者信息和本声明.否则将追究法律责任.http://koumm.blog.51cto.com/703525/1282152 公司最近有一个项目由于用户担心一台单机无法承担最多用户量的使用,要求上应用集群.我们根据应用情况设计了应用集群架构. 架构图如下: 部署应用集群的特点: 1. 前端代理负载均衡 因用户环境基础架构采用虚拟化集群平台,服务器均采用虚拟机实现,所以设计时采用单台Haproxy来实现. 前端选用haproxy:有一

Shell编程实现Haproxy负载均衡集群的启动和关闭管理

#!/bin/bash #-------------------------Haproxy Server Management Shell script------------------------------------------------ #Authors are from JC #time:2012-10-10 #QQ:408822635 #from  the region Beijng.China. #-------------------------Haproxy Server

Nginx + Shiro + Ehcache 实现负载均衡集群(成绩报告查询系统)

项目介绍 最近在做一款产品,对外提供学生成绩报告的查询,支付,查看以及下载等一系列功能,这里就简称成绩报告查询系统吧. 初步参赛人数十万左右,可能会存在相对高的并发同时在线,所以开发阶段就对负载均衡集群做了设计. 当然,涉及到负载均衡集群,就要考虑的Session存储的问题,由于项目本身使用了Ehcache做本地缓存,Shiro对其做了很好的封装,并且Ehcache也是支付分布式缓存同步的.所以,采用Ehcache做session存储暂且是一种实施方案. 关于Ehcache分布式缓存见:http

服务器负载均衡集群及LVS知识详解

此博文主要介绍集群和负载均衡的基本理论和类别,内容看着比较枯燥.无味的,但是要想成为一个好的linux运维工程师,这些基本理论是必须理解透彻,才会在后来的系统调优和集群架构中得心应手,所以想成为linux运维工程师的我们必须承受得住寂寞~~~嘿嘿,命苦的我们啊!努力学习吧!今天很残酷,明天更残酷,后天会很美好,但不要死在明天晚上! 一.集群简介 集群并不是一个全新的概念,其实早在七十年代计算机厂商和研究机构就开始了对集群系统的研究和开发.由于主要 用于科学工程计算,所以这些系统并不为大家所熟知.

详解Nginx + Tomcat 反向代理 负载均衡 集群 部署指南_nginx

Nginx是一种服务器软件,也是一种高性能的http和反向代理服务器,同时还是一个代理邮件服务器.也就是说,我们在Nginx上可以发布网站,可以实现负载均衡(提高应答效率,避免服务器崩溃),还可以作为邮件服务器实现收发邮件等功能.而最常见的就是使用Nginx实现负载均衡. Nginx与其他服务器的性能比较: Tomcat服务器面向Java语言,是重量级的服务器,而Nginx是轻量级的服务器.Apache服务器稳定.开源.跨平台,但是Apache服务器不支持高并发,Nginx能支持处理百万级的TC

heartbeat+lvs构建高可用负载均衡集群

heartbeat+lvs实现高可用负载均衡原理: 两台heartbeat(ldirectord)主机构成高可用集群,同时监管着lvs(负载均衡集群)整体构成了heartbeat+lvs的高可用负载均衡集群.在使用heartbeat的时候加载了watchdog模块,用来检测heartbeat服务,当heartbeat服务出现故障,会进行重启主机. 注意:但是,当内核崩溃了,watchdog也无能了(modprobe softdog),因为watchdog是基于内核级别的软件服务(相当于软fenc

SQL Server数据库服务器负载均衡集群的实现方法

SQL Server数据库服务器http://www.aliyun.com/zixun/aggregation/13996.html">负载均衡集群的实现方法是本文我们主要要介绍的内容,我们知道,SQL Server数据库服务器可以说是应用范围最广的数据库产品,并且越来越多地在大型和比较关键的应用系统中提供服务.当企业应用越来越复杂.数据量越来越大的时候,SQL Server数据库要不停的进行处理.存储.查询的工作,这个时候企业就要考虑SQL Server数据库服务器的性能和速度及安全性了

高可用集群HA及负载均衡集群LB的实现方法

集群是个热门话题,在企业中越来越多地应用Linux操作系统提供邮件.Web.文件存储.数据库等服务,随着Linux应用的日益增长,高可用及http://www.aliyun.com/zixun/aggregation/13996.html">负载均衡Linux集群也在企业中逐步地发展起来.Linux平台的低成本.高性能.高扩展性使得Linux集群能够以低廉的价格很好地满足各种应用的需求. 本文介绍Linux集群的基础知识,集群的分类.在熟悉集群的基础知识后会以RHCS(RedHat Clu

用Carp实现故障转移和负载均衡集群

这两天在详细的看man carp文档.发现原来carp不仅仅可以实现故障转移(failover)集群,通过简单配置还是可以先本地局域网的负载均衡. carp的负载均衡使用的是arpbalance功能,从字面意思理解为使用arp的负载均衡,也就是说是属于osi7层模型的第二层--数据链路层.所以用arpbalance 只能应用于本地局域网,无法实现更高层次的balance. 其原理大致如下 两台服务器a.b,分别建立两个carp虚拟网卡a1.a2.b1.b2,其中a1.b1为一个carp组(即相同