用LVS在Linux上搭建负载均衡集群服务

  一、基于NAT的LVS的安装与配置

  1. 硬件需求和网络拓扑


  2.下载软件:

  (1)、内核源代码:需要下载2.4.23以后版本的内核源代码。下载地址为http://www.kerner.org.本文中下载的内核源代为:linux-2.4.30.tar.bz2.

  (2)、用户配置工具ipvsadm,下载地址:http://www.linuxvirtualserver.org/software/ipvs.html.本文下载的是:http://www.linuxvirtualserver.org/software/kernel-2.4/ipvsadm- 1.21-11.tar.gz

  3.安装软件:

  在director(控制器,202.99.59.110)上安装支持LVS的内核和配置工具ipvsadm.

  (1)、在内核配置时以下选项必须选:


  (2)、编译和安装内核

  分别执行: make bzImage;make modules;make modules_install;然后编辑启动配置文件,重新启动系统,在启动时选择新的内核。

  系统启动后要确认内核是否支持ipvs,只需要执行下面的命令即可:grep ip_vs_init /boot/System.map

  (3)、编译和安装ipvsadm

  ln -s /usr/src/linux-2.4.30 /usr/src/linux tar -zxvf ipvsadm-1.21-11.tar.gz

  cd ipvsadm-1.21-11

  make all

  make install

  然后运行:ipvsadm ——version命令,应该有下面的内容输出:

  ipvsadm v1.21 2004/02/23 (compiled with popt and IPVS v1.0.12)

  4. 配置LVS

  (1)、在202.99.59.110上:

  echo "1" >/proc/sys/net/ipv4/ip_forward

  echo "0" >/proc/sys/net/ipv4/conf/all/send_redirects

  echo "0" >/proc/sys/net/ipv4/conf/default/send_redirects

  echo "0" >/proc/sys/net/ipv4/conf/eth0/send_redirects

  echo "0" >/proc/sys/net/ipv4/conf/eth1/send_redirects

  清除ipvsadm表:

  /sbin/ipvsadm -C

  使用ipvsadm安装LVS服务

  #add http to VIP with rr sheduling

  /sbin/ipvsadm -A -t 202.99.59.110:80 -s rr

  增加第一台realserver:

  #forward http to realserver 192.168.10.1 using LVS-NAT (-m), with weight=1

  /sbin/ipvsadm -a -t 202.99.59.110:80 -r 192.168.10.1:80 -m -w 1

  增加第二台realserver:

  #forward http to realserver 192.168.10.2 using LVS-NAT (-m), with weight=1

  /sbin/ipvsadm -a -t 202.99.59.110:80 -r 192.168.10.2:80 -m -w 1

  (2)、realserver配置

  在192.168.10.1(realserver1)和192.168.10.2(realserver2)上分别将其网关设置为192.168.10.254,并分别启动apache服务。

  在客户端使用浏览器多次访问:http://202.99.59.110/,然后再202.99.59.110上运行ipvsadm命令,应该有类似下面的输出:

  IP Virtual Server version 1.0.12 (size=4096)Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConnTCP 202.99.59.110:http rr -> 192.168.10.1:http Masq 1 0 33 -> 192.168.10.2:http Masq 1 0 33

  从上面的结果可以看出,我们的LVS服务器已经成功运行。

  [NextPage]

  二、基于直接路由(DR)的LVS的配置

  1.硬件需求和网络拓扑:


  2.安装软件:

  在director(202.99.59.109)上安装上面的方法安装内核和管理软件。

  3. 配置LVS

  (1)、在202.99.59.109上:

  修改内核运行参数,即修改/etc/sysctl.conf文件的内容如下:net.ipv4.ip_forward = 0 net.ipv4.conf.all.send_redirects = 1net.ipv4.conf.default.send_redirects = 1net.ipv4.conf.eth0.send_redirects = 1然后执行下面的命令是对内核修改的参数立即生效:sysctl -p配置VIP地址:/sbin/ifconfig eth0:0 202.99.59.110 broadcast 202.99.59.110 netmask 255.255.255.255 up/sbin/route add -host 202.99.59.110 dev eth0:0清除ipvsadm表:/sbin/ipvsadm -C使用ipvsadm安装LVS服务:/sbin/ipvsadm -A -t 192.168.1.110:http -s rr增加realserver:#forward http to realserver using direct routing with weight 1/sbin/ipvsadm -a -t 192.168.1.110:http -r 192.168.1.12 -g -w 1/sbin/ipvsadm -a -t 192.168.1.110:http -r 192.168.1.12 -g -w 1

  (2)在realserver1(202.99.59.108)和realserver2(202.99.59.

  107)上做下面的设置。

  修改内核运行参数,即修改/etc/sysctl.conf文件的内容如下:net.ipv4.ip_forward = 0net.ipv4.conf.lo.arp_ignore = 1net.ipv4.conf.lo.arp_announce = 2net.ipv4.conf.all.arp_ignore = 1net.ipv4.conf.all.arp_announce = 2然后执行下面的命令是对内核修改的参数立即生效:sysctl -p配置VIP地址:/sbin/ifconfig lo:0 202.99.59.110 broadcast 202.99.59.110 netmask 255.255.255.255 up/sbin/route add -host 202.99.59.110 dev lo:0

  p>在客户端使用浏览器多次访问:http://202.99.59.110/,然后再202.99.59.110上运行ipvsadm命令,应该有类似下面的输出:

  IP Virtual Server version 1.0.12 (size=4096)Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConnTCP 192.168.100.254:http rr -> 192.168.100.3:http Route 1 0 28 -> 192.168.100.2:http Route 1 0 29

  从上面的结果可以看出,我们的LVS服务器已经成功运行。

  在面的实例中ipvsadm用到的几个参数含义如下:

  -A 增加一个虚拟服务,该服务由协议、IP地址和端口号组成,例如:

  -A -t 202.99.59.110:80 (增加一格虚拟服务,其协议(-t表示tcp,-u表示udp)为TCP、IP为202.99.59.110、端口号为80.

  -s 指定服务采用的算法,常用的算法参数如下:

  rr 轮叫(Round Robin)

  调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务 器,而不管服务器上实际的连接数和系统负载。

  wrr 加权轮叫(Weighted Round Robin)

  调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。

  lc 最少链接(Least Connections)

  调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。

  wlc 加权最少链接(Weighted Least Connections)

  在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。

  lblc 基于局部性的最少链接(Locality-Based Least Connections)

  " 基于局部性的最少链接" 调度算法是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。该算法根据请求的目标IP地址找出该目标IP地址最近使用的服务器,若该服务器是可用的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则用"最少链接"的原则选出一个可用的服务器,将请求发送到该服务器。

  lblcr 带复制的基于局部性最少链接(Locality-Based Least Connections with Replication)

  " 带复制的基于局部性最少链接"调度算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。它与LBLC算法的不同之处是它要维护从一个目标IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP地址到一台服务器的映射。该算法根据请求的目标IP地址找出该目标IP地址对应的服务器组,按"最小连接"原则从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器,若服务器超载;则按"最小连接"原则从这个集群中选出一台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的程度。

  dh 目标地址散列(Destination Hashing)

  "目标地址散列"调度算法根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。

  sh 源地址散列(Source Hashing)

  "源地址散列"调度算法根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。

  /sbin/ipvsadm -a -t 192.168.1.110:http -r 192.168.1.12 -g -w 1

  -a 表示往一个服务内增加一个real server

  -r 指定real server的IP地址

  -w 表示权重

  -g 表示使用DR方式,-m表示NAT方式,-i表示tunneling方式。

时间: 2024-09-11 10:46:35

用LVS在Linux上搭建负载均衡集群服务的相关文章

Shell编程实现Haproxy负载均衡集群的启动和关闭管理

#!/bin/bash #-------------------------Haproxy Server Management Shell script------------------------------------------------ #Authors are from JC #time:2012-10-10 #QQ:408822635 #from  the region Beijng.China. #-------------------------Haproxy Server

服务器负载均衡集群及LVS知识详解

此博文主要介绍集群和负载均衡的基本理论和类别,内容看着比较枯燥.无味的,但是要想成为一个好的linux运维工程师,这些基本理论是必须理解透彻,才会在后来的系统调优和集群架构中得心应手,所以想成为linux运维工程师的我们必须承受得住寂寞~~~嘿嘿,命苦的我们啊!努力学习吧!今天很残酷,明天更残酷,后天会很美好,但不要死在明天晚上! 一.集群简介 集群并不是一个全新的概念,其实早在七十年代计算机厂商和研究机构就开始了对集群系统的研究和开发.由于主要 用于科学工程计算,所以这些系统并不为大家所熟知.

heartbeat+lvs构建高可用负载均衡集群

heartbeat+lvs实现高可用负载均衡原理: 两台heartbeat(ldirectord)主机构成高可用集群,同时监管着lvs(负载均衡集群)整体构成了heartbeat+lvs的高可用负载均衡集群.在使用heartbeat的时候加载了watchdog模块,用来检测heartbeat服务,当heartbeat服务出现故障,会进行重启主机. 注意:但是,当内核崩溃了,watchdog也无能了(modprobe softdog),因为watchdog是基于内核级别的软件服务(相当于软fenc

详解Nginx + Tomcat 反向代理 负载均衡 集群 部署指南_nginx

Nginx是一种服务器软件,也是一种高性能的http和反向代理服务器,同时还是一个代理邮件服务器.也就是说,我们在Nginx上可以发布网站,可以实现负载均衡(提高应答效率,避免服务器崩溃),还可以作为邮件服务器实现收发邮件等功能.而最常见的就是使用Nginx实现负载均衡. Nginx与其他服务器的性能比较: Tomcat服务器面向Java语言,是重量级的服务器,而Nginx是轻量级的服务器.Apache服务器稳定.开源.跨平台,但是Apache服务器不支持高并发,Nginx能支持处理百万级的TC

高可用集群HA及负载均衡集群LB的实现方法

集群是个热门话题,在企业中越来越多地应用Linux操作系统提供邮件.Web.文件存储.数据库等服务,随着Linux应用的日益增长,高可用及http://www.aliyun.com/zixun/aggregation/13996.html">负载均衡Linux集群也在企业中逐步地发展起来.Linux平台的低成本.高性能.高扩展性使得Linux集群能够以低廉的价格很好地满足各种应用的需求. 本文介绍Linux集群的基础知识,集群的分类.在熟悉集群的基础知识后会以RHCS(RedHat Clu

SQL Server数据库服务器负载均衡集群的实现方法

SQL Server数据库服务器http://www.aliyun.com/zixun/aggregation/13996.html">负载均衡集群的实现方法是本文我们主要要介绍的内容,我们知道,SQL Server数据库服务器可以说是应用范围最广的数据库产品,并且越来越多地在大型和比较关键的应用系统中提供服务.当企业应用越来越复杂.数据量越来越大的时候,SQL Server数据库要不停的进行处理.存储.查询的工作,这个时候企业就要考虑SQL Server数据库服务器的性能和速度及安全性了

Nginx + Shiro + Ehcache 实现负载均衡集群(成绩报告查询系统)

项目介绍 最近在做一款产品,对外提供学生成绩报告的查询,支付,查看以及下载等一系列功能,这里就简称成绩报告查询系统吧. 初步参赛人数十万左右,可能会存在相对高的并发同时在线,所以开发阶段就对负载均衡集群做了设计. 当然,涉及到负载均衡集群,就要考虑的Session存储的问题,由于项目本身使用了Ehcache做本地缓存,Shiro对其做了很好的封装,并且Ehcache也是支付分布式缓存同步的.所以,采用Ehcache做session存储暂且是一种实施方案. 关于Ehcache分布式缓存见:http

Haproxy负载均衡集群架构设计的例子

公司最近有一个项目由于用户担心一台单机无法承担最多用户量的使用,要求上应用集群.我们根据应用情况设计了应用集群架构. 架构图如下: 部署应用集群的特点: 1. 前端代理负载均衡 因用户环境基础架构采用虚拟化集群平台,服务器均采用虚拟机实现,所以设计时采用单台Haproxy来实现. 前端选用haproxy:有一最大的特点HTTP第7层键康状态检查,与我们实际需要一致,因经常有应用压力大,应用无法响应的情况,正好通过这一个特性进行健康状态检查,保证用户透明访问.之前有采用haporxy的主备模式做双

Haproxy负载均衡集群架构设计一例

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 .作者信息和本声明.否则将追究法律责任.http://koumm.blog.51cto.com/703525/1282152 公司最近有一个项目由于用户担心一台单机无法承担最多用户量的使用,要求上应用集群.我们根据应用情况设计了应用集群架构. 架构图如下: 部署应用集群的特点: 1. 前端代理负载均衡 因用户环境基础架构采用虚拟化集群平台,服务器均采用虚拟机实现,所以设计时采用单台Haproxy来实现. 前端选用haproxy:有一