搭建LVS负载均衡测试环境

实现负载均衡有很多种方式

  土豪直接F5,性能最好,价格最贵

  没钱也可以使用Apache,Nginx 工作在网络的第四层,虽然性能一般,但是很灵活,比如可以将80端口映射到真实服务器的8080端口.

  还有一种选择LVS ,它工作在网络的第三层,性能较好,非常稳定.

  但是它不能实现端口的重新映射.因为在网络的第三层,并不清楚端口的信息。

  下面的实验搭建了一个LVS负载均衡测试环境,采用DR的方式。

  客户端访问LVS前置机

  这个请求如下

  源MAC(client mac) 目标MAC(DR mac) 源IP(client IP) 目标IP(DR IP,VIP)

  LVS前置机会将报文改写之后转发真实的服务器

  改写如下

  源MAC(client mac) 目标MAX(真实服务器MAC) 源IP(client IP) 目标IP(DR IP,VIP)

  因为真实的服务器将VIP绑定到了环回地址,所以会处理这个请求,并返回响应的报文.

  网络层的源目对掉

  源MAC(真实服务器MAC) 目标MAC(client mac) 源IP(DR IP,VIP) 目标IP(client IP)

  所以LVS DR的本质就是网络层的欺骗。

  实验采用VirtualBox虚拟机,并且配置内部网络,关闭SELinux和防火墙

  首先,在LVS DR前置机上安装ipvsadm命令

  yum install ipvsadm -y

  然后配置两台真实服务器(RealServer)的Http服务

  yum install httpd -y

  service httpd start

  chkconfig httpd on

  并分别改写/var/www/html/index.html的内容为"real server 1"和"real server 2"

  然后在两台真实服务器上执行如下的脚本


vim lvs_real.sh

#!/bin/bash

# description: Config realserver lo and apply noarp

SNS_VIP=192.168.16.199

source /etc/rc.d/init.d/functions

case "$1" in

start)

ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP

/sbin/route add -host $SNS_VIP dev lo:0

echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore

echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce

echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore

echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce

sysctl -p >/dev/null 2>&1

echo "RealServer Start OK"

;;

stop)

ifconfig lo:0 down

route del $SNS_VIP >/dev/null 2>&1

echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore

echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce

echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore

echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce

echo "RealServer Stoped"

;;

*)

echo "Usage: $0 {start|stop}"

exit 1

esac

exit 0

 最后,在DR前置机上执行如下脚本


vim lvs_dr.sh

#!/bin/bash

VIP1=192.168.16.199

RIP1=192.168.16.3

RIP2=192.168.16.4

case "$1" in

start)

echo " start LVS of DirectorServer"

/sbin/ifconfig eth1:0 $VIP1 broadcast $VIP1 netmask 255.255.255.255 broadcast $VIP1 up

/sbin/route add -host $VIP1 dev eth1:0

echo "1" >/proc/sys/net/ipv4/ip_forward

/sbin/ipvsadm -C

/sbin/ipvsadm -A -t $VIP1:80 -s rr

/sbin/ipvsadm -a -t $VIP1:80 -r $RIP1:80 -g -w 1

/sbin/ipvsadm -a -t $VIP1:80 -r $RIP2:80 -g -w 1

/sbin/ipvsadm

;;

stop)

echo "close LVS Directorserver"

echo "0" >/proc/sys/net/ipv4/ip_forward

/sbin/ipvsadm -C

/sbin/ifconfig eth1:0 down

;;

*)

echo "Usage: $0 {start|stop}"

exit 1

esac

  通过client访问LVS前置服务器,可以看到已经实现了负载均衡的效果。

  关于LVS的调度算法,转载自张逸群的博客

  http://www.zhangyiqun.net/56.html

  1. 大锅饭调度(Round-Robin Scheduling RR)

  rr – 纯轮询方式,比较垃圾。把每项请求按顺序在真正服务器中分派。

  2. 带权重的大锅饭调度(Weighted Round-Robin Scheduling WRR)

  wrr -带权重轮询方式。把每项请求按顺序在真正服务器中循环分派,但是给能力较大的服务器分派较多的作业。

  3. 谁不干活就给谁分配(Least-Connection LC)

  lc – 根据最小连接数分派

  4. 带权重的谁不干活就给谁分配(Weighted Least-Connections WLC 默认)

  wlc – 带权重的。机器配置好的权重高。

  5. 基于地区的最少连接调度(Locality-Based Least-Connection

  Scheduling LBLC)

  lblc – 缓存服务器集群。基于本地的最小连接。把请求传递到负载小的服务器上。

  6. 带有复制调度的基于地区的最少连接调度(Locality-Based Least-Connection Scheduling with Replication Scheduling LBLCR)

  lblcr – 带复制调度的缓存服务器集群。某页面缓存在服务器A上,被访问次数极高,而其他缓存服务器负载较低,监视是否访问同一页面,如果是访问同一页面则把请求分到其他服务器。

  7. 目标散列调度(Destination Hash Scheduling DH)

  realserver中绑定两个ip。ld判断来者的ISP商,将其转到相应的IP。

  8. 源散列调度(Source Hash Scheduling SH)

  源地址散列。基于client地址的来源区分。(用的很少)

  9. 最短的期望的延迟(Shortest Expected Delay Scheduling SED)

  基于wlc算法。这个必须举例来说了

  ABC三台机器分别权重123 ,连接数也分别是123。那么如果使用WLC算法的话一个新请求进入时它可能会分给ABC中的任意一个。使用sed算法后会进行这样一个运算

  A:(1+1)/1

  B:(1+2)/2

  C:(1+3)/3

  根据运算结果,把连接交给C 。

  10.最少队列调度(Never Queue Scheduling NQ)

  无需队列。如果有台realserver的连接数=0就直接分配过去,不需要在进行sed运算。

  遇到的问题..

  这个实验看着简单,做了足足半个月,但是还有一些不明白的问题,可能和网络知识的匮乏有关系。

  在DR前置机上不能通过VIP访问真实的服务器

  在DR前置机上执行命令,报错如下

  查看ipvsadm,连接状态是SYN_RECV

  一开始我使用了三台虚拟机,卡在这个地方很长时间。

  后来偶然发现,用第四台虚拟机就可以正常访问了..

最新内容请见作者的GitHub页:http://qaseven.github.io/

时间: 2024-10-23 22:15:07

搭建LVS负载均衡测试环境的相关文章

搭建LVS负载均衡环境,出现SYN_RECV状态的处理

第一次搭建LVS+KEEPALIVED环境时挺顺利的,过一段时间后重新搭建此环境时居然出问题,不管怎么配置修改参数,客户端总是连接不上realserver,通过ipvsadm -lc查看,结果如下: CP 00:54 SYN_RECV h100:12949 192.168.4.200:5678 h104:5678 通过艰难的对比,查找资料,终于找到了问题的原因,在此鄙视一下百度,找出来的资源一点用都没有. 闲话少说,原因如下: realserver的服务监听IP我选择了监听指定的IP,即eth0

LVS+Keepalived构建高可用负载均衡(测试篇)_Linux

一. 启动LVS高可用集群服务 首先,启动每个real server节点的服务: [root@localhost ~]# /etc/init.d/lvsrs start start LVS of REALServer 然后,分别在主备Director Server启动Keepalived服务: [root@DR1 ~]#/etc/init.d/Keepalived start [root@DR1 ~]#/ ipvsadm -L IP Virtual Server version 1.2.1 (s

构建百万访问量电子商务网站:LVS负载均衡(前端四层负载均衡器)

访问量超过100万的电子商务网站技术架构 本连载首篇介绍到电子商务网站高性能.高可用解决方案.从架构图上的方案,应用的是LVS+keepalived负载均衡.实现高性能.高可用解决方案(服务器组成集群,达到负载均衡,高性能.高可用.高可伸缩性的服务器集群)互联网->LVS负载均衡(前端四层负载均衡器). 访问量超过100万的电子商务网站技术架构.PNG图,电子商务网站要承受高访问量,硬件设备的支撑是整个系统的基础.系统软件的支撑也是必不可少的重要组成部分. 本文详细介绍传统WEB前段负载均衡层,

tomcat集群-为什么apache+tomcat搭建的负载均衡服务器集群在部署项目访问请求获取不到数据

问题描述 为什么apache+tomcat搭建的负载均衡服务器集群在部署项目访问请求获取不到数据 为什么apache+tomcat搭建的负载均衡服务器集群在部署项目后的项目路径不对呢,请求获取不到数据我是将项目设置在tomcat的根目录访问路径,输入localhost:8080即可访问到项目的首页,显示正常.Apache弄的是IP访问嘛,通过控制分配请求给集群下的tomcat服务器来访问项目,但是直接使用IP访问请求都获取不到数据,尝试通过IP/项目名也达不到效果.这是什么原因呢. 我当时是按照

centos系统Lvs负载均衡配置详解

实验用三台Vmware下虚拟的centos5.5服务器,一台作为负载调度器(Lvs-server),两台真实web服务器(web1,web2). 一.Lvs-nat实验: 配置IP: 1.window7下与虚拟机相连的网卡配置成8.8.8.1,不虚配置网关. 2.Lvs-server需要配置两块网卡,一块(eth0)模拟与外网连接(本实验下与Windows相连),一块(eth1)与内部真实服务器通信.eth0:8.8.8.8,eth1:192.168.10.1 3.web1:eth0:192.1

windows使用nginx实现网站负载均衡测试实例_win服务器

如果你关注过nginx,必定知道nginx这个软件有什么用的,如果你的网站访问量越来越高,一台服务器已经没有办法承受流量压力,那就增多几台服务器来做负载吧.做网站负载可以买硬件设备来实现,比如F5,不过价格就几十万到上百万,够贵,本文介绍做网站负载的软件是免费的,nginx目前好多门户网站与大访问量的网站都在使用做为HTTP服务器,所以nginx是非常优秀的,下面介绍做负载测试吧.环境:(2台服务器)第一台: CPU:Inter(R) Pentium(R) 4 CPU 2.8G 内存:1G 系统

lvs负载均衡实现机制/ipvs调度算法

八种调度算法: :rr|wrr|lc|wlc|lblc|dh|sh| 轮叫调度(Round-Robin Scheduling) 加权轮叫调度(Weighted Round-Robin Scheduling) 最小连接调度(Least-Connection Scheduling) 加权最小连接调度(Weighted Least-Connection Scheduling) 基于局部性的最少链接(Locality-Based Least Connections Scheduling) 带复制的基于局

【转贴】lvs负载均衡+keepalived高可用性配置详解

国内私募机构九鼎控股打造APP,来就送 20元现金领取地址:http://jdb.jiudingcapital.com/phone.html内部邀请码:C8E245J (不写邀请码,没有现金送)国内私募机构九鼎控股打造,九鼎投资是在全国股份转让系统挂牌的公众公司,股票代码为430719,为"中国PE第一股",市值超1000亿元.    ----------------------------------------------------------------------------

LVS负载均衡

什么是LVSLVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统.是LB(load balance)负载均衡的解决方案.常见的LB有F5.LVS.nginx等,其中F5为硬件解决方案,LVS与nginx都是软件负载均衡解决方案.LVS工作在四层,nginx工作在七层 LVS的工作模式LVS的工作模式大致分为4种:NAT(地址转换).IP TUN(IP隧道).DR(直接路由).FULL-NAT LVS-NAT网络拓扑原理1.用户请求到达dir