lvs的tun模式实验

三台虚拟机来做lvs的负载均衡实验,vm01是负载均衡器,只有一块网卡,vm02和vm03是真正的web服务器,他们的关系 ,这里和nat模式的lvs之间的区别就是他们之间的服务器ip地址可以在一个网段。这里就是传说中的tun隧道模式

vm01

eth0:192.168.1.200

vip:192.168.1.30

vm02

eth1:192.168.1.201

vm03

eth1:192.168.1.202

一,负载均衡器安装

IPVS是整个负载均衡的基础,如果没有这个基础,那么故障隔离和失败切换就没有意义

[root@vm01 ~]# yum install -y ipvsadm

[root@vm01 ~]# lsmod |grep ip_vs

[root@vm01 ~]# modprobe ip_vs

[root@vm01 ~]# lsmod |grep ip_vs

ip_vs     122241 0

这里不能靠进程来判断是不是加载了ip_vs模块,因为这里就是一个命令,没有产生进程。

二,创建lvs tun模式启动脚本

[root@vm01 ~]# vim /etc/init.d/lvstun

#!/bin/bash

VIP=192.168.1.30

RIP1=192.168.1.201

RIP2=192.168.1.202

case "$1" in

start)

echo "start LVS of DirectorServer tun"

/sbin/iptables -F

/sbin/ipvsadm -C

/sbin/ifconfig tunl0 $VIP  broadcast $VIP netmask 255.255.255.255 up

/sbin/route add -host $VIP dev tunl0

/sbin/ipvsadm -A -t $VIP:80 -s rr

/sbin/ipvsadm -a -t $VIP:80 -r $RIP1 -i

/sbin/ipvsadm -a -t $VIP:80 -r $RIP2 -i

/sbin/ipvsadm

;;

stop)

echo "stop LVS of DirectorServer tun"

echo "0" >/proc/sys/net/ipv4/ip_forward

/sbin/ipvsadm -C

/sbin/ifconfig tunl0 down

;;

*)

echo "error"

exit 1

esac

[root@vm01 ~]#chmod  a+x /etc/init.d/lvstun

查看本栏目更多精彩内容:http://www.bianceng.cnhttp://www.bianceng.cn/Servers/virtualization/

时间: 2024-12-27 11:21:48

lvs的tun模式实验的相关文章

lvs的nat模式实验

三台虚拟机来做lvs的负载均衡实验,vm01是负载均衡器,vm02和vm03是真正的web服务器,他们的关系 vm01 eth0:192.168.1.200 eth1:192.168.87.140   (其中192.168.87.0网段可以连接外网) vip:192.168.87.30   vm02 eth1:192.168.1.201  (gateway:192.168.1.200) vm03 eth1:192.168.1.202  (gateway:192.168.1.200) 一,负载均衡

lvs的dr模式详解

lvs的dr模式详细讲解 一,环境介绍 三台虚拟机来做lvs的负载均衡实验,vm01是负载均衡器,只有一块网卡,vm02和vm03是真正的web服务器 vm01 eth0:192.168.46.131 vip:192.168.46.200 vm02 eth1:192.168.46.130 vm03 eth1:192.168.46.134 二,lvs的dr模式的工作原理 官方的原理说明:Director接收用户的请求,然后根据负载均衡算法选取一台realserver,将包转发过去,最后由reals

LVS三种模式与八种调度算法

三种LVS负载均衡模式 1.NAT模式网络地址转换,工作在网络层(三层),只有VIP是公网IP,其余都是私网IP,Real Server指定LVS为网关,LVS开启路由转发,源和目标地址转换,数据的进出期间,无论是进来的流量,还是出去的流量,都必须经过DR,会产生一种瓶颈,适合小网络,规模10台左右. 工作原理: 1>.用户发送请求报文到LVS的VIP上,VIP选择一个Real Server,并记录连接信息到hash表中,然后修改用户的请求报文的目的IP地址为Real Server的地址,将请求

openvpn tun模式下客户端与内网机器通信

一.实际问题 先来介绍下目前的基本情况,如下: 1.openvpn服务器单网卡,通过硬件防火墙把openvpn服务器的1194端口映射到公网. 2.openvpn服务器所在的网段为192.168.5.1/24网段 3.openvpn客户端获得IP地址为10.8.0.1/24网段 要求10.8.0.1/24网段能访问192.168.5.1/24网段的服务器. 通过前两篇文章,可知我们现在的openvpn客户端已经可以正常连接openvpn服务器,但是还不能和公司内网的其他机器进行正常通信.如下:

简介LVS的NAT模式+DR模式的存储挂载

一:LVS群集简介: lvs(linux virtual server)Linux的虚拟服务 Internet的快速增长使多媒体网络服务器面对的访问数量快速增加,服务器需要具备提供大量并发访问服务的能力,因此对于大负载的服务器来讲, CPU.I/O处理能力很快会成为瓶颈.由于单台服务器的性能总是有限的,简单的提高硬件性能并不能真正解决这个问题.为此,必须采用多服务器和负载均衡技术才能满足大量并发访问的需要.Linux 虚拟服务器(Linux Virtual Servers,LVS) 使用负载均衡

linux下的lvs三种模式及配置

  lvs:linux virtual server,linux虚拟服务器.是linux平台下的负载均衡软件. 优点:a.开源,免费b.在网上能找到相关技术资源c.具有软件负载均衡的优点. 技术简介: lvs集群采用IP负载均衡技术和基于内容请求分发技术.调度器具有很好的吞吐率,将请求均衡的转移到不同的服务器上执行,调度器自动屏蔽服务器的故障,从而将一组服务器构成一个高性能的高可用的虚拟服务器.整个服务器集群的结构对客户是透明的,无需修改客户端和服务器端的程序. 集群的三层架构: A.负载调度器

Linux救援模式实验实例

Linux的救援模式对于linux遇到一些如内核问题/fstab等配置文件以及磁盘fsck错误等造成的系统无法启动时的一个有效救援模式被广泛使用.这就省去了我们重装系统和架构这项复杂耗时的工作了. 下面就来演示一下其过程吧,希望对于大家以后工作会有帮助. 实验描述:一台计算机因为xen内核和selinux冲突,不被计算机系统接受,无法启动 1/将安装光盘放入光驱,让计算机从光驱启动.到达安装界面,按F5进入救援模式. 2/进入救援模式之后,输入linux rescue然后按enter键,启动救援

IPvs的高可用性+LVS的DR模式+ldirectord

ldirectord简介:为了从主Director将LVS负载均衡资源故障转移到备用Director,并从集群中自动移除节点,我们需要使用ldirectord程序,这个程序在启动时自动建立IPVS表,然后监视集群节点的健康情况,在发现失效节点时将其自动从IPVS表中移除. ldirectord监视集群(真实服务器):ldirectord守护进程通过向每台真实服务器真实IP(RIP)上的集群资源发送访问请求来实现对真实服务器的监控,这对所有类型的LVS集群都是成立的:LVS-DR,LVS-NAT和

CentOS6.5高可用集群LVS+Keepalived(DR模式)

环境介绍 操作系统:CentOS6.5_x64 mini 负载均衡模式:DR(直接路由) LVS与Keepalived简述: LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统.使用集群技术和Linux操作系统实现一个高性能.高可用的服务器,很好的可伸缩性.可靠性和管理性. LVS集群采用IP负载均衡技术和基于内容请求分发技术.调度器具有很好的吞吐率,将请求均衡地转移到不同的服务器上执行,且调度器自动屏蔽掉服务器的故障,从而将一组服务器构