云计算分布式服务器负载均衡原理

  许多企业组织正在和IT人员谈论,关于向云环境转移和/或使用虚拟机技术,从而获得更好的可扩展性。能够根据需求访问更多的资源,让您的企业拥有向内部和外部客户提供卓越的最终用户体验的能力。应用程序可以运行得更快,并且可在处理网络流量高峰时减少中断服务。

  在分布式服务器的世界里,负载均衡是任何系统可扩展性功能的核心方面。长期的负载均衡工作的秘诀是自动化。让我们一起来看看在负载平衡的基础。然后,我们可以看看自动化是如何使程序更快,更便宜,更有效的。

  什么是负载均衡?它是如何工作的?

  负载平衡将网站流量分送到多个服务器,以帮助确保资源得到有效利用,并确保每次都没有服务器的工作负载过重。服务器网络之间分配需求,可以限制时间延迟和提高响应速度。有了负载平衡,如果一个或多个服务器由于故障或日常维护而宕机,应用程序将不一定会被彻底关闭。相反,余下的服务器会直接接过任务。你可以在本地布置多台服务器,或者你也可以选择云网络模型里面的分布式服务器。

  在分布式计算云里面,服务器可以位于许多不同的地理区域的安全数据中心中。即使一个数据中心遭受了自然灾害,仍然会有大量分布在其他地方可用的服务器来处理工作量。利用拥有一个完整的基础设施即服务(IaaS)包的私有云,负载平衡能够为一个特定的企业客户保留的一组专用服务器。

  在公共云中,您的IP流量与许多其他客户一起在广泛分布的网络服务器上负载平衡。从一个真正的可扩展性的角度来看,在公共云中负载均衡可能是最容易的,因为你可以从主要云服务提供商那里得到无限的服务器资源。当然,检查的任何潜在的云服务提供商的业绩记录也是很重要的,以确保他们的客户真正有体验到轻松的可扩展性需求的经验。

  关注可扩展性并不意味着整个程序必须转移到云上。也有可以利用的混合选项。

  例如,亚马逊提供了2个EC2(亚马逊弹性云端运算)版本的Zeus(流量管理器和简单的负载均衡器),允许企业和小型企业客户根据需求在云上均衡网络流量负载。这给客户提供了两种选择,正常流量的时候使用本地服务器,而流量高峰期则暂时扩展到云上。

  与厂商探讨负载均衡

  在购买可扩展性负载平衡工具时需要询问的一些功能:

  具有收集在分配工作量中使用的详细实时统计数据的能力。单独使用历史数据作出预测,是一个万无一失方式,防止猜测错误。

  一个虚拟的网络环境,表现为一个单一的服务器设备资源。当涉及到管理云应用程序时,这是一个重要的特性。一个简单的界面,使管理任务变得更容易。

  负载均衡服务,可以在应用层“看到”负载,而不是仅仅在实例层。在云中可能存在大量的应用实例同时运行时,这是可扩展性中的一个方面。

  负载平衡器本身具有创建新实例的能力,并且在必要的时候配置平衡器满足客户的要求。理想的情况下,应该有一个应用程序编程接口(API)支持特定业务应用程序的高度集成。

  负载平衡包括监控功能,以识别不健康的应用实例,并且把它重新定向到健康的实例。仅仅因为一个服务器或应用程序是“可用的”,并不意味着它处于最佳运作状态。

  自动扩展的能力,基于预设的阈值,使更多额外的虚拟服务器能够被添加--当有新的服务器时,能够在现有的和新加入的服务器之间自动重新均衡工作量。这种重新均衡应该发生任何服务中断,重新启动,或IT方面需要的其他请求的时候。

  自动化问题

  在云上负载平衡从理论上听起来非常好。但它不是由于魔法而发生的。例如,一个企业组织可能会选择追求在存储区域网络(SAN)上存储整合,以更好地利用服务器硬件资源。有许多公司已经尝试过这种方法,发现他们不断地重新延展工作量,以避免空间或存储的限制。

  这是一个劳动密集型,重复的任务,随着时间的推移,数据量趋于增加,并且工作量本身也处于波动状态。手动处理此过程中涉及到分析当前和预测的容量和性能需求,提供额外的存储配置,重新配置应用程序,关闭和重新启动服务器和应用程序等。每次当工作量有显着的变化时,或一些服务器将超过负载,而另一些保持空闲时,就必须重复这个过程。

  在这种情况下,总是会有资源消耗,但没有被有效使用。负载均衡任务也有可能占用IT管理员的所有有效时间。更糟的是,因为这种类型的预测和计算需要执行适当的负载平衡是如此的复杂并且相互关联,因此偶尔会发生错误。当扩大或缩减资源的需求提高时,任何的误算都会都回增加服务器宕机时间。

  使用虚拟化技术,就不必手动重新配置资源和自动化,确保数据是最优的放置在存储区域网络(SAN),从而节省IT部门的时间和金钱。这些功能可以大大提高性能。它只是一个简单的问题,然而这个工作使用软件比人做得更好。有许多平凡的,重复的系统维护任务,适合这一类--但却远远超出这个存储区域网络(SAN)的例子。

  当然,自动化仅仅和执行创建的脚本一样好。无论硬件价格如何变动都没有关系,只要你设计的Java应用程序不能最好的利用服务器--无论在本地或在云上。

(责任编辑:蒙遗善)

时间: 2024-07-28 14:34:44

云计算分布式服务器负载均衡原理的相关文章

云计算分布式服务器负载均衡原理和自动化问题

什么是负载均衡? 负载平衡将网站流量分送到多个服务器,以帮助确保资源得到有效利用,并确保每次都没有服务器的工作负载过重.服务器网络之间分配需求,可以限制时间延迟和提高响应速度.有了负载平衡,如果一个或多个服务器由于故障或日常维护而宕机,应用程序将不一定会被彻底关闭.相反,余下的服务器会直接接过任务.你可以在本地布置多台服务器,或者你也可以选择云网络模型里面的分布式服务器. 在分布式计算云里面,服务器可以位于许多不同的地理区域的安全数据中心中.即使一个数据中心遭受了自然灾害,仍然会有大量分布在其他

全局服务器负载均衡已开始向云上转移

即使应用程序已经从传统的数据中心转移到云计算,但服务器负载均衡仍然是IT基础设施的核心元素.无论服务器是真实的还是虚拟的,永久的还是短暂的,能够在多个服务器之间智能地分配工作负载总是必要的. 但是,在多个云.多个数据中心和混合基础设施之间可靠地分布工作负载的能力仍然存在较大的不足,结果就是工作负载分布不佳和应用程序性能降级.如果能在全球范围内更好地管理工作负载,则可以避免这种性能下降.简而言之,需要更好的全局服务器负载均衡(GSLB). 云计算和负载均衡 负载均衡器也被称为应用程序交付控制器(A

邮件服务器负载均衡大型企业部署方案

邮件服务器负载均衡在大型企业中的应用是很普遍的,市场经济下大型企业的队伍不断发展壮大,面对企业员工数量的不断增加,企业对邮件服务器也提出了更高的要求. 1. 高可用性 多台服务器进行负载均衡的同时,不会因为一台服务器的宕机而导致整个系统瘫痪. 2. 可扩展性 在不改变网路环境的情况下,添加和移除应用服务器,而不影响整体应用的性能,实现透明部署. 3. 安全性 具备IDS/IPS等安全防护措施, 能够防范诸如DOS, DDOS等攻击, 确保后台服务器不会因为黑客攻击等而影响整体系统的稳定性. 4.

四种常用方法实现服务器负载均衡

为了提高服务器的性能和工作负载能力,企业通常会使用DNS服务器.网络地址转换等技术来实现多服务器负载均衡,特别是目前企业对外的互联网Web网站,许多都是通过几台服务器来完成服务器访问的负载均衡.   目前企业使用的所谓"负载均衡服务器",实际上它是应用系统的一种控制服务器,所有用户的请求都首先到此服务器,然后由此服务器根据各个实际处理服务器状态将请求具体分配到某个实际处理服务器中,对外公开的域名与IP地址都是这台服务器.负载均衡控制与管理软件安装在这台服务器上,这台服务器一般只做负载均

SQL Server数据库服务器负载均衡集群的实现方法

SQL Server数据库服务器http://www.aliyun.com/zixun/aggregation/13996.html">负载均衡集群的实现方法是本文我们主要要介绍的内容,我们知道,SQL Server数据库服务器可以说是应用范围最广的数据库产品,并且越来越多地在大型和比较关键的应用系统中提供服务.当企业应用越来越复杂.数据量越来越大的时候,SQL Server数据库要不停的进行处理.存储.查询的工作,这个时候企业就要考虑SQL Server数据库服务器的性能和速度及安全性了

Nginx+Keepalived实现Web服务器负载均衡

说明: 操作系统:CentOS 5.X 64位 Web服务器:192.168.21.127.192.168.21.128 站点:bbs.111cn.net和sns.111cn.net部署在两台Web服务器上 实现目的: 增加两台服务器(主主模式),通过Nginx+Keepalived实现Web服务器负载均衡 架构规划: Nginx服务器:192.168.21.129.192.168.21.130 虚拟服务器(VIP):192.168.21.252.192.168.21.253 部署完成之后: 1

linux中实现Web服务器负载均衡(HAProxy+Keepalived)

  说明: 操作系统:CentOS 5.X 64位 Web服务器:192.168.21.127.192.168.21.128 站点:bbs.111cn.net和sns.111cn.net部署在两台Web服务器上 实现目的: 增加两台服务器(主主模式),通过HAProxy+Keepalived实现Web服务器负载均衡 架构规划: HAProxy服务器:192.168.21.129.192.168.21.130 虚拟服务器(VIP):192.168.21.253.192.168.21.254 部署完

Nginx+Tomcat+Https 服务器负载均衡配置实践方案详解_nginx

由于需要,得搭建个nginx+tomcat+https的服务器,搜了搜网上的发现总是有错,现在整理了些有用的,备忘. 环境:Centos6.5.JDK1.8.Tomcat8.Nginx1.10.1 准备材料: 1.JDK1.8安装包jdk-8u102-linux-x64.tar.gz 2.Tomcat8安装包apache-tomcat-8.0.37.tar.gz 3.Nginx1.10安装包nginx-1.10.1.tar.gz 1.JDK安装配置 解压并安装到/usr/local/jdk [r

如何私用云中的服务器负载均衡

从许多角度上来说,管理一个私有云跟管理内部数据中心是差不多的.IT管理员仍要通过几个重要的步骤来监控和平衡基础设施,但是云环境的真正成功依赖几个方面:安全.服务器密度.网络规划和负载管理. 在把工作负荷放置在"云就绪"的服务器前,管理员必须规划好他们的物理服务器环境.在这个规划阶段,云管理员可以调整环境,弄明白他们提供的工作负载并真正理解可用的资源信息. 分布式计算允许用户从多种设备,多个地点和多个时间来访问.这就意味着企业的云环境必须有能力处理用户数量浮动,特别那些用户从不同时区登录