nginx-Nginx中的ip_hash算法能起到负载均衡的目的吗?

问题描述

Nginx中的ip_hash算法能起到负载均衡的目的吗?

请问使用ip-hash算法能否起到负载均衡的目的??因为ip-hash算法是根据客户端的ip进行计算,得出相应的key,之后分配给后台相应的服务器,这样相同的客户端请求始终发送给同一服务器进行处理,能够解决session问题,但是好像解决不了负载均衡问题啊??但是网上普遍又说Nginx实现负载均衡有五种方式,其中第三种就是ip-hash。跪求大神指点,为什么会这样?到底ip-hash能够实现负载均衡?? 悬赏60C币,回答满意必定提高悬赏。求帮助。

解决方案

nginx 负载均衡算法
Nginx的负载均衡 - 保持会话 (ip_hash)

解决方案二:

ip-hash 我记得假如你 负载有2 台机器, A机器和B机器。

有2个客户端来请求分别 C1 和C2, 当C1发送请求之后 被负载到A机器, C2发送请求之后 被负载到B机器, 
以后的C1 活动就在A中进行,C2 的活动就在B中进行。
这个就是进行过了ip-hash ,这样的好处是session 不会丢失。

解决方案三:

ip-hash http://stackoverflow.com/questions/12969372/about-ip-hash-in-nginx-upstream-module

http://nginx.org/en/docs/http/ngx_http_upstream_module.html#ip_hash

时间: 2024-07-28 17:08:54

nginx-Nginx中的ip_hash算法能起到负载均衡的目的吗?的相关文章

Nginx与Tomcat实现动静态分离和负载均衡_nginx

本文介绍了Nginx与Tomcat实现动静态分离和负载均衡,所谓动静分离就是通过nginx(或apache等)来处理用户端请求的图片.html等静态的文件,tomcat(或weblogic)处理jsp.do等动态文件,从而达到动静页面访问时通过不同的容器来处理. 一.Nginx简介: Nginx一个高性能的HTTP和反向代理服务器, 具有很高的稳定性和支持热部署.模块扩展也很容易.当遇到访问的峰值,或者有人恶意发起慢速连接时,也很可能会导致服务器物理内存耗尽频繁交换,失去响应,只能重启服务器,N

使用 NGINX 和 NGINX Plus 的 Ingress Controller 进行 Kubernetes 的负载均衡

本文讲的是使用 NGINX 和 NGINX Plus 的 Ingress Controller 进行 Kubernetes 的负载均衡[编者的话]本文描述了由 NGINX 和 NGINX Plus 实现的 Ingress Controller,完全支持了 Ingress 特性,使用 Ingress 将外部流量负载到集群内的服务,并提供了扩展来支持额外的负载均衡需求. 运行和管理跨机器集群的大规模的容器微服务应用是一个极具挑战的任务.Kubernetes 提供了一个强大的容器编排解决方案,从而帮助

详解Nginx服务器中配置Sysguard模块预防高负载的方案_nginx

nginx做为HTTP服务器,有以下几项基本特性: 处理静态文件,索引文件以及自动索引:打开文件描述符缓冲. 无缓存的反向代理加速,简单的负载均衡和容错. FastCGI,简单的负载均衡和容错. 模块化的结构.包括gzipping, byte ranges, chunked responses,以及 SSI-filter等filter.如果由FastCGI或其它代理服务器处理单页中存在的多个SSI,则这项处理可以并行运行,而不需要相互等待. Nginx专为性能优化而开发,性能是其最重要的考量,实

nginx技术(3)反向代理和负载均衡

反向代理和负载均衡 一,传统的代理(apache/squid)的同步传输和nginx的异步传输的差异. 二,同步传输和异步传输的比较 squid同步传输:浏览器发起请求,而后请求会立刻被转到后台,于是在浏览器和后台之间就建立了一个通道.在请求发起直到请求完成,这条通道都是一直存在的. nginx异步传输:浏览器发起请求,请求不会立刻转到后台,而是将请求数据(header)先收到nginx上,然后nginx再把这个请求发到后端, 后端处理完之后把数据返回到nginx上,nginx将数据流发到浏览器

通过Docker Compose及NGINX反向代理实现ASP.NET5应用的负载均衡

本文以ASP.NET应用为例,讲述了如何通过NGINX访问运行在本机上的ASP.NET 5服务,并采用Docker Compose对ASP服务进行编排,同时提供简单的负载均衡机制. ASP.NET 5可以在很多操作系统下运行,也支持IIS等多种不同的web服务器.网上关于ASP.NET 5的教程有很多,这里我就不多说了,大家可以自己去搜索.今天我们要讲的是如何通过NGINX访问运行在本机上的ASP.NET 5服务,并采用Docker Compose对ASP服务进行编排,同时提供简单的负载均衡机制

利用 NGINX 最大化 Python 性能,第二部分:负载均衡和监控

[编者按]本文主要介绍 NGINX 的主要功能以及如何通过 Nginx 优化 Python 应用性能.本文系国内 ITOM 管理平台 OneAPM 编译呈现. 本文上一篇系: 利用 NGINX 最大化 Python 性能,第一部分:Web 服务和缓存. Python 以其高性能脚本语言而著称,而 NGINX 则能够通过增加代码的实际执行速度来提供助力.对于单一服务器来说,如果网页的一半由静态文件组成(很多网页都有一半由静态文件组成),增加静态文件缓存可使这类网页性能翻倍,缓存动态应用程序内容能够

Nginx+Keepalived(双机热备)搭建高可用负载均衡环境(HA)

基于 Nginx+Tomcat+Redis负载均衡Session共享来实现后续的功能 个人微信小程序.是关于人工智能的.应用是百度大脑 和 腾讯优图的人脸识别 有问题加QQ:783021975 验证问题写明在哪知道的QQ.直接说问的问题.会在不忙的时候回复你.毕竟我也有自己的工作要做. 一张简单的图说下大概的意思 安装Keepalived到CentOS虚拟机环境(2个虚拟机都安装) 使用的版本为keepalived-1.2.24.tar.gz 为了方便安装,在系统里面提前下载好相关的库 yum

【精选】Nginx负载均衡学习笔记(一)实现HTTP负载均衡和TCP负载均衡(官方和OpenResty两种负载配置)

说明:很简单一个在HTTP模块中,而另外一个和HTTP 是并列的Stream模块(Nginx 1.9.0 支持) 一.两个模块的最简单配置如下 1.HTTP负载均衡: http { include mime.types; default_type application/octet-stream; upstream live_node { server 127.0.0.1:8089; server 127.0.0.1:8088; } server { listen 80; server_name

CentOS6中Nginx负载均衡及轮询分流负载均衡例子

方法一,nginx 轮询分流实现负载均衡 准备工作,3台服务器,或者开虚拟机吧!我就是开虚拟机实现的.     ip分别为:192.168.1.10  192.168.1.11  192.168.1.12   (环境安装了ngixn 没有做任何配置)     3台服务器环境最好一样,我是再vm里直接克隆出来的,环境绝对一样吧!不一样,我估计会遇到很多奇怪的问题,没试过.     192.168.1.10  作为  负载均衡服务器  (一会负载均衡就在这里台服务器做配置,另外2台不用做配置)