javaWeb项目负载均衡部署后,怎样处理线程并发安全的问题?

问题描述

javaWeb项目负载均衡部署后,怎样处理线程并发安全的问题?
javaWeb项目负载均衡部署后,怎样处理线程并发安全的问题?
在负载均衡下synchronized同步块 失效了。怎样处理线程并发安全。在此情况下
在数据库中的存储过程,触发器 是线程安全的吗?

解决方案

这个问题有点意思,还真从来没想过,这个应该和具体业务相关,synchronized代码块是对竞争资源的处理,
这就要看你是对什么资源处理了,应该还是要区分对待的。如果是所有集群节点都需要同步的话,那就需要考虑缓存集群了,
不能靠synchronized来保证了。我目前做的项目很少对数据库访问加synchronized的,只有金融项目才会,
这时候就只能通过其他手段(比如由物理表来控制加锁)来实现。 存储过程是业务执行的,理论上说是不安全的,
触发器是被动的,应该不存在线程是否安全的问题吧,你业务是安全的了,它就安全了。

解决方案二:
为什么 synchronized同步块 失效 ?

时间: 2024-10-26 06:09:34

javaWeb项目负载均衡部署后,怎样处理线程并发安全的问题?的相关文章

详解Nginx反向代理和负载均衡部署指南_nginx

Nginx反向代理和负载均衡部署指南,具体如下: 1.  安装 1) 从Nginx官网下载页面(http://nginx.org/en/download.html)下载Nginx最新版本(目前是1.5.13版本)安装包: 2)  解压后复制到部署目录.  2.  启动和停止Nginx Nginx目前只支持命令行操作,操作前先进入Dos命令环境,并进入Nginx部署目录. 1) 启动Nginx:start nginx 2)  停止Nginx:nginx -s stop 3)修改配置后重启:ngin

拓扑中负载均衡部署在冗余网络结构下,服务器双网卡的切换问题

今天讨论拓扑中负载均衡部署在冗余网络结构下,服务器双网卡的切换问题. 图一 图一拓扑中四台服务器与负载均衡直接相连,每台服务器双网卡各连接一台负载均衡,负载均衡热备模式部署,服务器双网卡也绑定为主备模式.当负载均衡发生主备切换时,服务器的主备网卡也跟随切换.其实这样的应用需求非常的普遍,但实际网络拓扑更常见是的如图二所示结构.服务器不直接与负载均衡连接,服务器数量也不必受到负载均衡物理接口数量的限制,这样的网络架构,一对负载均衡设备可以为几百台服务器提供应用交付. 图二

Nginx反向代理和负载均衡部署指南

 1.        安装1)         从Nginx官网下载页面(http://nginx.org/en/download.html)下载Nginx最新版本(目前是1.5.13版本)安装包: 2)         解压后复制到部署目录.   2.        启动和停止Nginx Nginx目前只支持命令行操作,操作前先进入Dos命令环境,并进入Nginx部署目录. 1)         启动Nginx:start nginx 2)         停止Nginx:nginx -s

急急急!本人菜鸟求帮助。asp项目在iis部署后,只出来标题,在vs2010中调试后,可进入登入界面,但输入用户名和密码后报错如图

问题描述 本人急需看懂一个c#.net项目,该项目采用MVC框架,问题如标题,如何把这个项目运行起来?如需详细代码,我还可以提供.大神快点帮帮我!!!!这是项目结构: 解决方案 解决方案二:错误是说你没指定logincontroller,你自己看下映射关系怎么配置的解决方案三:MVC中的路径是/控制器名/方法名如果只有/控制器名则方法名则是默认的名称一般来说是index.解决方案四:大神,到底怎么配置啊,我真的不懂但是又急需把它运行起来...这是我的qq280424706,加我吧解决方案五:大神

邮件服务器负载均衡大型企业部署方案

邮件服务器负载均衡在大型企业中的应用是很普遍的,市场经济下大型企业的队伍不断发展壮大,面对企业员工数量的不断增加,企业对邮件服务器也提出了更高的要求. 1. 高可用性 多台服务器进行负载均衡的同时,不会因为一台服务器的宕机而导致整个系统瘫痪. 2. 可扩展性 在不改变网路环境的情况下,添加和移除应用服务器,而不影响整体应用的性能,实现透明部署. 3. 安全性 具备IDS/IPS等安全防护措施, 能够防范诸如DOS, DDOS等攻击, 确保后台服务器不会因为黑客攻击等而影响整体系统的稳定性. 4.

javaweb项目部署问题,一样尽快有答案

问题描述 javaweb项目部署问题,一样尽快有答案 我开发了一个javaweb项目,怎么部署到云上tomcat的服务器,一样详细点的,谢谢大家了.小弟搞不明白啊 解决方案 关于JavaWeb项目部署问题 解决方案二: 你们都好聪明 都是大神,厉害 解决方案三: 将你的工程打成war包,然后上传到服务器上面.当然,上传前提是你的服务器上面的环境等都已经配置. 安装到你环境当中tomcat路径中的webapps下面,然后重启tomcat服务器,在浏览器进行访问ip+端口号 就能看到你发布的工程展示

NFV实战:如何构建100G线速负载均衡

一.什么是负载均衡 负载均衡的发展历程 1996 F5成立 1998 LVS项目成立 2000 HAProxy项目成立 2004 NGINX推出公共版本 2004 F5推出TMOS平台 2007 F5开始提供应用交付(ADC)产品 负载平衡、SSL卸载.压缩优化.TCP连接优化 一台服务器的处理能力,主要受限于服务器自身的可扩展硬件能力.所以,在需要处理大量用户请求的时候,通常都会引入负载均衡器,将多台普通服务器组成一个系统,来完成高并发的请求处理任务. 1996年之后,出现了新的网络负载均衡技

大型网站架构系列:负载均衡详解(1)

原文:大型网站架构系列:负载均衡详解(1) 面对大量用户访问.高并发请求,海量数据,可以使用高性能的服务器.大型数据库,存储设 备,高性能Web服务器,采用高效率的编程语言比如(Go,Scala)等,当单机容量达到极限时,我们需要考虑业务拆分和分布式部署,来解决大型网站访 问量大,并发量高,海量数据的问题. 从单机网站到分布式网站,很重要的区别是业务拆分和分布式部署,将应用拆分后,部署到不同的机器上,实现大规模分布式系统.分布式和业务拆分解决 了,从集中到分布的问题,但是每个部署的独立业务还存在

Nginx与Tomcat实现动静态分离和负载均衡_nginx

本文介绍了Nginx与Tomcat实现动静态分离和负载均衡,所谓动静分离就是通过nginx(或apache等)来处理用户端请求的图片.html等静态的文件,tomcat(或weblogic)处理jsp.do等动态文件,从而达到动静页面访问时通过不同的容器来处理. 一.Nginx简介: Nginx一个高性能的HTTP和反向代理服务器, 具有很高的稳定性和支持热部署.模块扩展也很容易.当遇到访问的峰值,或者有人恶意发起慢速连接时,也很可能会导致服务器物理内存耗尽频繁交换,失去响应,只能重启服务器,N