关于数据库更新数据量大回滚的问题!

问题描述

请教!如果数据库一次更新的数据量 回滚是否就失效了! 问题补充:就是如果一次更新的数据太多,是不是就超过事务回滚的限度 就无法回滚?

解决方案

oracle肯定不会出现这种情况,Oracle由undo_retention和undo_guarantee这两个参数控制,具体你可以查查,如果undo_guarantee设置的是强制保留,会导致dml操作hang住,不会继续。大数据的dml容易出现01555快照太旧的错误,建议分批处理,及时提交
解决方案二:
引用oracle肯定不会出现这种情况,Oracle由undo_retention和undo_guarantee这两个参数控制,具体你可以查查,如果undo_guarantee设置的是强制保留,会导致dml操作hang住,不会继续。大数据的dml容易出现01555快照太旧的错误,建议分批处理,及时提交同意!
解决方案三:
引用如果数据库一次更新的数据量 回滚是否就失效了!???把问题描述清楚!!!

时间: 2024-07-29 06:56:12

关于数据库更新数据量大回滚的问题!的相关文章

redis-缓存初始化数据库里数据量过大

问题描述 缓存初始化数据库里数据量过大 如果数据库里有十万条数据,redis初始化时,怎么样才能更高效将数据加入缓存? 解决方案 把不是必须的数据弄成延时加载 解决方案二: 只加载一部分,按一定优先级等.后续逐步加载

数据仓库 hadoop-数据仓库基础数据量大,ETL处理速度慢,查询慢,hadoop能否解决问题?如何迁移到hadoop?

问题描述 数据仓库基础数据量大,ETL处理速度慢,查询慢,hadoop能否解决问题?如何迁移到hadoop? 1.基础数据主表2亿以上数据 2.基础层到中间层的汇总处理(每天处理),ETL处理比较花时间 某些任务一个小时左右才能处理完 3.SQL已经无法再优化 4.这种情况想到hadoop,不知hadoop是否能解决,如何解决? 5.我以下思路是否可行: 基础数据导入hadoop, ETL处理过程由hadoop处理,处理结果再导回数据库 6.问题hadoop中如何进行多表关联查询或者类似存储过程

oracle 查询 数据量大 速度很慢

问题描述 具体需求是这样的:查询库存(库存实时变动的,变动不频繁可以用物化视图,但是实际很频繁),建立视图查询速度很慢,虽然能查出来但是速度真的好慢,客户抱怨了好多回了.请教下诸位有什么好办法没 解决方案 1)首先要确定是不是数据量大造船的,检查方法在原有SQL条件下面缩小范围,比如以前查1个月,现在查一分钟.以前查1W商品,现在查10个商品. 2)如果小数据查询也慢,那就缩小范围了,优化索引,不仅仅是简单数据量大造成的.3)如果小数据查询快,大数据查询慢,并且几乎是线性的. 那么几乎是无解吧,

MySQL数据库误操作后快速回滚的方法_Mysql

基本上每个跟数据库打交道的程序员(当然也可能是你同事)都会碰一个问题,MySQL误操作后如何快速回滚?比如,delete一张表,忘加限制条件,整张表没了.假如这还是线上环境核心业务数据,那这事就闹大了.误操作后,能快速回滚数据是非常重要的. binlog2sql快速回滚 首先,确认你的MySQL server开启了binlog,设置了以下参数: [mysqld] server-id = 1 log_bin = /var/log/mysql/mysql-bin.log max_binlog_siz

浏览器 双屏-开发gis的时候,因为数据量大,所有要用两个显示器,

问题描述 开发gis的时候,因为数据量大,所有要用两个显示器, 采用window.open()来弹出一个新窗口,测试使用html页面的时候能成功,窗框铺满了两个显示器,但是加到项目过后,后台使用的是springmvc,弹出新窗口怎么都不行,这种问题能决解吗?

java map中写入的数据量大,入库也慢导致浏览器假死

问题描述 java map中写入的数据量大,入库也慢导致浏览器假死 由于前台要选中8000行左右的记录,提交后写入到map中,然后再从map中取出后插入到相应的表中,这时非常费时.目前插入操作也是指提交,但是提交后,目前浏览器经常会碰到假死的现象,大家有好的办法解决吗? 解决方案 你的设计有问题,批量选择,在界面上应该提供单独的设计,不是展示全部8000的记录,而是允许用户根据字段的范围来选择,界面上用可以懒惰加载和预览的方式呈现数据. 解决方案二: 数据要进行分页操作,分批插入,分批显示 解决

asp.net高效的分页方法超大数据量大并且带查询参数

asp教程.net高效的分页方法超大数据量大并且带查询参数 create   Proc [dbo].[GetRS] @QueryStr nvarchar(300),--表名.视图名.查询语句 @PageSize int=10,--每页的大小(行数) @PageCurrent int=1,--要显示的页 @FdShow nvarchar (100)='',--要显示的字段列表,如果查询结果有标识字段,需要指定此值,且不包含标识字段 @FdOrder nvarchar (100)='',--排序字段

Ajax请求在数据量大的时候出现超时的解决方法_extjs

 最近在用EXtjs做项目,在加载数据量特别大的时候会出现加载超时现象,在FB下查看,原来是ext默认ajax请求30秒. 在网上搜到下面的解决方法,以备参考和其他人参考. ExtJS做Ajax请求的时候,默认的相应时间是30秒,如果后来数据查询时间超过30秒,ExtJS就会报错. 这就需要修改ExtJS的超时时间: 2种方法: 1:在Ajax请求的时候加:(timeout: 100000000)属性 复制代码 代码如下: Ext.Ajax.request({ url: 'foo.php', s

用这段代码导出excel数据量大的时候就卡死了 哪位有解决办法?

问题描述 publicstaticvoidExportExcel(stringfileName,DataTabledataSource){GridViewview=null;HttpContextcurrent=HttpContext.Current;StringWriterwriter=null;HtmlTextWriterwriter2=null;if(dataSource!=null){current.Response.Clear();current.Response.Buffer=tru