Mysql批量插入和更新的性能

问题描述

利用Hibernate,连接池使用的是BoneCP,做了一个MySql批量插入和批量更新的Demo,出现了下面两个问题。 1.批量插入。我采用的是原生态的JDBC,每次批量插入60条数据左右(数据量不固定),循环3000次。每次在循环到100次左右的时候,会出现“com.jolbox.bonecp.ConnectionPartition - BoneCP detected an unclosed connection and will now attempt to close it for you. You should be closing this connection in your application - enable connectionWatch for additional debugging assistance.”,紧接着程序就没有反映了。 2.批量更新。每次批量更新的数据量大约在3w条左右,居然要耗时16秒左右,有没有办法提高性能至2秒左右。代码如下:String sql = "replace into savedata(id , saveId , saveKey , value)values(?,?,?,?)"; Session session = getSessionFactory().openSession(); Connection conn = session.connection(); Transaction tx=getSessionFactory().openSession().beginTransaction(); try { PreparedStatement stmt=conn.prepareStatement(sql); for (Savedata savedata : list) { stmt.setString(1, savedata.getId()); stmt.setString(2, savedata.getSaveId()); stmt.setString(3, savedata.getSaveKey());stmt.setString(4, savedata.getValue());stmt.addBatch();}stmt.executeBatch();tx.commit();} catch (Exception e) {}finally{try {conn.close();} catch (SQLException e) {log.warn("the db connection cant not close!" ,e);}if(session.isOpen())session.close();} 问题补充:连接池采用的是BoneCP , 感觉比cp30 ,proxool性能要好。配置如下:<property name="driverClass" value="com.mysql.jdbc.Driver" /><property name="jdbcUrl"value="jdbc:mysql://localhost:3306/ugms" /><property name="username" value="root" /><property name="password" value="password" /><property name="idleConnectionTestPeriod" value="60" /><property name="idleMaxAge" value="240" /><property name="maxConnectionsPerPartition" value="30" /><property name="minConnectionsPerPartition" value="10" /><property name="partitionCount" value="3" /><property name="acquireIncrement" value="5" /><property name="statementCacheSize" value="100" /><property name="releaseHelperThreads" value="3" />

解决方案

对于这种大数据量的更新情况,可以采用多线程的方式,每个线程更新100条数据,这样就能提高更新的速度了当然这里的100只是一个猜想值,哪个值合适,需要你测试才能得出。我想的话,应该能比单线要快些,至于能不能优化到2s,这个就不清楚了同时需要注意你的连接池大小、线程池大小(核心线程数)。这些资源也会影响到你的更新速度(即这些资源不能出现竞争)最后,我对你需要更新这么大的数据量操作有一些疑问:这个操作是online的吗?这个操作的返回是实时的吗?对于大数据量的更新一般会做成一个异步的操作,而不需要是实时的
解决方案二:
对于这种特殊的操作为什么还要必须使用hibernate呀,是用JDBC可以大大提高插入和更新的速度,hibernate也是可以直接执行sql的吧(如果我记得不错的话,好久不用了,抱歉),另外,stmt.addBatch(); 其实对于mysql来说,只是在网络传输上少了几次,但是,数据库还是需要每条sql语句都解析的,因此,根本没有节省太多的时间,网络的传输时间在一次sql的执行过程中,一般占到30%的时间; 另外,将数据拼装成这样的sql,如:insert into a (a, b, c) values (1,2,3),(2,3,4),(4,4,4)......,其插入效率是很高的,如果表不是太大,每秒可以插入上千条数据;

时间: 2024-08-01 19:24:52

Mysql批量插入和更新的性能的相关文章

MYSQL批量插入数据库实现语句性能分析

  假定我们的表结构如下 代码如下   CREATE TABLE example ( example_id INT NOT NULL, name VARCHAR( 50 ) NOT NULL, value VARCHAR( 50 ) NOT NULL, other_value VARCHAR( 50 ) NOT NULL ) 通常情况下单条插入的sql语句我们会这么写: 代码如下   INSERT INTO example (example_id, name, value, other_valu

MySQL批量插入数据脚本_Mysql

MySQL批量插入数据脚本 #!/bin/bash i=1; MAX_INSERT_ROW_COUNT=$1; while [ $i -le $MAX_INSERT_ROW_COUNT ] do mysql -uroot -proot dbname -e "insert into tablename (name,age,createTime) values ('HELLO$i',$i % 99,NOW());" d=$(date +%M-%d\ %H\:%m\:%S) echo &qu

MySQL批量插入遇上唯一索引避免方法_Mysql

一.背景 以前使用SQL Server进行表分区的时候就碰到很多关于唯一索引的问题:Step8:SQL Server 当表分区遇上唯一约束,没想到在MySQL的分区中一样会遇到这样的问题:MySQL表分区实战. 今天我们来了解MySQL唯一索引的一些知识:包括如何创建,如何批量插入,还有一些技巧上SQL: 这些问题的根源在什么地方?有什么共同点?MySQL中也有分区对齐的概念?唯一索引是在很多系统中都会出现的要求,有什么办法可以避免?它对性能的影响有多大? 二.过程 (一) 导入差异数据,忽略重

sql server中批量插入与更新两种解决方案分享(存储过程)_MsSql

1.游标方式 复制代码 代码如下: DECLARE @Data NVARCHAR(max) SET @Data='1,tanw,2,keenboy' --Id,Name DECLARE @dataItem NVARCHAR(100) DECLARE data_cursor CURSOR FOR (SELECT * FROM split(@Data,';')) OPEN data_cursor FETCH NEXT FROM data_cursor INTO @dataItem WHILE @@F

关于sql server批量插入和更新的两种解决方案_MsSql

复制代码 代码如下: .游标方式 1 DECLARE @Data NVARCHAR(max)  SET @Data='1,tanw;2,keenboy'   --Id,Name  DECLARE @dataItem NVARCHAR(100)  DECLARE data_cursor CURSOR FOR (SELECT * FROM split(@Data,';')) OPEN data_cursor FETCH NEXT FROM data_cursor INTO @dataItem   

sql server中批量插入与更新两种解决方案分享(存储过程)

1.游标方式 复制代码 代码如下: DECLARE @Data NVARCHAR(max) SET @Data='1,tanw,2,keenboy' --Id,Name DECLARE @dataItem NVARCHAR(100) DECLARE data_cursor CURSOR FOR (SELECT * FROM split(@Data,';')) OPEN data_cursor FETCH NEXT FROM data_cursor INTO @dataItem WHILE @@F

Yii2 批量插入、更新数据实例

在使用yii2开发项目时,有时候会遇到这样的情况: 向后台发送多条数据,其中一些数据已经存在记录,只需要对其部分字段的值进行修改;而另一部分的数据则需要新添加进去. 这就需要对添加的数据进行判断,其中一些执行update,剩下的执行insert 代码如下,不对的地方请指教: //批量更新,并将需要批量插入的数据放入数组中 foreach($goods as $k => $v) { if(yourModel::updateAllCounters( ['goods_num' => $v], ['g

SQL Server批量插入数据sql与性能比较

有这样一个表[OperatorInfo],字段有[OPERATOR_NO],[OPERATOR_PWD],[OPERATOR_NAME],[GROUP_ID],[GROUP_NO],[SKILL_LEVEL],[OPERATOR_TYPE],[PAUSENUM], [OPERATOR_ACD_TYPE] 其中[OPERATOR_NO]需要指定一个起始数值,然后实现规定的累加,其他的一些都是默认值,可以不用理会. 以下是代码:  代码如下 复制代码 DECLARE @recordNmber int

sql server中批量插入与更新两种解决方案分享(asp.net)_实用技巧

若只是需要大批量插入数据使用bcp是最好的,若同时需要插入.删除.更新建议使用SqlDataAdapter我测试过有很高的效率,一般情况下这两种就满足需求了 bcp方式 复制代码 代码如下: /// <summary> /// 大批量插入数据(2000每批次) /// 已采用整体事物控制 /// </summary> /// <param name="connString">数据库链接字符串</param> /// <param n