数据库批量提交数据addBatch()
cookqq ›博客列表 ›mysql

数据库批量提交数据addBatch()

2024-01-11 21:50:46.0|分类: mysql|浏览量: 1781

摘要: 为什么MySQL一次性插入10000条数据,比一条一条插入效率高?其一次性插入10000条在数据库内部是如何插入的?

sql执行过程包含:打开链接,执行SQL, 执行COMMIT,关闭链接;

核心理解:减少网络io开销,多行数据放入一个事务并行处理


核心方法:addBatch()

将一组参数添加到此 PreparedStatement 对象的批处理命令中。

1、建立连接

Connection conn = QueryHelper.getConnection();


2、不自动commit提交

conn.setAutoCommit(false);


3、预编译sql语句,效率高

String updateSql = "update "+TABLE_CALCULATOR_ITEM_PRICE_DATA+" set item_price_value = ? , update_time =?, updater =? WHERE ID = ?";

PreparedStatement updateStmt = conn.prepareStatement(updateSql);


4、 将一组参数添加到此 PreparedStatement 对象的批处理命令中。

//更新一条记录
		updateStmt.setDouble(1, calculatorItemPriceData.getItem_price_value());
		updateStmt.setTimestamp(2,calculatorItemPriceData.getUpdate_time());
		updateStmt.setString(3, calculatorItemPriceData.getUpdater());
		updateStmt.setInt(4, calculatorItemPriceData.getId());
		updateStmt.addBatch();

可以添加多条记录,如上面的添加代码


5、批量处理上面的数据

updateStmt.executeBatch();


6、关闭

updateStmt.close();


7、提交

conn.commit();
conn.setAutoCommit(true);


一键分享文章

分类列表

  • • struts源码分析
  • • flink
  • • struts
  • • redis
  • • kafka
  • • ubuntu
  • • zookeeper
  • • hadoop
  • • activiti
  • • linux
  • • 成长
  • • NIO
  • • 关键词提取
  • • mysql
  • • android studio
  • • zabbix
  • • 云计算
  • • mahout
  • • jmeter
  • • hive
  • • ActiveMQ
  • • lucene
  • • MongoDB
  • • netty
  • • flume
  • • 我遇到的问题
  • • GRUB
  • • nginx
  • • 大家好的文章
  • • android
  • • tomcat
  • • Python
  • • luke
  • • android源码编译
  • • 安全
  • • MPAndroidChart
  • • swing
  • • POI
  • • powerdesigner
  • • jquery
  • • html
  • • java
  • • eclipse
  • • shell
  • • jvm
  • • highcharts
  • • 设计模式
  • • 列式数据库
  • • spring cloud
  • • docker+node.js+zookeeper构建微服务
版权所有 cookqq 感谢访问 支持开源 京ICP备15030920号
CopyRight 2015-2018 cookqq.com All Right Reserved.