mysql分批插入/更新数据
在我们的日常开发中,经常会使用到批量insert/update的语句来实现相关的业务功能。而如果数据量比较大的话,会导致sql语句更新失败、抛出异常的情况出现。
这个时候我们可以批量执行sql语句,一批一批的执行。
比如说现在有一个需要批量修改商品的方法
我们可以这么改造:
public void batchupdatebyid(list<product> productlist) { if (collectionutils.isempty(productlist)) { return; } if (productlist.size() > commonutils.batch_number) { int sizenum = productlist.size(); int startnum = 0; int endnum = commonutils.batch_number - 1; while (startnum < endnum) { productmapper.batchupdatebyid(productlist.sublist(startnum, endnum)); startnum += commonutils.batch_number - 1; endnum += commonutils.batch_number - 1; if (endnum > sizenum - 1) { endnum = sizenum; } } } else { productmapper.batchupdatebyid(productlist); } }
上面batch_number的值是50,意味着当修改商品的数量大于50的时候,会以50个数据为一批,分批的执行;而如果修改商品的数量不大于50的时候,就直接一次执行就够了。
上面是我们自己手写的分批代码,而如果每个方法都这么写,也未免太过于繁琐了。
这个时候我们就可以使用guava库中关于集合的partition分组方法来进行简化:
@override public void batchupdatebyid(list<goodsskubo> list) { if (collectionutils.isempty(list)) { return; } list<merchantgoodsskudo> merchantgoodsskudos = goodsanotherskuconvertor.instance.goodsskubo2merchantdolist(list); list<list<merchantgoodsskudo>> groupmerchantgoodsskudos = lists.partition(merchantgoodsskudos, commonutils.batch_number); groupmerchantgoodsskudos.foreach(goodsskumastermapper::batchupdatebyid); }
由上可以看到,代码简化了很多
(上面的goodsskubo2merchantdolist方法只是将bo转成do,和分组逻辑没有关系)。
而对于批量查询的方法,我们也可以使用partition方法进行分组查询,防止in条件拼接太多的数据导致sql报错的情况出现:
@override public list<goodsskubo> listbyspuidssimple(list<long> spuids) { if (collectionutils.isempty(spuids)) { return collections.emptylist(); } //去重 spuids = spuids.stream().distinct().collect(collectors.tolist()); list<list<long>> groupspuids = lists.partition(spuids, commonutils.batch_number); list<merchantgoodsskudo> spuidlist = groupspuids.stream().map(goodsskumastermapper::listbyspuids).flatmap(collection::stream) .collect(collectors.tolist()); return goodsanotherskuconvertor.instance.merchantgoodsskudo2goodsskubolist(spuidlist); }
总结
以上为个人经验,希望能给大家一个参考,也希望大家多多支持代码网。
发表评论