当前位置: 代码网 > it编程>编程语言>Java > MyBatisPlus如何优化千万级数据的CRUD

MyBatisPlus如何优化千万级数据的CRUD

2025年06月26日 Java 我要评论
背景做 java 开发 8 年,接触过 hibernate、jpa、mybatis,到现在主力框架 mybatis plus(简称 mp)。一路踩坑无数,从最初写死 sql 到现在用 lambda 链

背景

做 java 开发 8 年,接触过 hibernate、jpa、mybatis,到现在主力框架 mybatis plus(简称 mp)。一路踩坑无数,从最初写死 sql 到现在用 lambda 链式操作,感触最深的是:crud 看似简单,数据量一大,性能问题就来了。

最近负责的一个项目,数据库表量级破千万,每次执行 crud 都像走钢丝,稍有不慎就引起数据库报警。本文就结合这个项目的实战经验,聊聊 mybatis plus 在千万级数据场景下如何优化 crud 操作。

一、mybatis plus 简介

mp 是 mybatis 的增强工具,主打“无侵入、低门槛、强增强”,提供了一整套优雅的 crud 封装,尤其适合中后台系统的开发。

但性能优化这件事,mp 提供了钩子,还得靠我们自己去掌握底层逻辑与场景判断。

二、千万级数据的挑战

当数据达到千万级时,常见的问题有:

  • 查询慢、分页卡顿
  • 更新/删除误操作影响大
  • 数据迁移困难
  • 索引策略不合理
  • 乐观锁/悲观锁未启用带来并发问题

三、优化 crud 的关键策略

下面我从 增、删、改、查 四个维度,结合 mp 的用法,逐一拆解优化策略。

1. 查询优化(select)

使用分页插件 + 索引优化

page<user> page = new page<>(1, 10);
ipage<user> result = usermapper.selectpage(page, new querywrapper<user>()
        .eq("status", "active")
        .orderbydesc("create_time"));

优化点:

  • 创建复合索引 (status, create_time),避免文件排序
  • 设置合理的 limit 范围,避开深分页(推荐游标分页)

游标分页(keyset pagination)案例:

querywrapper<user> wrapper = new querywrapper<>();
wrapper.lt("id", lastid)
       .orderbydesc("id")
       .last("limit 100");

list<user> users = usermapper.selectlist(wrapper);

比传统 offset 分页快得多,适合批量导出或加载。

2. 插入优化(insert)

批量插入代替单条插入

list<user> userlist = new arraylist<>();
for (int i = 0; i < 1000; i++) {
    userlist.add(new user("user" + i));
}
usermapper.insertbatchsomecolumn(userlist); // 需自定义方法或 mybatis 扩展

建议:

  • 单次批量插入控制在 1000 条以内,避免 sql 超长
  • 使用原生 jdbc 批处理,性能更优

3. 更新优化(update)

避免全表更新

错误:

usermapper.update(null, new updatewrapper<user>().set("status", "inactive"));

优化:

updatewrapper<user> wrapper = new updatewrapper<>();
wrapper.eq("status", "active");
wrapper.set("status", "inactive");
usermapper.update(null, wrapper);

永远记住:update 要加条件!

乐观锁控制并发更新

@tablefield(fill = fieldfill.update)
@version
private integer version;
user.setversion(3);
usermapper.updatebyid(user); // mp 会自动加 version 判断

4. 删除优化(delete)

逻辑删除替代物理删除

@tablelogic
private integer isdeleted;
usermapper.deletebyid(123l); // 实际执行的是 update 操作

逻辑删除的优势:

  • 避免误删
  • 保留数据审计
  • 与回收站机制兼容

注意:逻辑删除字段要加索引!

四、批处理与异步处理

在千万级数据场景,批处理 + 异步化 是性能优化的核心手段:

  • 使用 stream 分批处理大数据集合
  • 配合 spring batch 或自定义线程池实现异步任务
  • 使用定时任务(如 xxl-job)分时段处理数据

五、数据库层面的优化建议

  • 合理建索引(避免过多/重复索引)
  • 垂直/水平分表(shardingsphere、mycat)
  • 使用中间件缓存热点数据(redis)
  • 慎用视图和子查询,优先考虑 join 重构

六、总结:crud 优化是一场系统工程

mybatis plus 提供了优雅的接口,但数据量上来之后,框架只是工具,根本还在底层 sql 和设计策略上

作为一个写了 8 年 java 的程序员,我最大的体会是:

性能不是调出来的,是设计出来的。

合理建模 + 规范使用 mp + 数据库调优,才能让你的系统在千万级数据面前从容应对。

到此这篇关于mybatisplus如何优化千万级数据的crud的文章就介绍到这了,更多相关mybatisplus优化数据crud内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com