Mybatis Plus 批量插入这样操作提升性能

使用的mybatisplus的批量插入方法:saveBatch(),之前就看到过网上都在说在jdbc的url路径上加上rewriteBatchedStatements=true 参数mysql底层才能开启真正的批量插入模式。

保证5.1.13以上版本的驱动,才能实现高性能的批量插入。MySQL JDBC驱动在默认情况下会无视executeBatch()语句,把我们期望批量执行的一组sql语句拆散,一条一条地发给MySQL数据库,批量插入实际上是单条插入,直接造成较低的性能。只有把rewriteBatchedStatements参数置为true, 驱动才会帮你批量执行SQL。另外这个选项对INSERT/UPDATE/DELETE都有效。

目前我的数据表目前是没有建立索引的,即使是在1000来w的数据量下进行1500条的批量插入也不可能消耗20来秒吧,于是矛盾转移到saveBatch方法,使用版本:

查看源码:

public boolean saveBatch(Collection entityList, int batchSize) {     String sqlStatement = this.getSqlStatement(SqlMethod.INSERT_ONE);     return this.executeBatch(entityList, batchSize, (sqlSession, entity) -> {         sqlSession.insert(sqlStatement, entity);     }); }
protected  boolean executeBatch(Collection list, int batchSize, BiConsumer consumer) {        return SqlHelper.executeBatch(this.entityClass, this.log, list, batchSize, consumer);    }
public static  boolean executeBatch(Class<?> entityClass, Log log, Collection list, int batchSize, BiConsumer consumer) {    Assert.isFalse(batchSize < 1, "batchSize must not be less than one", new Object[0]);    return !CollectionUtils.isEmpty(list) && executeBatch(entityClass, log, (sqlSession) -> {        int size = list.size();        int i = 1;        for(Iterator var6 = list.iterator(); var6.hasNext(); ++i) {            E element = var6.next();            consumer.accept(sqlSession, element);            if (i % batchSize == 0 || i == size) {                sqlSession.flushStatements();            }        }    });}

最终来到了executeBatch()方法,可以看到这很明显是在一条一条循环插入,通过sqlSession.flushStatements()将一个个单条插入的insert语句分批次进行提交,而且是同一个sqlSession,这相比遍历集合循环insert来说有一定的性能提升,但是这并不是sql层面真正的批量插入。

通过查阅相关文档后,发现mybatisPlus提供了sql注入器,我们可以自定义方法来满足业务的实际开发需求。

sql注入器官网

https://baomidou.com/pages/42ea4a/

sql注入器官方示例

https://gitee.com/baomidou/mybatis-plus-samples/tree/master/mybatis-plus-sample-deluxe

在mybtisPlus的核心包下提供的默认可注入方法有这些:

在扩展包下,mybatisPlus还为我们提供了可扩展的可注入方法:

可以发现mybatisPlus已经提供好了InsertBatchSomeColumn的方法,我们只需要把这个方法添加进我们的sql注入器即可。

public MappedStatement injectMappedStatement(Class<?> mapperClass, Class<?> modelClass, TableInfo tableInfo) {    KeyGenerator keyGenerator = NoKeyGenerator.INSTANCE;    SqlMethod sqlMethod = SqlMethod.INSERT_ONE;    List fieldList = tableInfo.getFieldList();    String insertSqlColumn = tableInfo.getKeyInsertSqlColumn(true, false) + this.filterTableFieldInfo(fieldList, this.predicate, TableFieldInfo::getInsertSqlColumn, "");    //------------------------------------拼接批量插入语句----------------------------------------    String columnScript = "(" + insertSqlColumn.substring(0, insertSqlColumn.length() - 1) + ")";    String insertSqlProperty = tableInfo.getKeyInsertSqlProperty(true, "et.", false) + this.filterTableFieldInfo(fieldList, this.predicate, (i) -> {        return i.getInsertSqlProperty("et.");    }, "");    insertSqlProperty = "(" + insertSqlProperty.substring(0, insertSqlProperty.length() - 1) + ")";    String valuesScript = SqlScriptUtils.convertForeach(insertSqlProperty, "list", (String)null, "et", ",");    //------------------------------------------------------------------------------------------    String keyProperty = null;    String keyColumn = null;    if (tableInfo.havePK()) {        if (tableInfo.getIdType() == IdType.AUTO) {            keyGenerator = Jdbc3KeyGenerator.INSTANCE;            keyProperty = tableInfo.getKeyProperty();            keyColumn = tableInfo.getKeyColumn();        } else if (null != tableInfo.getKeySequence()) {            keyGenerator = TableInfoHelper.genKeyGenerator(this.getMethod(sqlMethod), tableInfo, this.builderAssistant);            keyProperty = tableInfo.getKeyProperty();            keyColumn = tableInfo.getKeyColumn();        }    }    String sql = String.format(sqlMethod.getSql(), tableInfo.getTableName(), columnScript, valuesScript);    SqlSource sqlSource = this.languageDriver.createSqlSource(this.configuration, sql, modelClass);    return this.addInsertMappedStatement(mapperClass, modelClass, this.getMethod(sqlMethod), sqlSource, (KeyGenerator)keyGenerator, keyProperty, keyColumn);}

接下来就通过SQL注入器实现真正的批量插入

默认的sql注入器

public class DefaultSqlInjector extends AbstractSqlInjector {    public DefaultSqlInjector() {    }    public List getMethodList(Class<?> mapperClass, TableInfo tableInfo) {        if (tableInfo.havePK()) {            return (List)Stream.of(new Insert(), new Delete(), new DeleteByMap(), new DeleteById(), new DeleteBatchByIds(), new Update(), new UpdateById(), new SelectById(), new SelectBatchByIds(), new SelectByMap(), new SelectCount(), new SelectMaps(), new SelectMapsPage(), new SelectObjs(), new SelectList(), new SelectPage()).collect(Collectors.toList());        } else {            this.logger.warn(String.format("%s ,Not found @TableId annotation, Cannot use Mybatis-Plus 'xxById' Method.", tableInfo.getEntityType()));            return (List)Stream.of(new Insert(), new Delete(), new DeleteByMap(), new Update(), new SelectByMap(), new SelectCount(), new SelectMaps(), new SelectMapsPage(), new SelectObjs(), new SelectList(), new SelectPage()).collect(Collectors.toList());        }    }}

继承DefaultSqlInjector自定义sql注入器

/** * @author zhmsky * @date 2022/8/15 15:13 */public class MySqlInjector extends DefaultSqlInjector {    @Override    public List getMethodList(Class<?> mapperClass) {        List methodList = super.getMethodList(mapperClass);        //更新时自动填充的字段,不用插入值        methodList.add(new InsertBatchSomeColumn(i -> i.getFieldFill() != FieldFill.UPDATE));        return methodList;    }}

将自定义的sql注入器注入到Mybatis容器中

/** * @author zhmsky * @date 2022/8/15 15:15 */@Configurationpublic class MybatisPlusConfig {    @Bean    public MySqlInjector sqlInjector() {        return new MySqlInjector();    }}

继承BaseMapper添加自定义方法

/** * @author zhmsky * @date 2022/8/15 15:17 */public interface CommonMapper extends BaseMapper {    /**     * 真正的批量插入     * @param entityList     * @return     */    int insertBatchSomeColumn(List entityList);}

对应的mapper层接口继承上面自定义的mapper

/* * @author zhmsky * @since 2021-12-01 */@Mapperpublic interface UserMapper extends CommonMapper {}

最后直接调用UserMapper的insertBatchSomeColumn()方法即可实现真正的批量插入。

@Testvoid contextLoads() {    for (int i = 0; i < 5; i++) {        User user = new User();        user.setAge(10);        user.setUsername("zhmsky");        user.setEmail("21575559@qq.com");        userList.add(user);    }    long l = System.currentTimeMillis();    userMapper.insertBatchSomeColumn(userList);    long l1 = System.currentTimeMillis();    System.out.println("-------------------:"+(l1-l));    userList.clear();}

查看日志输出信息,观察执行的sql语句;

发现这才是真正意义上的sql层面的批量插入。

但是,到这里并没有结束,mybatisPlus官方提供的insertBatchSomeColumn方法不支持分批插入,也就是有多少直接全部一次性插入,这就可能会导致最后的sql拼接语句特别长,超出了mysql的限制,于是我们还要实现一个类似于saveBatch的分批的批量插入方法。另外,搜索公众号Linux就该这样学后台回复“猴子”,获取一份惊喜礼包。

添加分批插入

模仿原来的saveBatch方法:

 * @author zhmsky * @since 2021-12-01 */@Servicepublic class UserServiceImpl extends ServiceImpl implements UserService {    @Override    @Transactional(rollbackFor = {Exception.class})    public boolean saveBatch(Collection entityList, int batchSize) {        try {            int size = entityList.size();            int idxLimit = Math.min(batchSize, size);            int i = 1;            //保存单批提交的数据集合            List oneBatchList = new ArrayList<>();            for (Iterator var7 = entityList.iterator(); var7.hasNext(); ++i) {                User element = var7.next();                oneBatchList.add(element);                if (i == idxLimit) {                    baseMapper.insertBatchSomeColumn(oneBatchList);                    //每次提交后需要清空集合数据                    oneBatchList.clear();                    idxLimit = Math.min(idxLimit + batchSize, size);                }            }        } catch (Exception e) {            log.error("saveBatch fail", e);            return false;        }        return true;    }}

测试:

@Testvoid contextLoads() {    for (int i = 0; i < 20; i++) {        User user = new User();        user.setAge(10);        user.setUsername("zhmsky");        user.setEmail("21575559@qq.com");        userList.add(user);    }    long l = System.currentTimeMillis();    userService.saveBatch(userList,10);    long l1 = System.currentTimeMillis();    System.out.println("-------------------:"+(l1-l));    userList.clear();}

输出结果:

分批插入已满足,到此收工结束了。

接下来最重要的测试下性能

当前数据表的数据量在100w多条,在此基础上分别拿原始的saveBatch(假的批量插入)和 insertBatchSomeColumn(真正的批量插入)进行性能对比----(jdbc均开启rewriteBatchedStatements):

原来的假的批量插入:

@Test  void insert(){      for (int i = 0; i < 50000; i++) {          User user = new User();      

自定义的insertBatchSomeColumn:

@Testvoid contextLoads() {    for (int i = 0; i < 50000; i++) {        User user = new User

分批插入5w条数据,自定义的真正意义上的批量插入耗时减少了3秒左右,用insertBatchSomeColum分批插入1500条数据耗时650毫秒,这速度已经挺快了

展开阅读全文

页面更新:2024-02-20

标签:批量   性能   字段   器官   语句   层面   数据表   操作   发现   方法   数据

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top