「这是我参与11月更文挑战的第7天,活动详情查看:2021最后一次更文挑战」
之前聊到自己做过的功能优化,就说了通讯录同步的优化,详细见通讯录同步效率优化,提到用Mybatis批量插入数据,把上限1万条数据一次性的插入到表中。面试官对一次性插入1万条数据有疑问,认为不可以插入这么多数据,但是我做这个功能的时候确实是成功的,那具体能一次插入数据的上限我也不确定,后面就找时间做了下面这个实验。
首先自己搭建了SpringBoot+Mybatis的项目测试的,搭建步骤如下
1. 搭建测试工程
idea构建SpringBoot+MyBatis项目
gitee上代码:
https://gitee.com/AJiSun/SpringBoot-MyBatis
File->New->Project
依赖:不选也行,后续在pom中添加,这里就选了一个mysql的依赖
添加需要的pom
1 | java复制代码<dependency> |
然后就是新建文件夹,新建需要的文件,我的目录结构如下
application.yml中的配置
1 | yml复制代码server: |
启动类中加上注解@MapperScan(启动的时候能够扫描到mapper)
1 | Java复制代码@SpringBootApplication |
实体类中的内容
1 | Java复制代码public class SyncEmployee implements Serializable { |
mapper.java中内容
1 | Java复制代码public interface SyncEmployeeMapper { |
mapper.xml中内容
1 | Java复制代码<?xml version="1.0" encoding="UTF-8" ?> |
Interface service类 中的内容
1 | Java复制代码public interface SyncEmployeeService { |
实现Interface service的类中的内容
加上@Service 注解,标明这个类是一个service,会被springboot扫描。
1 | Java复制代码@Service |
接口文件controller的内容
1 | Java复制代码@RestController |
至此就可以启动了,端口是yml中配置的7070,访问接口是【get】http://localhost:7070/user/list
2. 造数据,做测试
1. 表结构
1 | sql复制代码CREATE TABLE `ajisun_mybatis`.`sync_employee` ( |
在SpringBoot-Mybatis 的项目中添加方法(具体参考代码,这里只说主要的地方)
2. mapper.xml中批量insert代码
1 | Java复制代码<insert id="batchInsertData"> |
3. service中的代码(循环造需要的数据量)
1 | Java复制代码@Override |
4. 准备完毕,开始执行
通过上述方法一次构造一万条数据,然后通过sql批量插入
1 | kotlin复制代码com.mysql.cj.jdbc.exceptions.PacketTooBigException: Packet for query is too large (4,879,714 > 4,194,304). You can change this valueon the server by setting the 'max_allowed_packet' variable. |
报错了,根据错误信息知道 构造的一万条数据的大小超过了mysql限制的大小,但是我开发环境并没有问题啊(去开发环境看了下这个值确实比较大)
查看当前环境max_allowed_packet的大小,如下 这个版本默认是4M的大小
1 | sql复制代码mysql> show global variables like 'max_allowed_packet'; |
把这个参数改大点试试(设置10M)
1 | ini复制代码mysql> set global max_allowed_packet = 1024*1024*10; |
命令set采用的临时修改方式,需要打开新的会话才能生效,重启SpringBoot服务然后在调用接口。(还可以通过修改mysql配置文件使其永久生效 max_allowed_packet = 1024* 1024*10)。
还可以通过修改mysql配置文件使其永久生效 max_allowed_packet = 1024* 1024*10
再次调用接口就成功了
继续加大操作数据量,修改循环条件(3万数据量),数据量的总大小在14M左右
1 | kotlin复制代码com.mysql.cj.jdbc.exceptions.PacketTooBigException: Packet for query is too large (14,637,233 > 10,485,760). You can change this value on the server by setting the 'max_allowed_packet' variable. |
如上还是出现了相同的max_allowed_packet 错误,packet的大小超过了max_allowed_packet的值。
所以经过测试可以确定Mybatis究竟能插入多少数据取决于mysql的max_allowed_packet大小限制,而不是其自身的限制。
3. 总结
本文着重在于测试mybatis对批量插入的数据量是否有影响,经过测试发现并没有影响,主要是mysql自身对接收数据量的大小限制,通过参数max_allowed_packet控制。
但是使用mybatis大数据量批量插入要注意效率问题,这里只是测试,并不推荐这种方式。
我是纪先生,用输出倒逼输入而持续学习,持续分享技术系列文章,以及全网值得收藏好文,欢迎关注或者关注公众号,做一个持续成长的技术人。
4. 实际问题系列的历史文章
(也可以在掘金专栏中看其他相关文章)
1. 好用工具:慢SQL分析pt-query-digest;
2. 好用工具: pt-online-schame-change;
本文转载自: 掘金