MySQL百万级数据大分页查询优化的实现

目录
  • 一、mysql分页起点越大查询速度越慢
  • 二、 limit大分页问题的性能优化方法
    • (1)利用表的覆盖索引来加速分页查询
    • (2)用上次分页的最大id优化
  • 三、mysql百万数据快速生成
    • 3.1、创建内存表及普通表
    • 3.2、创建函数
    • 3.3、创建插入内存表数据的存储过程
    • 3.4、创建内存表数据插入普通表的存储过程
    • 3.5、运行存储过程插入数据
  • 参考链接:

    前言:在数据库开发过程中我们经常会使用分页,核心技术是使用用limit start, count分页语句进行数据的读取。 

    一、mysql分页起点越大查询速度越慢

    直接用limit start, count分页语句,表示从第start条记录开始选择count条记录 :

    select * from product limit start, count
    

    当起始页较小时,查询没有性能问题,我们分别看下从10, 1000, 10000, 100000开始分页的执行时间(每页取20条)。

    select * from product limit 10, 20       0.002秒
    select * from product limit 1000, 20      0.011秒
    select * from product limit 10000, 20     0.027秒
    select * from product limit 100000, 20    0.057秒

    我们已经看出随着起始记录的增加,时间也随着增大, 这说明分页语句limit跟起始页码是有很大关系的,那么我们把起始记录改为100w看下:

    select * from product limit 1000000, 20   0.682秒

    我们惊讶的发现mysql在数据量大的情况下分页起点越大查询速度越慢,300万条起的查询速度已经需要1.368秒钟。这是为什么呢?因为limit 3000000,10的语法实际上是mysql扫描到前3000020条数据,之后丢弃前面的3000000行,这个步骤其实是浪费掉的。

    select * from product limit 3000000, 20 1.368秒

    从中我们也能总结出两件事情:

    • limit语句的查询时间与起始记录的位置成正比
    • mysql的limit语句是很方便,但是对记录很多的表并不适合直接使用。

    二、 limit大分页问题的性能优化方法

    (1)利用表的覆盖索引来加速分页查询

    mysql的查询完全命中索引的时候,称为覆盖索引,是非常快的。因为查询只需要在索引上进行查找,之后可以直接返回,而不用再回表拿数据。在我们的例子中,我们知道id字段是主键,自然就包含了默认的主键索引。现在让我们看看利用覆盖索引的查询效果如何。

    select id from product limit 1000000, 20 0.2秒

    那么如果我们也要查询所有列,如何优化?

    优化的关键是要做到让mysql每次只扫描20条记录,我们可以使用limit n,这样性能就没有问题,因为mysql只扫描n行。我们可以先通过子查询先获取起始记录的id,然后根据id拿数据:

    select * from vote_record where id>=(select id from vote_record limit 1000000,1) limit 20;

    (2)用上次分页的最大id优化

    先找到上次分页的最大id,然后利用id上的索引来查询,类似于:

    select * from user where id>1000000 limit 100

    三、mysql百万数据快速生成

    利用mysql内存表插入速度快的特点,先利用函数和存储过程在内存表中生成数据,然后再从内存表插入普通表中

    3.1、创建内存表及普通表

    //内存表
    create table `vote_record_memory` (
    	`id` int (11) not null auto_increment,
    	`user_id` varchar (20) not null,
    	`vote_id` int (11) not null,
    	`group_id` int (11) not null,
    	`create_time` datetime not null,
    	primary key (`id`),
    	key `index_id` (`user_id`) 
    ) engine = memory auto_increment = 1 default charset = utf8
     
    //普通表
    create table `vote_record` (
    	`id` int (11) not null auto_increment,
    	`user_id` varchar (20) not null,
    	`vote_id` int (11) not null,
    	`group_id` int (11) not null,
    	`create_time` datetime not null,
    	primary key (`id`),
    	key `index_user_id` (`user_id`) 
    ) engine = innodb auto_increment = 1 default charset = utf8

    3.2、创建函数

    //创建函数
    create function `rand_string`(n int) returns varchar(255) charset latin1
    begin 
    declare chars_str varchar(100) default 'abcdefghijklmnopqrstuvwxyzabcdefghijklmnopqrstuvwxyz0123456789'; 
    declare return_str varchar(255) default '' ;
    declare i int default 0; 
    while i < n do 
    set return_str = concat(return_str,substring(chars_str , floor(1 + rand()*62 ),1)); 
    set i = i +1; 
    end while; 
    return return_str; 
    end

    3.3、创建插入内存表数据的存储过程

    #创建插入内存表数据存储过程,入参n是多少就插入多少条数据
    create  procedure `add_vote_memory`(in n int)
    begin
     declare i int default 1;
     while (i <= n) do
       insert into vote_record_memory  (user_id,vote_id,group_id,create_time ) values (rand_string(20),floor(rand() * 1000),floor(rand() * 100) ,now() );
    	 set i=i+1;
     end while;
     end

    3.4、创建内存表数据插入普通表的存储过程

    此处利用对内存表的循环插入和删除来实现批量生成数据,这样可以不需要更改mysql默认的max_heap_table_size值也照样可以生成百万或者千万的数据。

    • max_heap_table_size默认值是16m。
    • max_heap_table_size的作用是配置用户创建内存临时表的大小,配置的值越大,能存进内存表的数据就越多。
    #循环从内存表获取数据插入普通表
    #参数描述 n表示循环调用几次;count表示每次插入内存表和普通表的数据量
     create procedure `add_vote_memory_to_common`(in n int, in count int)
     begin
     declare i int default 1;
     while (i <= n) do
      call add_vote_memory(count);
    	insert into vote_record select * from vote_record_memory;
    	delete from vote_record_memory;
    	set i = i + 1;
     end while;
     end 

    3.5、运行存储过程插入数据

    #循环调用100次,每次插入1w条数据
    add_vote_memory_to_vote(100,10000);

    插入一百万条数据,花了2分半钟:

     我执行了两次,查询vote_record表的行记录总数为两百万条:

    参考链接:

    mysql的limit使用及解决超大分页问题

    mysql优化之limit分页

    mysql 快速生成百万条测试数据

    mysql 如何快速生成百万测试数据

    到此这篇关于mysql百万级数据大分页查询优化的实现 的文章就介绍到这了,更多相关mysql 分页查询优化内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!

    (0)
    上一篇 2022年3月21日
    下一篇 2022年3月21日

    相关推荐