mysql生成一万条uuid_es分页查询排序时数据重复

mysql生成一万条uuid_es分页查询排序时数据重复MySQL快速创建800w条测试数据表&深度分页 汴水流,泗水流,流到瓜州古渡头。 吴山点点愁。 思悠悠,恨悠悠,恨到归时方始休。 月明人倚楼。 一、数据插入思路 如果一条一条插入普通表的话,

MySQL快速创建800w条测试数据表&深度分页

MySQL快速创建800w条测试数据表&深度分页

 

 

汴水流,泗水流,流到瓜州古渡头。

  吴山点点愁。

    思悠悠,恨悠悠,恨到归时方始休。

      月明人倚楼。

 

一、数据插入思路

如果一条一条插入普通表的话,效率太低下,但内存表插入速度是很快的,可以先建立一张内存表,插入数据后,在导入到普通表中。

1、创建内存表

mysql生成一万条uuid_es分页查询排序时数据重复

 1 CREATE TABLE `vote_record_memory` (  2 
 3 `id` INT (11) NOT NULL AUTO_INCREMENT,  4 
 5 `user_id` VARCHAR (20) NOT NULL,  6 
 7 `vote_id` INT (11) NOT NULL,  8 
 9 `group_id` INT (11) NOT NULL, 10 
11 `create_time` datetime NOT NULL, 12 
13 PRIMARY KEY (`id`), 14 
15 KEY `index_id` (`user_id`) USING HASH 16 
17 ) ENGINE = MEMORY AUTO_INCREMENT = 1 DEFAULT CHARSET = utf8

View Code

2、创建普通表

普通表参数设置和内存表相同,否则从内存表往普通标导入数据会报错。

mysql生成一万条uuid_es分页查询排序时数据重复

 1 CREATE TABLE `vote_record` (  2 
 3 `id` INT (11) NOT NULL AUTO_INCREMENT,  4 
 5 `user_id` VARCHAR (20) NOT NULL,  6 
 7 `vote_id` INT (11) NOT NULL,  8 
 9 `group_id` INT (11) NOT NULL, 10 
11 `create_time` datetime NOT NULL, 12 
13 PRIMARY KEY (`id`), 14 
15 KEY `index_user_id` (`user_id`) USING HASH 16 
17 ) ENGINE = INNODB AUTO_INCREMENT = 1 DEFAULT CHARSET = utf8

View Code

3、创建存储函数

产生伪随机码user_id 要用到存储函数。

mysql生成一万条uuid_es分页查询排序时数据重复

 1 CREATE FUNCTION `rand_string`(n INT) RETURNS varchar(255) CHARSET latin1  2 
 3 BEGIN
 4 
 5 DECLARE chars_str varchar(100) DEFAULT "abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ0123456789";  6 
 7 DECLARE return_str varchar(255) DEFAULT "" ;  8 
 9 DECLARE i INT DEFAULT 0; 10 
11 WHILE i < n DO 12 
13 SET return_str = concat(return_str,substring(chars_str , FLOOR(1 + RAND()*62 ),1)); 14 
15 SET i = i +1; 16 
17 END WHILE; 18 
19 RETURN return_str; 20 
21 END

View Code

 4、创建存储过程

存储过程是保存起来的可以接受和返回用户提供的参数的Transact-SQL 语句的集合,可以创建一个过程供永久使用。

mysql生成一万条uuid_es分页查询排序时数据重复

 1 CREATE PROCEDURE `add_vote_memory`(IN n int)  2 
 3 BEGIN
 4 
 5 DECLARE i INT DEFAULT 1;  6 
 7 WHILE (i <= n ) DO  8 
 9 INSERT into vote_record_memory (user_id,vote_id,group_id,create_time ) VALUEs (rand_string(20),FLOOR(RAND() * 1000),FLOOR(RAND() * 100) ,now() ); 10 
11 set i=i+1; 12 
13 END WHILE; 14 
15 END

View Code

 5、调用存储过程

call 就是调用存储过程或者函数,这里调用存储过程1000000次

CALL add_vote_memory(1000000)

6、导入数据

将内存表中的数据导入普通表。

INSERT into vote_record SELECT * from vote_record_memory

7、内存不足

如果报错内存满了,报错信息如下:

1 CALL add_vote_memory(1000000) 2 > 1114 - The table "vote_record_memory" is full
3 > 时间: 74.61s

则可以使用命令查看内存表和临时表允许写入的最大值:

show variables like "%%table_size%"

MySQL默认16M:

mysql生成一万条uuid_es分页查询排序时数据重复

 修改默认内存配置:

set session tmp_table_size=1024*1024*1024; set session max_heap_table_size=1024*1024*1024; 

配置修改后,再执行上述调用存储过程和数据导入步骤。

8、查看结果

查看记录,是否有插入100W条数据。

select count(*) AS total from vote_record

mysql生成一万条uuid_es分页查询排序时数据重复

9、插入800W条数据

测试插入800W条数据,call 调用存储过程800W次。

mysql生成一万条uuid_es分页查询排序时数据重复

 查看结果:

mysql生成一万条uuid_es分页查询排序时数据重复

 800W条测试数据插入OK,想插入多少条测试数据就调用n次存储过程,CALL add_vote_memory(n)。

二、MySQL深度分页

所谓的深度分页问题,涉及到mysql分页的原理。通常情况下,mysql的分页是这样写的:

select id, user_id, vote_id, group_id from vote_record limit 200, 10

SQL意思就是从vote_reccord 表里查200到210这10条数据即【201,210】,mysql会把前210条数据都查出来,抛弃前200条,返回10条。当分页所以深度不大的时候当然没问题,随着分页的深入,sql可能会变成这样:

select id, user_id, vote_id, group_id from vote_record limit 7999900, 10

这个时候,mysql会查出来7999920条数据,抛弃前7999900条,如此大的数据量,速度一定快不起来。

那如何解决呢?一般情况下,最简单的方式是增加一个条件,利用表的覆盖索引来加速分页查询:

select id, user_id, vote_id, group_id from vote_record where id > 7999900 limit 10

我们都知道,利用了索引查询的语句中如果只包含了那个索引列(覆盖索引),那么这种情况会查询很快。

因为利用索引查找有优化算法,且数据就在查询索引上面,不用再去找相关的数据地址了,这样节省了很多时间。上述vote_record 表的id字段是主键,自然就包含了默认的主键索引,这样,mysql会走主键索引,直接连接到7999900处,然后查出来10条数据。但是这个方式需要接口的调用方配合改造,把上次查询出来的最大id以参数的方式传给接口提供方,会有一定沟通成本。

1、测试深度分页

优化前,查询耗时2.362s,随着数据的增大耗时会更多,limit语句的查询时间与起始记录的位置成正比。

mysql生成一万条uuid_es分页查询排序时数据重复

 优化后,耗时0.012s,性能提升了196.8倍。

mysql生成一万条uuid_es分页查询排序时数据重复

 

 

 

 

汴水流,泗水流,流到瓜州古渡头。

吴山点点愁。

思悠悠,恨悠悠,恨到归时方始休。

月明人倚楼。

 

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/5596.html

(0)
上一篇 2023-05-02 18:30
下一篇 2023-05-02

相关推荐

  • 优化Python代码执行效率的实用技巧

    优化Python代码执行效率的实用技巧在众多编程语言中,Python被广泛应用。它的简单易用,高效,且具有极强的可读性和可维护性,使它适用于不同大小和类型的项目和领域应用。然而,Python在处理大规模、高性能和高负载的任务时,可能需要优化代码以提高效率和性能。在本文中,将介绍一些实用的技巧,可用于优化Python代码的执行效率。

    2023-12-24
    102
  • 使用random模块生成随机数

    使用random模块生成随机数Python中的random模块包含了许多随机数函数。其中,random.random是生成0到1之间的随机实数的函数。可以用这个函数来模拟实验或者测试中的随机性。

    2024-04-11
    71
  • 基于Redis实现分布式锁

    基于Redis实现分布式锁我们知道分布式锁的特性是排他、避免死锁、高可用。分布式锁的实现可以通过数据库的乐观锁(通过版本号)或者悲观锁(通过for update)、Redis的setnx()命令、Zookeeper(在某个持久

    2022-12-16
    169
  • MySQL_表操作「建议收藏」

    MySQL_表操作「建议收藏」引擎介绍 mysql中的存储引擎(https://www.cnblogs.com/Eva J/articles/9682063.html) 表介绍 表就相当于文件,表中的一条记录就相当于文件的一行内容

    2023-02-02
    154
  • influxdb-cluster安装部署「终于解决」

    influxdb-cluster安装部署「终于解决」参考资料 Influx Proxy 是一个基于高可用、一致性哈希的 InfluxDB 集群代理服务,实现了 InfluxDB 高可用集群的部署方案,具有动态扩/缩容、故障恢复、数据同步等能力。 相关…

    2023-04-08
    147
  • redis集群模式和哨兵模式区别_集群方式

    redis集群模式和哨兵模式区别_集群方式概述 Redis 在 3.0 之后开始支持 Cluster(集群)模式,特点如下: 支持节点的自动发现:可向集群动态添加节点,并自动融入 支持 slave-master 选举和容错:多个 master

    2023-06-02
    147
  • mysql字符集和校对规则_mysql设置字符集

    mysql字符集和校对规则_mysql设置字符集1、字符集 character 设置数据存储编码格式 1)utf8 2)utf8mb4 (支持Emoji 表情(Emoji 是一种特殊的 Unicode 编码,常见于 ios 和 android 手…

    2023-01-28
    159
  • Python字典的用法

    Python字典的用法在Python编程中,字典是一项非常强大的数据结构。它能够帮助我们轻松地存储、查询和修改数据,从而提高程序的效率和灵活性。

    2024-02-11
    100

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注