MySQL LOAD DATA INFILE—从文件(csv、txt)批量导入数据[亲测有效]

MySQL LOAD DATA INFILE—从文件(csv、txt)批量导入数据[亲测有效]MySQL LOAD DATA INFILE 从文件(csv、txt)批量导入数据

MySQL LOAD DATA INFILE—从文件(csv、txt)批量导入数据

 MySQL LOAD DATA INFILE—从文件(csv、txt)批量导入数据[亲测有效]

 最近做的项目,有个需求(从Elastic Search取数据,业务运算后),每次要向MySQL插入1300万条数据左右。最初用MySQL的executemany()一次插入10000条数据,统计的时间如下:

MySQL LOAD DATA INFILE—从文件(csv、txt)批量导入数据[亲测有效]

 如上,插入时间由于系统的IO变化,会有波动,最快在4秒左右。

 后改为”load data infile”大概,10万条数据平均1秒~1.5秒,实际的代码示例如下:

query = "LOAD DATA INFILE "/var/lib/mysql-files/es.csv" INTO TABLE g_visit_relation_asset_temp FIELDS TERMINATED BY "," LINES TERMINATED BY "
" IGNORE 1 LINES 
                        (srcip, srcport, dstip, dstport, l7p, @dummy, cnt, @dummy, cnt_date)"
mysqlcur.execute(query)
mysqlconn.commit()

代码100分

说明:

(1)MySQL需要开启对”load data inflie”的权限支持

    mysqlcur.execute(“SET GLOBAL local_infile = 1”)
(2)
需要对mysql文件目录(笔者: “/var/lib/my-files/”)有管理员的权限(查看mysql路径,用“locate mysql”)
如果没有的话,可以指定本地路径,需要加上关键字”local”即:
LOAD DATA LOCAL

(3)Concurrency 支持

 如果默认是 LOW_PRIORITY ,则LOAD DATA要等其它客户端读完了,才会开始写入。加上“Concurrency ”可以,在读的同时,同时支持写入,不过速度会稍微下降一点,笔者测试环境影响不大

(4)IGNORE 1 LINES (跳过第一行)

 笔者通过python pandas to_csv()导出的csv是带标题的,如下:

MySQL LOAD DATA INFILE—从文件(csv、txt)批量导入数据[亲测有效]

不需要标题导入到数据库,就调过嘛

(5)@dummy ,通过占位符,跳过不需要的数据

导入到表的column顺序必须和文件保持一致,通过@dummy可以跳过不需要的column

(6)character set 指定字符集

对于汉字,你需要加上 character set utf8

(8)分隔符及换行符

代码100分 以“,“作为分隔符,以“
"作为换行符: FIELDS TERMINATED BY "," LINES TERMINATED BY "
"

其他性能优化相关(Only for MyISAM):

通过设置隔离级别、去除索引检查、唯一性检查等提高速度(分session和global级别)提高写入速度,插入之前,设置如下配置:

    mysqlcur.execute("SET SESSION FOREIGN_KEY_CHECKS = 0")
    mysqlcur.execute("SET SESSION UNIQUE_CHECKS = 0")
    mysqlcur.execute("SET SESSION tx_isolation="READ-UNCOMMITTED"")
    mysqlcur.execute("SET SESSION sql_log_bin = 0")

Loda data infile 完了再改回去,如下:

代码100分    mysqlcur.execute("SET SESSION FOREIGN_KEY_CHECKS = 1")
    mysqlcur.execute("SET SESSION UNIQUE_CHECKS = 1")
    mysqlcur.execute("SET SESSION tx_isolation="REPEATABLE-READ"")
    mysqlcur.execute("SET SESSION sql_log_bin = 1")

“DISABLE KEYS” 然后 “ENABLE KEYS”,笔者实际测试没什么用,只是导入数据更快,总的时间并没有提升。区别在于:一个是插入一条,创建一个索引;一个是全部导入完了后,再一次创建所有索引。

引用:

*******************************************************************************************

精力有限,想法太多,专注做好一件事就行

  • 我只是一个程序猿。5年内把代码写好,技术博客字字推敲,坚持零拷贝和原创
  • 写博客的意义在于打磨文笔,训练逻辑条理性,加深对知识的系统性理解;如果恰好又对别人有点帮助,那真是一件令人开心的事

*******************************************************************************************

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/7736.html

(0)
上一篇 2023-03-15
下一篇 2023-03-15

相关推荐

  • 使用NumPy将数组转换为列表

    使用NumPy将数组转换为列表在数据分析和科学计算中,NumPy是最常用的Python库之一,它提供了高效的数组操作和数学函数,可大大加速数据处理的速度和准确性。NumPy中的数组(ndarray)是Python中最常用的数据结构之一,但在某些情况下,我们需要将其转换为Python中的标准列表。这篇文章将详细介绍如何使用NumPy将数组转换为Python列表。

    2024-06-02
    56
  • 报表检测出 sql 植入风险怎么解决「终于解决」

    报表检测出 sql 植入风险怎么解决「终于解决」报表检测到 sql 植入风险,一般是报表工具提供了通用查询的功能,也就意味着 sql(sql 类数据集)是可以通过参数动态拼接的。如 where 子句: Select … from T where …

    2023-03-13
    146
  • mysql分库分表怎么实现_mysql水平分表方案

    mysql分库分表怎么实现_mysql水平分表方案这个数值依据: 这个数值与MySQL 的配置以及机器的硬件有关。因为,MySQL 为了提高性能,会将表的索引装载到内存中。InnoDB buffer size 足够的情况下,其能完成全加载进内存,查询

    2023-04-15
    158
  • Python中使用key in dict对字典进行查找和判断

    Python中使用key in dict对字典进行查找和判断a href=”https://beian.miit.gov.cn/”苏ICP备2023018380号-1/a Copyright www.python100.com .Some Rights Reserved.

    2024-03-12
    89
  • 使用Python读取文件内容

    使用Python读取文件内容Python可以通过多种方式读取文件,最常用的方式为使用with关键字打开文件,然后循环读取文件中的每一行内容。

    2023-12-26
    115
  • redis-cli 远程_redis命令行查看数据

    redis-cli 远程_redis命令行查看数据1. redis-cli命令行远程连接redis服务 redis-cli -h host -p port -a password host:远程redis服务器host port:远程redis服务端

    2023-03-14
    149
  • Python Chromedriver安装教程

    Python Chromedriver安装教程Chromedriver是Chrome浏览器自动化测试需求的一个重要工具,尤其在Python中,常常需要用到Chromedriver;本文将详细阐述在Python中安装Chromedriver的方法。

    2024-06-12
    54
  • 初步体验Oracle[亲测有效]

    初步体验Oracle[亲测有效]Oracle 与Mysql 对比: MySQL: 免费;小型企业;仅是数据库;轻 Oracle:收费, 中大型企业;数据库服务(权限,并发,事务,一致性);更适合集群;重 共同点:都属于关系型数据库

    2023-02-05
    139

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注