mysql数据文件迁移_anaconda环境迁移

mysql数据文件迁移_anaconda环境迁移一次生产环境mysql迁移操作(一)数据归档 一次生产环境mysql迁移操作(二)mysql空间释放(碎片整理) 上文中增加了定时归档,现在一些大表磁盘空间一直不释放,导致数据库文件越来越大。现在介…

一次生产环境mysql迁移操作(二)mysql空间释放(碎片整理)

一次生产环境mysql迁移操作(二)mysql空间释放(碎片整理)

上文中增加了定时归档,现在一些大表磁盘空间一直不释放,导致数据库文件越来越大。现在介绍下数据导入导出方案。

方案选择

暂时有两种方案选择: 1、停机数个小时,使用mysqldump进行备份(大表只最近导出10天的数据)和恢复,并将共享表空间设置为独立表空间 2、mysql使用OPTIMIZE 来进行碎片整理 2、搭建主从集群,记录备份时间点,然后将数据重新导入到从库,最后将从库切换为主库。

经过对比1、2、3,方案一操作简单,比较灵活可以先导入近一天数据,以后的数据慢慢导入,方案二需要锁表,且时间太长,而我们数据库版本是5.5.47且innodb-file-per-table参数没设置,所以不适合该方案,方案三操作比较麻烦,时间也需要很久,经过评估停机时间可以缩短为1小时,最后选择方案1。

实施

前置步骤

1、从我们归档的数据库中导出近期半个月数据。

mkdir -p /mnt/backup/mysql/
cd /mnt/backup/mysql/

mysqldump -uroot -p1 -t --skip-add-locks --single-transaction --quick --databases xxx --tables table1 --where "clock >1543161600 and clock <=1543939200" >table1_1126-1204.sql
mysqldump -uroot -p1 -t --skip-add-locks --single-transaction --quick --databases xxx --tables table2 --where "clock >1543161600 and clock <=1543939200" >table2_1126-1204.sql
...
...
...

代码100分

2、从生产数据库中导出近一天的数据

比如说我们准备12月10升级,这里我们可以提前到处那六张大表的数据,该步骤可以不用停服务,并且不影响数据库正常运行。

代码100分mkdir -p /mnt/backup/mysql/
cd /mnt/backup/mysql/

mysqldump -uroot -p1 -t --skip-add-locks --single-transaction --quick --databases xxx --tables table1 --where "clock >1543939200 and clock <=1544371200" >table1_1205-1209.sql
mysqldump -uroot -p1 -t --skip-add-locks --single-transaction --quick --databases xxx--table2 --where "clock >1543939200 and clock <=1544371200" >table2_1205-1209.sql
...
...
...

操作步骤

1、停止相关服务

systemctl stop httpd
systemctl stop supervisord
systemctl stop xxx-server.service

2、执行清理脚本

由于这些大表都已经分区,所以清理就只需要保留当天的分区,以前的分区可以都drop掉,由于不同的库清理脚本不一样,所以脚本我这里就不列出来了

3、导出其余表数据

使用mysqldump导出主数据库中除了那6个大表以外的其他所有数据库的数据

代码100分mkdir -p /mnt/backup/mysql/
cd /mnt/backup/mysql/
mysqldump -R -uroot -p1 --databases db1 db2alert db3 guacamole --ignore-table=db1.table1 --ignore-table=db1.table2 > mysqldump.sql

备份mysql数据库中的用户和数据库信息

mysqldump -t -uroot -p1 --databases mysql> mysql_info_data.sql

4、使用mysqldump 分别导出 6个大表清理后的数据

cd /mnt/backup/mysql/
mysqldump -uroot -p1 --databases xxx --tables table1 --where "clock >1544371200" >table1.sql
mysqldump -uroot -p1 --databases xxx --tables table2 --where "clock >1544371200" >table2.sql
...
...
...

5、删除所有数据库

mysql -uroot -p1 

drop database db1;
drop database db2;
drop database db3;

删除数据/var/lib/mysql下日志文件

systemctl stop mariadb

rm -rf /var/lib/mysql/ib*

#查看空间是否释放
df

6、配置/etc/my.cnf

修改/etc/my.cnf,这里需要将共享表空间设置为独立表空间。 备注:mysql 5.6.7版本后会默认开启独立表空间innodb-file-per-table=on 当前服务现在使用的版本是5.5.47,所以需要在my.cnf中进行配置,而openstack用的是5.6.22所以不用设置。 添加下面一句:

[mysqld]
innodb-file-per-table=1

systemctl start mariadb


mysql -uroot -p1
 
#查看设置是否生效,如果是on则说明已生效
show variables like "%per_table%";

7、分批导入数据库

cd /mnt/backup/mysql
mysql -uroot -p1

source mysqldump.sql;

use db1
source table1.sql;
source table2.sql;
...
...
...

8、验证数据

mysql -uroot -p1

use db1
show table status like "table1%";

9、重启服务并验证

systemctl start httpd
systemctl start supervisord
systemctl start xxx-server.service

可以说现在服务运行正常了,现在就是慢慢导入历史数据了

后置步骤

导入历史数据

cd /mnt/backup/mysql
mysql -uroot -p1

use db1
source table1_1205-1209.sql;
source table2_1205-1209.sql;
...
...
...

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/10130.html

(0)
上一篇 2023-01-25
下一篇 2023-01-25

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注