如何实现快速迁移TB级别的mysql数据库?

在大数据的领域,TB级别大小的数据库,一点都不夸张,这不我这一个客户就是这样 ,原本使用的是腾讯云的云服务器,奈何配置不够用,考虑再三换成了独立物理机,但是迁移数据库就成了一大难题!经过多方尝试,目前的方法可能是最快的了!

方法一:使用ssh指令将旧服务器的数据库导出为sql文件,这个确实快,但是导入这里就是大问题了,首先就是动辄几百G的sql文件下载都很费劲,然后navicat导数据普通的电脑根本无法导入 直接卡死!除非你家里有一台高配置内存不低于1000G的物理服务器,这是不现实的,即使你有 也要花个十天半个月的!不推荐!

方法二:使用navicat按表进行导出数据为csv或DB文件,单表超过5000万数据的,按5000万为界进行切割导出,这个方法也不推荐,虽然成功率比方法一高很多,但是工作量太大了,因为很多单表都是一二十亿的存在,一个表切割四五十个文件出来 ,然后后面还要导入简直就是噩梦,成功率高了对电脑要求低了,但是时间却是方法一的好几倍,不推荐的!

方法三:宝塔面板自带的迁移工具迁移,这个是最不推荐的方法,宝塔的迁移工具针对这些大数据简直就是束手无策了,不说TB级别的了,GB级别的都难以招架,虽然提示说是成功了,但是数据是没有迁移成功的!

方法四:直接拷贝数据库原始文件到新服务器,网上会有很多类似的教程,但是请记住,这个方法只适用于mysql5.6和5.7且必须是myisam数据库引擎的才可以  8.0已经完全重构了就算是myisam数据库引擎的这个方法也是行不通的了<

猜你喜欢

转载自blog.csdn.net/BenChiZhuBaDaoWang/article/details/132425418