Hadoop+Hbase集群数据迁移问题


数据迁移或备份是任何一个公司都有可能到遇到的一件事,有关hbase数据迁移,官网也给出了几种方案,这里比较推荐使用hadoop distcp这种方式迁移。比较适合大数据量或者跨版本集群之间的数据迁移服务。

版本
Hadoop2.7.1
Hbase0.98.12

今天在迁移同版本的hbase数据时,在使用Hadoop distcp时发现下图的一个问题:





这个错误时,是由于源文件的大小与目标文件大小不一致造成的,出现这个问题的原因不明确,然后在网上google查找类似错误,发现没有一样的例子,有的都是
关于crc文件校验和不匹配的问题,而上述错误,则是文件大小不一致,重试3次之后,都是类似错误,所以试着去hadoop的官网文档找答案,发现官网文档distcp里面
有个update的参数,官网解释如下:





什么意思呢?

意思是如果再拷贝过程中,源文件和目标文件出现大小,块大小或者是校验和不一致的情况,会强制使用源文件替换目标文件,不到万不得己的
时候不要使用,使用这个需要谨慎,因为它可能会改变目标路径。

举个例子:
假设现在有A集群数据要迁移到B集群数据,并且Hbase的结构目录保持一致:

A集群数据迁移的目录如下:

/data/01/a
/data/01/b
/data/01/c
/data/01/d
/data/01/e


理想情况下,B集群迁移过去的目录是跟A集群的目录一致:

/data/01/a
/data/01/b
/data/01/c
/data/01/d
/data/01/e


但由于使用了-update之后,很有可能变成下面的目录结构:

/data/01
/data/a
/data/b
/data/c
/data/d
/data/e


出现这种情况,在update的文档已经描述了,因为使用这个命令时,会强制保留源文件的任何信息包括路径,
这样以来才能100%保证拷贝过来的数据是不能发生任何变化的,虽然目录错位了,但是数据正确,可以通过
一个小窍门解决这个问题,在拷贝的时候,如果已经知道某个job会出现这种情况,就提前将其目录的路径填写
完整,这样就不用再手动移动文件到正确的目录里面了。比如原来我的迁移命令是这样的:

hadoop distcp hdfs://10.0.0.100:8020/hbase/data/default/ETLDB    hdfs://10.0.0.101:8020/hbase/data/default


可以正确迁移数据,但如果使用了update后,应该使用下面的路径,注意目标路径上加了表名,如果不存在,如果提前创建下

hadoop distcp -update  hdfs://10.0.0.100:8020/hbase/data/default/ETLDB    hdfs://10.0.0.101:8020/hbase/data/default/ETLDB


试想一个,如果你的hbase表有10000多个region,那么则意味着,你需要处理这10000个错位的目录到正确的目录里面,
虽然写个脚本也能自动化处理,但是这样的耗时也挺长,而且谁能保证,脚本不会出现问题,所以不推荐事后修补的方式。

迁移完成之后,启动hbase集群服务,并执行如下的两个命令,恢复元数据,否则hbase集群不会识别新迁移过来的表:

./hbase  hbck -fix 
./hbase  hbck -repairHoles 


总结:
(1)出现问题,不用紧张,可以先google找类似异常,如果没有则需要多看官网的distcp文档参数的介绍,注意文档的版本和你的hadoop的版本需要一致,否则有些参数可能已经废弃,过时,或者不支持。
(2)如果distcp一个很大的目录时,出现 xxx file not exist 的IO异常,可以试着减少拷贝的文件目录数量,如果还是不能通过,则需要回到1方式查找问题,大部分情况下,我们拷贝一个很少数量的目录时,是不容易出现问题的。

参考文档:
http://hadoop.apache.org/docs/r2.7.1/hadoop-distcp/DistCp.html




有什么问题 可以扫码关注微信公众号:我是攻城师(woshigcs),在后台留言咨询。
本公众号的内容是有关搜索和大数据技术和互联网等方面内容的分享,也是一个温馨的技术互动交流的小家园

猜你喜欢

转载自qindongliang.iteye.com/blog/2285792