Spark操作HBase报:org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException异常解决方案

一.异常信息

  org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException

二.代码

      val config = HBaseConfiguration.create()
      config.set("hbase.zookeeper.quorum", "hbase01,hbase02,hbase03")
      config.set("hbase.zookeeper.property.clientPort", "2181")
      val connection = ConnectionFactory.createConnection(config)
      val admin = connection.getAdmin
      val table = connection.getTable(TableName.valueOf("ZHEN:TABLENAME"))

三.解决方案

  1.在代码标红的地方把库名+表名全部大写,中间用":"间隔。

  2.Hbase版本不一致【服务器上启动的Hbase和Spark导入的Hbase-lib不一致】。

  3.hdfs的datanode或namenode宕机。

  4.Hbase的Hmaster或者HRegionServer挂了。

猜你喜欢

转载自www.cnblogs.com/yszd/p/10574191.html
今日推荐