Hadoop HBase操作数据学习(shell和api)

HBase是Hadoop的一个子项目,HBase采用了Google BigTable的稀疏的,面向列的数据库实现方式的理论,建立在hadoop的hdfs上,一方面里用了hdfs的高可靠性和可伸缩性,另外一方面里用了BigTable的高效数据组织形式。
可以说HBase为海量数据的real-time相应提供了很好的一个开源解决方案。
据说在某运营商中使用类似于 BigTable(个人猜测应该就是HBase)的技术可以在两秒时间内从2TB数据中查找到某条话费记录.而这是原来该运营商使用Oracle数据库所无法解决的问题。

HBase提供了一个类似于mysql等关系型数据库的shell。 通过该shell我们可以对HBase的内的相关表以及列族进行控制和处理。HBase shell的help命令比较详细的列出了HBase所支持的命令。

注:HBase会为每一行数据添加一个行健(行健不是列),很关键

进入hbase shell console
$HBASE_HOME/bin/hbase shell


如果有kerberos认证,需要事先使用相应的keytab进行一下认证(使用kinit命令),认证成功之后再使用hbase shell进入可以使用whoami命令可查看当前用户
hbase(main)> whoami


表的管理
1)查看有哪些表
hbase(main)> list


2)创建表
# 语法:create <table>, {NAME => <family>, VERSIONS => <VERSIONS>}
# 例如:创建表t1,有两个family name:f1,f2,且版本数均为2
hbase(main)> create 't1',{NAME => 'f1', VERSIONS => 2},{NAME => 'f2', VERSIONS => 2}

3)删除表
分两步:首先disable,然后drop
例如:删除表t1

hbase(main)> disable 't1'
hbase(main)> drop 't1'


4)查看表的结构
# 语法:describe <table>
# 例如:查看表t1的结构
hbase(main)> describe 't1'


5)修改表结构
修改表结构必须先disable
# 语法:alter 't1', {NAME => 'f1'}, {NAME => 'f2', METHOD => 'delete'}
# 例如:修改表test1的cf的TTL为180天
hbase(main)> disable 'test1'
hbase(main)> alter 'test1',{NAME=>'body',TTL=>'15552000'},{NAME=>'meta', TTL=>'15552000'}
hbase(main)> enable 'test1'


权限管理
1)分配权限
# 语法 : grant <user> <permissions> <table> <column family> <column qualifier> 参数后面用逗号分隔
# 权限用五个字母表示: "RWXCA".
# READ('R'), WRITE('W'), EXEC('X'), CREATE('C'), ADMIN('A')
# 例如,给用户‘test'分配对表t1有读写的权限,
hbase(main)> grant 'test','RW','t1'


2)查看权限
# 语法:user_permission <table>
# 例如,查看表t1的权限列表
hbase(main)> user_permission 't1'


3)收回权限
# 与分配权限类似,语法:revoke <user> <table> <column family> <column qualifier>
# 例如,收回test用户在表t1上的权限
hbase(main)> revoke 'test','t1'


表数据的增删改查
1)添加数据
# 语法:put <table>,<rowkey>,<family:column>,<value>,<timestamp>
# 例如:给表t1的添加一行记录:rowkey是rowkey001,family name:f1,column name:col1,value:value01,timestamp:系统默认
hbase(main)> put 't1','rowkey001','f1:col1','value01'

用法比较单一。

2)查询数据
a)查询某行记录
# 语法:get <table>,<rowkey>,[<family:column>,....]
# 例如:查询表t1,rowkey001中的f1下的col1的值
hbase(main)> get 't1','rowkey001', 'f1:col1'

# 或者:
hbase(main)> get 't1','rowkey001', {COLUMN=>'f1:col1'}
# 查询表t1,rowke002中的f1下的所有列值
hbase(main)> get 't1','rowkey001'

b)扫描表
# 语法:scan <table>, {COLUMNS => [ <family:column>,.... ], LIMIT => num}
# 另外,还可以添加STARTROW、TIMERANGE和FITLER等高级功能
# 例如:扫描表t1的前5条数据
hbase(main)> scan 't1',{LIMIT=>5}

c)查询表中的数据行数
# 语法:count <table>, {INTERVAL => intervalNum, CACHE => cacheNum}
# INTERVAL设置多少行显示一次及对应的rowkey,默认1000;CACHE每次去取的缓存区大小,默认是10,调整该参数可提高查询速度
# 例如,查询表t1中的行数,每100条显示一次,缓存区为500
hbase(main)> count 't1', {INTERVAL => 100, CACHE => 500}


3)删除数据
a )删除行中的某个列值
# 语法:delete <table>, <rowkey>,  <family:column> , <timestamp>,必须指定列名
# 例如:删除表t1,rowkey001中的f1:col1的数据
hbase(main)> delete 't1','rowkey001','f1:col1'

注:将删除改行f1:col1列所有版本的数据
b )删除行
# 语法:deleteall <table>, <rowkey>,  <family:column> , <timestamp>,可以不指定列名,删除整行数据
# 例如:删除表t1,rowk001的数据
hbase(main)> deleteall 't1','rowkey001'

c)删除表中的所有数据
# 语法: truncate <table>
# 其具体过程是:disable table -> drop table -> create table
# 例如:删除表t1的所有数据
hbase(main)> truncate 't1'


Region管理
1)移动region
# 语法:move 'encodeRegionName', 'ServerName'
# encodeRegionName指的regioName后面的编码,ServerName指的是master-status的Region Servers列表
# 示例
hbase(main)>move '4343995a58be8e5bbc739af1e91cd72d', 'db-41.xxx.xxx.org,60020,1390274516739'

2)开启/关闭region
# 语法:balance_switch true|false
hbase(main)> balance_switch

3)手动split
# 语法:split 'regionName', 'splitKey'
4)手动触发major compaction
#语法:
#Compact all regions in a table:
#hbase> major_compact 't1'

#Compact an entire region:
#hbase> major_compact 'r1'
#Compact a single column family within a region:
#hbase> major_compact 'r1', 'c1'

#Compact a single column family within a table:
#hbase> major_compact 't1', 'c1'


配置管理及节点重启
1)修改hdfs配置
hdfs配置位置:/etc/hadoop/conf
# 同步hdfs配置
cat /home/hadoop/slaves|xargs -i -t scp /etc/hadoop/conf/hdfs-site.xml hadoop@{}:/etc/hadoop/conf/hdfs-site.xml
#关闭:
cat /home/hadoop/slaves|xargs -i -t ssh hadoop@{} "sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh --config /etc/hadoop/conf stop datanode"
#启动:
cat /home/hadoop/slaves|xargs -i -t ssh hadoop@{} "sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh --config /etc/hadoop/conf start datanode"
2)修改hbase配置
hbase配置位置:
# 同步hbase配置
cat /home/hadoop/hbase/conf/regionservers|xargs -i -t scp /home/hadoop/hbase/conf/hbase-site.xml hadoop@{}:/home/hadoop/hbase/conf/hbase-site.xml
# graceful重启
cd ~/hbase
bin/graceful_stop.sh --restart --reload --debug inspurXXX.xxx.xxx.org

当然,通过程序我们也可以对HBase进行相关的操作。下面的程序就完成了上面shell操作的内容:

import java.io.IOException; 
import java.io.ByteArrayOutputStream; 
import java.io.DataOutputStream; 
import java.io.ByteArrayInputStream; 
import java.io.DataInputStream; 
import java.util.Map; 
import org.apache.hadoop.io.Writable; 
import org.apache.hadoop.io.IntWritable; 
import org.apache.hadoop.hbase.HBaseConfiguration; 
import org.apache.hadoop.hbase.HTableDescriptor; 
import org.apache.hadoop.hbase.HColumnDescriptor; 
import org.apache.hadoop.hbase.client.HBaseAdmin; 
import org.apache.hadoop.hbase.client.HTable; 
import org.apache.hadoop.hbase.io.BatchUpdate; 
import org.apache.hadoop.hbase.io.RowResult; 
import org.apache.hadoop.hbase.io.Cell; 
import org.apache.hadoop.hbase.util.Writables; 

public class HBaseBasic { 

    public static void main(String[] args) throws Exception { 
        HBaseConfiguration config = new HBaseConfiguration(); 
        HBaseAdmin admin = new HBaseAdmin(config); 

        if (admin.tableExists("scores")) { 
            System.out.println("drop table"); 
            admin.disableTable("scores"); 
            admin.deleteTable("scores"); 
        } 

        System.out.println("create table"); 
        HTableDescriptor tableDescripter = newHTableDescriptor("scores".getBytes()); 
        tableDescripter.addFamily(newHColumnDescriptor("grade:")); 
        tableDescripter.addFamily(newHColumnDescriptor("course:")); 
        admin.createTable(tableDescripter); 

        HTable table = new HTable(config, "scores"); 

        System.out.println("add Tom's data"); 
        BatchUpdate tomUpdate = new BatchUpdate("Tom"); 
        tomUpdate.put("grade:", Writables.getBytes(newIntWritable(1))); 
        tomUpdate.put("course:math", Writables.getBytes(newIntWritable(87))); 
        tomUpdate.put("course:art", Writables.getBytes(newIntWritable(97))); 
        table.commit(tomUpdate); 

        System.out.println("add Jerry's data"); 
        BatchUpdate jerryUpdate = new BatchUpdate("Jerry"); 
        jerryUpdate.put("grade:", Writables.getBytes(newIntWritable(2))); 
        jerryUpdate.put("course:math", Writables.getBytes(newIntWritable(100))); 
        jerryUpdate.put("course:art", Writables.getBytes(newIntWritable(80))); 
        table.commit(jerryUpdate); 

        for (RowResult row : table.getScanner(new String[] {"course:" })) { 
            System.out.format("ROW\t%s\n", newString(row.getRow())); 
            for (Map.Entry<byte[], Cell> entry : row.entrySet()) { 
                String column = new String(entry.getKey()); 
                Cell cell = entry.getValue(); 
                IntWritable value = new IntWritable(); 
                Writables.copyWritable(cell.getValue(), value); 
                System.out.format("  COLUMN\t%s\t%d\n", column, value.get()); 
            } 
        } 
    } 
} 


HBaseAdmin: 管理HBase,create and drop tables, list and alter tables
HTable:表访问
Put:新增,创建Put实例,调用HTable.put(Put)来插入数据。
Delete:删除,调用HTable.delete(Delete)
Get:查询一行(Row)数据,调用HTable.get(Get),返回Result对象,Result是一个KeyValue List,List<KeyValue>
Scan:查询多行数据,调用HTable.getScanner(Scan) ,类似cursor访问,返回 ResultScanner,调用next方法,返回行数据Result
Put,Get,Delete会锁住数据行Row

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HBaseAdmin;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.util.Bytes;

public class HBaseMainClient {
	public static void main(String[] args) throws Exception {
		Configuration config = HBaseConfiguration.create();
		config.set("hbase.zookeeper.quorum", "192.168.1.103");
		config.set("hbase.zookeeper.property.clientPort", "2181");
		HBaseAdmin admin = new HBaseAdmin(config);
		String tableName = "TestTable";
		if (admin.tableExists(tableName)) {
			System.out.println("table   Exists:" + tableName);
		} else {
			HTableDescriptor tableDesc = new HTableDescriptor(tableName);
			tableDesc.addFamily(new HColumnDescriptor("TestFamily"));
			admin.createTable(tableDesc);
			System.out.println("create table ok .");
		}
		HTable table = new HTable(config, "TestTable");
		Put p = new Put(Bytes.toBytes("TestRow"));
		p.add(
			Bytes.toBytes("TestFamily"),
			Bytes.toBytes("someQualifier"),
			Bytes.toBytes("Some Value"));
		table.put(p);
		Get g = new Get(Bytes.toBytes("TestRow"));
		Result r = table.get(g);
		byte[] value = r
			.getValue(Bytes.toBytes("TestFamily"), Bytes.toBytes("someQualifier"));
		String valueStr = Bytes.toString(value);
		System.out.println("GET: " + valueStr);
		Scan s = new Scan();
		s.addColumn(Bytes.toBytes("TestFamily"), Bytes.toBytes("someQualifier"));
		ResultScanner scanner = table.getScanner(s);
		try {
			for (Result rr = scanner.next(); rr != null; rr = scanner.next()) {
				System.out.println("Found row: " + rr);
			}
		} finally {
			admin.disableTable(tableName);
			admin.deleteTable(tableName);
			scanner.close();
		}
	}
}


多个条件查询操作
/**
* 组合条件查询
* @param tableName
*/
public static void QueryByCondition3(String tableName) {

try {
HTablePool pool = new HTablePool(configuration, 1000);
HTable table = (HTable) pool.getTable(tableName);

List<Filter> filters = new ArrayList<Filter>();

Filter filter1 = new SingleColumnValueFilter(Bytes
.toBytes("column1"), null, CompareOp.EQUAL, Bytes
.toBytes("aaa"));
filters.add(filter1);

Filter filter2 = new SingleColumnValueFilter(Bytes
.toBytes("column2"), null, CompareOp.EQUAL, Bytes
.toBytes("bbb"));
filters.add(filter2);

Filter filter3 = new SingleColumnValueFilter(Bytes
.toBytes("column3"), null, CompareOp.EQUAL, Bytes
.toBytes("ccc"));
filters.add(filter3);

FilterList filterList1 = new FilterList(filters);

Scan scan = new Scan();
scan.setFilter(filterList1);
ResultScanner rs = table.getScanner(scan);
for (Result r : rs) {
System.out.println("获得到rowkey:" + new String(r.getRow()));
for (KeyValue keyValue : r.raw()) {
System.out.println("列:" + new String(keyValue.getFamily())
+ "====值:" + new String(keyValue.getValue()));
}
}
rs.close();

} catch (Exception e) {
e.printStackTrace();
}

}

}


转自: http://szjian.iteye.com/blog/1221141

猜你喜欢

转载自forlan.iteye.com/blog/2364496