Linux下Hive性能优化(个人用)

Update date 2020-01-03

//开启本地mr
set hive.exec.mode.local.auto=true;
//设置local mr的最大输入数据量,当输入数据量小于这个值时采用local mr的方式,默认为134217728,即128M
set hive.exec.mode.local.auto.inputbytes.max=50000000;
//设置local mr的最大输入文件个数,当输入文件个数小于这个值时采用local mr的方式,默认为4
set hive.exec.mode.local.auto.input.files.max=10;
// 开启任务并行执行
set hive.exec.parallel=true;
// 同一个sql允许并行任务的最大线程数
set hive.exec.parallel.thread.number=8;
//调整hive.exec.reducers.bytes.per.reducer参数的值(500mb)
set hive.exec.reducers.bytes.per.reducer=500000000;
//调整reduce个数
set mapred.reduce.tasks = number;
//适用于小表 连接 大表
set hive.auto.convert.join=true;
//设置map输入小文件合并
set mapred.max.split.size=256000000;
//一个节点上split的至少的大小(这个值决定了多个DataNode上的文件是否需要合并)
set mapred.min.split.size.per.node=100000000;
//一个交换机下split的至少的大小(这个值决定了多个交换机上的文件是否需要合并)
set mapred.min.split.size.per.rack=100000000;
//执行Map前进行小文件合并
set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;

猜你喜欢

转载自www.cnblogs.com/suhaohao/p/12144219.html