您好,登錄后才能下訂單哦!
好程序員大數據學習路線分享hive的運行方式,hive的屬性設置: 1、在cli端設置 (只針對當前的session) 3、在java代碼中設置 (當前連接) 2、在配置文件中設置 (所有session有效)
設置屬性的優先級依次降低。 cli端只能設置非hive啟動需要的屬性。(log屬性,元數據連接屬性)
查找所有屬性: hive>set; 查看當前屬性的值:通常是hadoop hive> set -v; 模糊查找屬性: hive -S -e "set" | grep current; hive -S -e "set" | grep index;
hive變量:system 、 env 、hivevar 、hiveconf
system :系統級別環境變量(jvm、hadoop等),可讀可寫 hive> set system:min.limit = 3; hive> set system:min.limit; system:min.limit=3
env:環境變量 (HADOOP_HOME),只讀不能寫。 hive> set env:PWD; env:PWD=/usr/local/hive-1.2.1
hivevar:自定義臨時變量(可讀可寫)
hive> set hivevar:min.limit=3;
hive> set hivevar:min.limit;
hivevar:min.limit=3
hive> set hivevar:min.limit=2;
hive> set hivevar:min.limit;
hivevar:min.limit=2
hiveconf:自定義臨時屬性變量(可讀可寫)
hive> set hiveconf:max.limit=10;
hive> set hiveconf:max.limit;
hiveconf:max.limit=10
hive> set hiveconf:max.limit=6;
hive> set hiveconf:max.limit;
hiveconf:max.limit=6
hive的運行方式: 1、cli端運行 (臨時統計、開發) 2、hive -S -e "hql 語句"; (適合單個hql的query語句) 3、hive -S -f /hql文件; (hql文件的腳本)
不帶參數
hive -S -e "use qf1603;select * from user1;" hive -S -f /home/su.hql;
hive在0.9版本以前是不支持的-f 帶參數的執行:
hive --hivevar min_limit=3 -hivevar -hivevar t_n=user1 -e 'use qf1603;select * from {hive:t_n} limit {hivevar:min_limit};'
hive --hiveconf min_lit=3 -e "use qf1603;select * from user1 limit ${hiveconf:min_lit};"
hive -S --hiveconf t_n=user1 --hivevar min_limit=3 -f ./su.hql
hive中注釋: --注釋內容
insert overwrite local directory '/home/out/05'
select * from user1 limit 3;
###三、hive 優化 1、環境優化(linux 句柄數、應用內存分配、是否負載等) 2、應用配置屬性方面的優化。 3、代碼優化(hql,嘗試換一種hql的寫法)。
1、學會看explain
explain :顯示hql查詢的計劃。 explain extended :顯示hql查詢的計劃。還會顯示hql的抽象表達式樹。(就是解釋器干得事)
explain select from user1;
explain extended select from user1;
一個hql語句將會有一個或者多個stage構成。每一個stage相當于一個mr的job, stage可以是一個Fetch 、 map join 、 limit 等操作。 每一個stage都會按照依賴關系依次執行,沒有依賴關系的可以并行執行。
2、對limit的優化:
hive.limit.row.max.size=100000
hive.limit.optimize.limit.file=10
hive.limit.optimize.enable=false
3、對join的優化:
永遠是小表驅動大表(小結果集驅動大結果集) 必要時候使用小表標識 /+STREAMTABLE(小表別名)/ 將業務調整為能盡量使用map-side join: hive.auto.convert.join: smalltable: ?盡量避免笛卡爾積的join查詢,即便有咯也需要使用on 或者where 來過濾。 hive目前的join 只支持等值連接(= and)。其它的不行
4、使用hive本地模式(在一個jvm里面運行)
hive.exec.mode.local.auto=false
hive.exec.mode.local.auto.inputbytes.max=134217728
hive.exec.mode.local.auto.input.files.max=4
5、hive并行執行(stage之間沒有相互依賴關系的可以并行執行)
hive.exec.parallel=false
hive.exec.parallel.thread.number=8
6、嚴格模式:
hive提供的嚴格模式阻擋三種查詢: 1、帶有分區的表的查詢 2、帶有orderby的查詢 3、join查詢語句,不帶on條件 或者 where條件。
7、設置mapper 和 reduce個數
mapper個數太多,啟動耗時,個數太少,資源利用不充分 reducer個數太多,啟動耗時,個數太少,資源利用不充分
mapper個數: 手動設置:
set mapred.map.tasks=2;
適當調整塊大小,從而改變分片數,來改變mapper個數:
通過合并文件小文件來減少mapper個數:
set mapred.max.split.size=25600000; 256M
set mapred.min.split.per.node=1
set mapred.min.split.per.rack=1
set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;
reducer個數(通常手動設置):
set mapreduce.job.reduces=-1;
8、hive使用jvm重用
mapreduce.job.jvm.numtasks=1 ?set mapred.job.reuse.jvm.num=8; ##jvm里運行task的任務數
9、數據傾斜(查看:Hive優化.docx文檔)
數據傾斜:數據某列的值分布不均勻。 造成數據傾斜的原因: 1、原本數據就傾斜 2、hql語句可能造成 3、join 極容易造成 4、count(distinct col) 5、group by語句也容易
解決方法: 1、如果數據本身傾斜,看數據能否直接分離(找到傾斜的數據) 2、將傾斜的數據單獨出來計算,然后和正常的數據進行union all 3、將傾斜的數據賦予隨機數來進行join查詢,均衡每個task的任務量。 4、試圖不變需求改寫hql語句。
傾斜解決的幾個屬性設置:
hive.map.aggr=true
hive.groupby.skewindata=false
hive.optimize.skewjoin=false ?
10、job數量的控制
連接查詢的on中的連接字段類型盡可能相同。 通常是一個簡單hql語句生成一個job,有join 、limit 、group by 都將有可能會生成一個獨立job。
select
u.uid,
u.uname
from user1 u
where u.uid in (select l.uid from login l where l.uid=1 limit 1)
;
select
u.uid,
u.uname
from user1 u
join login l
on u.uid = l.uid
where l.uid = 1
;
分區 、分桶 、索引 這些本身就是hive的一種優化。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。