您好,登錄后才能下訂單哦!
本篇內容主要講解“spark sql和hbase怎么結合”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“spark sql和hbase怎么結合”吧!
Q1:spark怎樣支持即席,應該不是spark sql吧,是hive on spark么?
Spark1.0 以前支持即席查詢的技術是Shark;
Spark 1.0和 Spark 1.0.1支持的即席查詢技術是Spark SQL;
尚未發布的Spark 1.1開始 Spark SQL是即席查詢的核心,我們期待Hive on Spark也能夠支持即席查詢;
Q2:現在spark 1.0.0版本是支持hive on spark么,它支持cli交互式訪問么?
Spark1.0.0不支持hive on spark;
hive on spark這個項目正在開發中,預計在 Spark 1.1版本的時候發布;
Spark 1.0.0現在還不直接支持cli訪問;
Q3:spark sql和hbase怎么結合呢?
Spark sql和hbase即可要借助于Spark core的RDD功能;
使用hbase的時候需要導入hbase在Spark上的包
Spark 1.0.0現在還不直接支持cli訪問;
Q4:sparkSql支持sql全嗎?老師 可以把現在的PLSQL 直接轉換為 SPARKSQL么?
Spark sql現在支持SQL-92的基本功能,后續版本不會不斷增強;
PLSQL 現在還不能夠直接轉為Spark SQL;
想要更強的SQL支持,在Spark1.0.0和Spark1.0.1版本可以考慮Hive in Spark SQL的功能;
Q5:如果支持hive on spark,那么什么時候用spark sql,什么時候用hive on spark?
Hive on spark預計在Spark 1.1這個版本發布,核心功能是要在Spark上使用已有的Hive的一切數據和功能;
和hive不相關都可以使用Spark SQL;
從理論上講隨著Spark SQL在未來版本的不斷增強,可以做hive的一切事情;
Q6:Spark SQL可以使用group by 嗎?
Spark SQL可以使用group by的功能;
在SchemaRDD中有group by的支持;
groupBy(groupingExprs: Expression*)(aggregateExprs: Expression*): SchemaRDD
Performs a grouping followed by an aggregation.
Q7:spark sql 現在支持sql的那些操作 一直在官網上沒能找到相應的document?
Spark SQL API的官方Document網址
http://spark.apache.org/docs/latest/api/scala/index.html#org.apache.spark.sql.SchemaRDD ;
Spark SQL使用的官方網址
http://spark.apache.org/docs/latest/sql-programming-guide.html
到此,相信大家對“spark sql和hbase怎么結合”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。