您好,登錄后才能下訂單哦!
1、保證spark-sql已經使用mysql作為metadata存儲介質
2、啟動thrift網關
$SPARK_HOME/sbin/start-thriftserver.sh --driver-class-path /usr/local/spark/spark-1.3.0-bin-hadoop2.3/lib/mysql-connector-java-5.1.6-bin.jar --master spark://hd1:7077 --executor-memory 2g --total-executor-cores 10
3、確認是否正確
beeline
>!connect jdbc:hive2://hd1:10000
user:hadoop
password:******
show databases;
show tables;
如果能夠看到和本地啟動的spark-sql一樣的結果,就是確認成功了。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。