中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

fs.defaultFS變更使spark-sql查詢hive失敗是怎么回事

發布時間:2021-12-10 10:03:00 來源:億速云 閱讀:232 作者:小新 欄目:大數據

這篇文章將為大家詳細講解有關fs.defaultFS變更使spark-sql查詢hive失敗是怎么回事,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。


我們在將hdfs換成?可?后,我們的namede地址發?變更,也就是我們的fs.defaultFS發?變更后, 需要注意:這些修改會影響到我們的hive的正常運?,因為我們hive在建表的時候,其實已經改變了該表 的數據存放路徑。會導致我們在提交spark腳本【執?spark-sql】的腳本,報錯。如下圖所示:?直顯 示,讀取?的hdfs的namenode路徑。  
fs.defaultFS變更使spark-sql查詢hive失敗是怎么回事
這?,我們可以訪問我們的hive元數據表 SDS,如下圖所示:發現還是以未升級前的namenode地 址,也就是master:9000。  
fs.defaultFS變更使spark-sql查詢hive失敗是怎么回事
因此,我們需要修改這些存儲信息,有兩種?式:
  1. 直接修改表的信息 
  2. 利?hive?帶的?具
metatool -updateLocation <new-location> <old-location>
在裝有hive的節點執?命令
   
     
   
   
   metatool -updateLocation hdfs://bi hdfs://master:9000/
查詢元數據信息是否發?更改

   
     
   
   
   metatool -listFSRoot
fs.defaultFS變更使spark-sql查詢hive失敗是怎么回事
此時,hive的元數據信息已經發生變更,可以正常使用

關于“fs.defaultFS變更使spark-sql查詢hive失敗是怎么回事”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

邹平县| 个旧市| 泸定县| 洮南市| 平山县| 淳安县| 明水县| 五莲县| 揭阳市| 婺源县| 卓资县| 蕉岭县| 台前县| 罗定市| 五峰| 柯坪县| 上虞市| 高平市| 水城县| 镇江市| 贵州省| 太白县| 泾源县| 巴马| 陕西省| 成都市| 双牌县| 灌阳县| 龙井市| 河间市| 西吉县| 邵阳县| 林州市| 靖宇县| 丁青县| 金华市| 西充县| 白城市| 隆安县| 阳曲县| 崇礼县|