中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop數據怎么遷移

發布時間:2021-08-19 09:23:17 來源:億速云 閱讀:367 作者:chen 欄目:云計算

本篇內容主要講解“hadoop數據怎么遷移”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“hadoop數據怎么遷移”吧!

tcp工具使用說明:

在表結構/分區創建好的情況下,在hadoop2.0集群的任意一個節點上執行:

hadoop distcp -Dmapreduce.job.queue.name=queue_name  -update -skipcrccheck [source_path...] <target_path>

1、    source_path參數為hadoop1.0上需要拷貝的表/分區數據目錄全路徑,必須采用hftp協議訪問,如test庫下的test表路徑為hftp://hadoop1:50070/user/hive/warehouse/test.db/test

2、    target_path參數為hadoop2.0上對應表/分區數據目錄路徑,如/user/hive/warehouse/test.db/test

3、    跨版本集群拷貝時-update -skipcrccheck參數必須帶上。

4、    -Dmapreduce.job.queue.name參數用于指定任務在哪個資源池中運行,如:-Dmapreduce.job.queue.name=queue_0401_01。

5、Distcp任務執行時以MR任務運行,會占用指定資源池中資源。

表數據拷貝示例:

hadoop distcp -Dmapreduce.job.queue.name=queue_0401_01 -update -skipcrccheck hftp://hadoop1:50070/user/hive/warehouse/social.db/sina_wb_timelines  /user/hive/warehouse/social.db/sina_wb_timelines

分區數據拷貝示例:

hadoop distcp -Dmapreduce.job.queue.name=queue_0401_01 -update -skipcrccheck hftp://hadoop1:50070/user/hive/warehouse/social.db/sina_wb_timelines/d=21  /user/hive/warehouse/social.db/sina_wb_timelines/d=21

1、建立表結構:

CREATE  TABLE `fin_fa_wide_asset`(

  `period_name` string,

  `set_of_books_id` string,

  `book_type_code` string,

  `segment1` string,

  `segment2` string,

  `segment3` string,

  `asset_id` string,

  `description` string,

  `asset_category_id` string,

  `asset_number` string,

  `use_department` string,

  `operating_status` string,

  `use_status` string,

  `use_people` string,

  `city` string,

  `location` string,

  `units_assigned` double,

  `date_placed_in_service` string,

  `deprn_run_date` string,

  `cost` double,

  `original_cost` double,

  `salvage_value` double,

  `recoverable_cost` double,

  `current_net_value` double,

  `ytd_deprn` double,

  `deprn_reserve` double,

  `salvage_cost_rate` double,

  `deprn_method_code` string,

  `deprn_in_months` double,

  `life_in_months` double,

  `deprn_amount` double,

  `deprn_adjustment_acct` string,

  `po_number` string,

  `asset_invoice_id` string,

  `invoice_number` string)

PARTITIONED BY (

  `y` string,

  `m` string)row format delimited fields terminated by '\001' stored as rcfile;

2、導數:

hadoop distcp -Dmapreduce.job.queue.name=queue_0009_01 -update -skipcrccheck hftp://hadoop1:50070/user/hive/warehouse/jt_mas_safe.db/fin_fa_wide_asset  /user/hive/warehouse/jt_mas_safe.db/fin_fa_wide_asset

3、加載數據腳本,視不同表分區而定:

alter table jt_mas_safe.fin_fa_wide_asset add partition(y='2015',m='08');

load data inpath '/user/hive/warehouse/jt_mas_safe.db/fin_fa_wide_asset/y=2015/m=08' into table jt_mas_safe.fin_fa_wide_asset partition(y='2015',m='08’);

到此,相信大家對“hadoop數據怎么遷移”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

印江| 梁山县| 利川市| 徐州市| 曲沃县| 万荣县| 屯门区| 华亭县| 遵义市| 石城县| 房产| 松潘县| 乌海市| 牙克石市| 平武县| 五原县| 荥阳市| 高碑店市| 万宁市| 仪陇县| 大同县| 凌海市| 华宁县| 黄大仙区| 四会市| 宜州市| 绥阳县| 通江县| 黑龙江省| 兴文县| 仲巴县| 东阳市| 确山县| 上虞市| 石林| 正宁县| 永福县| 嘉兴市| 东丰县| 谷城县| 汉中市|