中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Sqoop怎么將MySQL數據導入到hive中

發布時間:2021-08-31 16:41:11 來源:億速云 閱讀:205 作者:chen 欄目:移動開發

這篇文章主要講解了“Sqoop怎么將MySQL數據導入到hive中”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“Sqoop怎么將MySQL數據導入到hive中”吧!

MySQL表:

mysql> desc t3;

+----------------+------------+------+-----+---------+-------+

| Field          | Type       | Null | Key | Default | Extra |

+----------------+------------+------+-----+---------+-------+

| ISVALID        | int(11)    | YES  | MUL | NULL    |       |

| CREATETIME     | datetime   | YES  |     | NULL    |       |

| UPDATETIME     | datetime   | YES  |     | NULL    |       |

| CONC_UNI_CODE  | bigint(20) | YES  |     | NULL    |       |

| COM_UNI_CODE   | bigint(20) | YES  |     | NULL    |       |

| FUND_INFW_REL  | double     | YES  |     | NULL    |       |

| MARK_MANI_REL  | double     | YES  |     | NULL    |       |

| STOCK_FREQ_REL | double     | YES  |     | NULL    |       |

| STOCK_CONC_REL | double     | YES  |     | NULL    |       |

+----------------+------------+------+-----+---------+-------+

9 rows in set (0.01 sec)

mysql> 

hive中自己創建表:

hive> create table tt1(

ISVALID int,

CREATETIME TIMESTAMP,

UPDATETIME TIMESTAMP,

CONC_UNI_CODE bigint,

COM_UNI_CODE bigint,

FUND_INFW_REL double,

MARK_MANI_REL double,

STOCK_FREQ_REL double,

STOCK_CONC_REL double) 

ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' ;

hive>

1.將Mysql數據導入到hive中(提前在hive中創建表)

(1).導入數據到HDFS中

[hdfs@jingong01 ~]$ sqoop import --connect jdbc:mysql://172.16.8.93:3306/db_stktag --username wangying --password wangying --table t3 --target-dir /user/tong/123 --num-mappers 1 --hive-table tt1 -m 1 --split-by date --direct --fields-terminated-by '\t'

(2).加載數據

hive> load data inpath '/user/tong/123' into table tt1;

hive> select * from tt1 limit 2;

OK

0 2015-06-12 10:00:04 2016-07-28 18:00:16 5001000008 3000001022 80.0 90.0 70.0 85.0

0 2015-06-12 10:00:04 2015-12-22 15:18:25 5001000008 3000078316 30.0 80.0 70.0 64.0

Time taken: 0.089 seconds, Fetched: 2 row(s)

hive> 

2.直接從Mysql導入到hive中,不需要load data加載

[hdfs@jingong01 ~]$ cat test.sql 

create table test(

ISVALID int,

CREATETIME TIMESTAMP,

UPDATETIME TIMESTAMP,

CONC_UNI_CODE bigint,

COM_UNI_CODE bigint,

FUND_INFW_REL double,

MARK_MANI_REL double,

STOCK_FREQ_REL double,

STOCK_CONC_REL double) 

ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

[hdfs@jingong01 ~]$ hive -f test.sql   --創建表

Logging initialized using configuration in jar:file:/opt/cloudera/parcels/CDH-5.13.0-1.cdh6.13.0.p0.29/lib/hive/lib/hive-common-1.1.0-cdh6.13.0.jar!/hive-log4j.properties

OK

Time taken: 6.709 seconds

[hdfs@jingong01 ~]$ sqoop import --connect jdbc:mysql://172.16.8.93:3306/db_stktag --username wangying --password wangying --table t3 --delete-target-dir --num-mappers 1 --hive-import -m 1 --hive-table test --fields-terminated-by '\t'      --導入數據

。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。

19/01/30 15:35:38 INFO hive.HiveImport: OK

19/01/30 15:35:38 INFO hive.HiveImport: Time taken: 6.207 seconds

19/01/30 15:35:38 INFO hive.HiveImport: Loading data to table default.test

19/01/30 15:35:38 INFO hive.HiveImport: Table default.test stats: [numFiles=1, totalSize=3571294]

19/01/30 15:35:38 INFO hive.HiveImport: OK

19/01/30 15:35:38 INFO hive.HiveImport: Time taken: 0.615 seconds

19/01/30 15:35:38 INFO hive.HiveImport: WARN: The method class org.apache.commons.logging.impl.SLF4JLogFactory#release() was invoked.

19/01/30 15:35:38 INFO hive.HiveImport: WARN: Please see http://www.slf4j.org/codes.html#release for an explanation.

19/01/30 15:35:39 INFO hive.HiveImport: Hive import complete.

19/01/30 15:35:39 INFO hive.HiveImport: Export directory is contains the _SUCCESS file only, removing the directory.

[hdfs@jingong01 ~]$ hive

Logging initialized using configuration in jar:file:/opt/cloudera/parcels/CDH-5.13.0-1.cdh6.13.0.p0.29/lib/hive/lib/hive-common-1.1.0-cdh6.13.0.jar!/hive-log4j.properties

hive>  select * from test limit 2;

OK

0 2015-06-12 10:00:04 2016-07-28 18:00:16 5001000008 3000001022 80.0 90.0 70.0 85.0

0 2015-06-12 10:00:04 2015-12-22 15:18:25 5001000008 3000078316 30.0 80.0 70.0 64.0

Time taken: 0.058 seconds, Fetched: 2 row(s)

hive> 

感謝各位的閱讀,以上就是“Sqoop怎么將MySQL數據導入到hive中”的內容了,經過本文的學習后,相信大家對Sqoop怎么將MySQL數據導入到hive中這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

文化| 泾源县| 沙湾县| 平罗县| 曲松县| 洱源县| 新丰县| 昌邑市| 漯河市| 托里县| 芦溪县| 丰宁| 东至县| 麟游县| 东平县| 梓潼县| 奉化市| 镇平县| 区。| 佛学| 肇源县| 潮州市| 白银市| 丰镇市| 嘉祥县| 遂平县| 南丰县| 武城县| 莱西市| 方正县| 晋州市| 二手房| 弥渡县| 吉安市| 东丰县| 温宿县| 德州市| 兰州市| 张家界市| 城步| 鄂托克前旗|