中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

FlinkSQL怎么搭建

發布時間:2021-12-23 16:19:55 來源:億速云 閱讀:170 作者:iii 欄目:大數據

本篇內容主要講解“FlinkSQL怎么搭建”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“FlinkSQL怎么搭建”吧!

1.背景

由于公司內部需求較多,并不想每次都寫一個 streaming 程序,故而開始搭建 flinksql 平臺,基于 jdk1.8,flink1.12.x

2.效果

傳一個 sql 文件給 jar 包,然后 sql 文件內的 sql 將自動執行

3. jar 包 vs web 界面

調研了基于 web 的 zeppline

  1. zeppline 設計的初衷其實是為了交互式分析

  2. 基于 zeppline rest api 與現有的監控不兼容,需要修改現有監控的代碼

  3. 雖然帶有 web 界面的對用戶很是友好,對于分析人員來說,是一個不錯的選擇,但對于開發人員來說,真正的線上長時間的運行程序,開發成 HA 的 server 還是有必要的

基于以上 3 點最終選擇 jar 作為最終的方式

4. 使用

  1. 將 sql 寫入 xxx.sql 文件中,如

CREATE TEMPORARY FUNCTION MillisecondsToDateStr AS 'io.github.shengjk.udf.MillisecondsToDateStr' LANGUAGE JAVA;-- ExecutionCheckpointingOptionsset execution.checkpointing.mode=EXACTLY_ONCE;set execution.checkpointing.timeout=30 min;--  30minset execution.checkpointing.interval=1 min ; -- 1minset execution.checkpointing.externalized-checkpoint-retention=RETAIN_ON_CANCELLATION;-- ExecutionConfigOptionsset table.exec.state.ttl=1 day;  -- 1 dayset table.exec.mini-batch.enabled=true; -- enable mini-batch optimizationset table.exec.mini-batch.allow-latency=1 s; -- 1sset table.exec.mini-batch.size=1000;set table.exec.sink.not-null-enforcer=drop;-- -- dadadadadadaCREATE TABLE orders(
   status      int,
   courier_id  bigint,
   id          bigint,
   finish_time BIGINT)WITH (
   'connector' = 'kafka','topic' = 'canal_monitor_order',
   'properties.bootstrap.servers' = 'localhost:9092','properties.group.id' = 'testGroup',
   'format' = 'ss-canal-json','ss-canal-json.table.include' = 'orders','scan.startup.mode' = 'earliest-offset');-- flink.partition-discovery.interval-millis;CREATE TABLE infos(
   info_index int,
   order_id   bigint)WITH (
   'connector' = 'kafka','topic' = 'canal_monitor_order',
   'properties.bootstrap.servers' = 'localhost:9092','properties.group.id' = 'testGroup',
   'format' = 'ss-canal-json','ss-canal-json.table.include' = 'infos','scan.startup.mode' = 'earliest-offset');CREATE TABLE redisCache(
   finishOrders BIGINT,
   courier_id   BIGINT,
   dayStr       String)WITH (
   'connector' = 'redis',
   'hostPort'='localhost:6400',
   'keyType'='hash',
   'keyTemplate'='test2_${courier_id}',
   'fieldTemplate'='${dayStr}',
   'valueNames'='finishOrders',
   'expireTime'='259200');create view temp asselect o.courier_id,  (CASE   WHEN sum(infosMaxIndex.info_index) is null then 0   else sum(infosMaxIndex.info_index) end) finishOrders,  o.status,  dayStrfrom ((select courier_id, id, last_value(status)                             status, MillisecondsToDateStr(finish_time, 'yyyyMMdd') dayStr      from orders      where status = 60  group by courier_id, id, MillisecondsToDateStr(finish_time, 'yyyyMMdd'))) oleft join (select max(info_index) info_index, order_id                   from infos                   group by order_id) infosMaxIndex on o.id = infosMaxIndex.order_idgroup by o.courier_id, o.status, dayStr;INSERT INTO redisCache SELECT finishOrders,courier_id,dayStr FROM temp;
  1. 將 flinksql-platform 打包并上傳至服務器

  2. 將必要的 connector jar 放入到相應的目錄下

  3. 執行,如

flink-1.12.0/bin/flink  run -p 3 -yt ./flinkjar/  -C file:///home/shengjk/flinkjar/test-udf.jar -C file:///home/shengjk/flinkjar/jedis-2.10.2.jar  -m yarn-cluster -ynm sqlDemo  -c io.github.shengjk.Main ./flinksql-platform-1.0-SNAPSHOT.jar --sqlPath ./xxx.sql

其中
-C 添加 udfJar 等第三方 jar 包 -C 參數apply到了client端生成的JobGraph里,然后提交JobGraph來運行的
-yt 目錄 將 udfJar 等第三方 jar 包提交到 TaskManager 上

到此,相信大家對“FlinkSQL怎么搭建”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

丹江口市| 宁化县| 林州市| 喀喇沁旗| 泰顺县| 江西省| 彭泽县| 鹤壁市| 巴林右旗| 桑植县| 昔阳县| 荆门市| 察隅县| 东莞市| 达日县| 闸北区| 永丰县| 永和县| 梁平县| 阳新县| 吴川市| 崇左市| 萍乡市| 厦门市| 通化市| 双柏县| 鄄城县| 外汇| 夹江县| 鹤山市| 怀柔区| 安西县| 长乐市| 巴马| 青岛市| 澜沧| 独山县| 阜阳市| 甘谷县| 任丘市| 大新县|