中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Ubuntu16.04安裝Kafka集群

發布時間:2020-07-14 02:49:07 來源:網絡 閱讀:1022 作者:OpenStack2015 欄目:大數據

下載

http://kafka.apache.org/downloads.html

http://mirror.bit.edu.cn/apache/kafka/0.11.0.0/kafka_2.11-0.11.0.0.tgz 

root@master:/usr/local/kafka_2.11-0.11.0.0/config# vim server.properties

broker.id=2            每個節點不同

log.retention.hours=168

message.max.byte=5242880

default.replication.factor=2

replica.fetch.max.bytes=5242880

zookeeper.connect=master:2181,slave1:2181,slave2:2181

復制到其它節點

注意要事先在zk中創建/kafka節點,否則會報出錯誤:java.lang.IllegalArgumentException: Path length must be > 0

root@master:/usr/local/zookeeper-3.4.9# bin/zkCli.sh -server master

[zk: master(CONNECTED) 7] create /kafka ''

Created /kafka

[zk: master(CONNECTED) 8] ls /            

[cluster, controller, controller_epoch, brokers, zookeeper, kafka, admin, isr_change_notification, consumers, latest_producer_id_block, config]

[zk: master(CONNECTED) 9] ls /kafka

[]

以守護進程方式啟動kafka

root@master:/usr/local/kafka_2.11-0.11.0.0# nohup bin/kafka-server-start.sh config/server.properties &

創建topic:

root@slave2:/usr/local/kafka_2.11-0.11.0.0# bin/kafka-topics.sh  --create  --zookeeper  master:2181  --replication-factor 1  --partitions  1  --topic test

Created topic "test".

列出所有topic:

root@slave2:/usr/local/kafka_2.11-0.11.0.0# bin/kafka-topics.sh --list --zookeeper master:2181

test

發送消息

root@master:/usr/local/kafka_2.11-0.11.0.0# bin/kafka-console-producer.sh --broker-list master:9092 --topic test

>this is a message

>this is ant^H message

消費消息

root@slave1:/usr/local/kafka_2.11-0.11.0.0# bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning

Using the ConsoleConsumer with old consumer is deprecated and will be removed in a future major release. Consider using the new consumer by passing [bootstrap-server] instead of [zookeeper].

this is a message

this is an message

查看集群狀態信息

root@slave1:/usr/local/kafka_2.11-0.11.0.0# bin/kafka-topics.sh --describe --zookeeper slave1:2181 --topic my-replicated-topic

Topic:my-replicated-topic    PartitionCount:1    ReplicationFactor:3    Configs:

    Topic: my-replicated-topic    Partition: 0    Leader: 3    Replicas: 1,3,2    Isr: 3,2

安裝kafka-manager

root@master:/usr/local/kafka_2.11-0.11.0.0# git clone https://github.com/yahoo/kafka-manager

root@master:/usr/local/kafka_2.11-0.11.0.0/kafka-manager# cd kafka-manager/

root@master:/usr/local/kafka_2.11-0.11.0.0/kafka-manager# ./sbt clean dist

[success] Total time: 3453 s, completed Aug 7, 2017 8:48:15 PM

打包好的文件存在

root@master:/usr/local/kafka_2.11-0.11.0.0/kafka-manager/target/universal# ls

kafka-manager-1.3.3.12.zip  tmp

修改kafka-manager配置文件

root@master:/usr/local/kafka_2.11-0.11.0.0/kafka-manager-1.3.3.12# vim conf/application.conf

kafka-manager.zkhosts="192.168.117.243:2181,192.168.117.45:2181,192.168.117.242:2181"

啟動kafka-manager

root@master:/usr/local/kafka_2.11-0.11.0.0/kafka-manager-1.3.3.12# bin/kafka-manager -Dconfig.file=conf/application.conf

推薦啟動方式:

root@master:/usr/local/kafka_2.11-0.11.0.0/kafka-manager-1.3.3.12# nohup bin/kafka-manager -Dconfig.file=conf/application.conf -Dhttp.port=7778 &

登錄kafka manager:

http://192.168.117.243:7778/

root@master:/usr/local/kafka_2.11-0.11.0.0/kafka-manager-1.3.3.12# netstat -antlup | grep 7778

tcp6       0      0 :::7778                 :::*                    LISTEN      100620/java   

root@master:/usr/local/kafka_2.11-0.11.0.0/kafka-manager-1.3.3.12# bin/kafka-manager -Dconfig.file=conf/application.conf

This application is already running (Or delete /usr/local/kafka_2.11-0.11.0.0/kafka-manager-1.3.3.12/RUNNING_PID file).

停止kafka-manager

root@master:/usr/local/kafka_2.11-0.11.0.0/kafka-manager-1.3.3.12# rm RUNNING_PID

root@master:/usr/local/kafka_2.11-0.11.0.0# cd kafka-manager-1.0-SNAPSHOT/

生產服務器配置

# Replication configurations

num.replica.fetchers=4

replica.fetch.max.bytes=1048576

replica.fetch.wait.max.ms=500

replica.high.watermark.checkpoint.interval.ms=5000

replica.socket.timeout.ms=30000

replica.socket.receive.buffer.bytes=65536

replica.lag.time.max.ms=10000

replica.lag.max.messages=4000

controller.socket.timeout.ms=30000

controller.message.queue.size=10

# Log configuration

num.partitions=8

message.max.bytes=1000000

auto.create.topics.enable=true

log.index.interval.bytes=4096

log.index.size.max.bytes=10485760

log.retention.hours=168

log.flush.interval.ms=10000

log.flush.interval.messages=20000

log.flush.scheduler.interval.ms=2000

log.roll.hours=168

log.retention.check.interval.ms=300000

log.segment.bytes=1073741824

# ZK configuration

zookeeper.connection.timeout.ms=6000

zookeeper.sync.time.ms=2000

# Socket server configuration

num.io.threads=8

num.network.threads=8

socket.request.max.bytes=104857600

socket.receive.buffer.bytes=1048576

socket.send.buffer.bytes=1048576

queued.max.requests=16

fetch.purgatory.purge.interval.requests=100

producer.purgatory.purge.interval.requests=100

Kafka是一種高吞吐量的分布式發布訂閱的消息隊列系統,原本開發自LinkedIn,用作LinkedIn的活動流(ActivityStream)和運營數據處理管道(Pipeline)的基礎。現在它已被多家不同類型的公司作為多種類型的數據管道和消息系統使用。

1 Kafka消息隊列簡介

1.1 基本術語

  • Broker
    Kafka集群包含一個或多個服務器,這種服務器被稱為broker[5] 

  • Topic
    每條發布到Kafka集群的消息都有一個類別,這個類別被稱為Topic。(物理上不同Topic的消息分開存儲,邏輯上一個Topic的消息雖然保存于一個或多個broker上但用戶只需指定消息的Topic即可生產或消費數據而不必關心數據存于何處)

  • Partition
    Partition是物理上的概念,每個Topic包含一個或多個Partition.(一般為kafka節點數cpu的總核數)

  • Producer
    負責發布消息到Kafka broker

  • Consumer
    消息消費者,向Kafka broker讀取消息的客戶端。

  • Consumer Group
    每個Consumer屬于一個特定的Consumer Group(可為每個Consumer指定group name,若不指定group name則屬于默認的group)。

1.2 消息隊列

1.2.1 基本特性
  1. 可擴展

  2. 在不需要下線的情況下進行擴容

  3. 數據流分區(partition)存儲在多個機器上

  4. 高性能

  5. 單個broker就能服務上千客戶端

  6. 單個broker每秒種讀/寫可達每秒幾百兆字節

  7. 多個brokers組成的集群將達到非常強的吞吐能力

  8. 性能穩定,無論數據多大

  9. Kafka在底層摒棄了Java堆緩存機制,采用了操作系統級別的頁緩存,同時將隨機寫操作改為順序寫,再結合Zero-Copy的特性極大地改善了IO性能。

  10. 持久存儲

  11. 存儲在磁盤上

  12. 冗余備份到其他服務器上以防止丟失

1.2.2 消息格式
  1. 一個topic對應一種消息格式,因此消息用topic分類

  2. 一個topic代表的消息有1個或者多個patition(s)組成

  3. 一個partition中

  4. 一個partition應該存放在一到多個server上

  • 一個server為leader

  • 其他servers為followers

  • leader需要接受讀寫請求

  • followers僅作冗余備份

  • leader出現故障,會自動選舉一個follower作為leader,保證服務不中斷

  • 每個server都可能扮演一些partitions的leader和其它partitions的follower角色,這樣整個集群就會達到負載均衡的效果

  • 如果只有一個server,就沒有冗余備份,是單機而不是集群

  • 如果有多個server


消息按順序存放消息順序不可變只能追加消息,不能插入每個消息都有一個offset,用作消息ID, 在一個partition中唯一offset有consumer保存和管理,因此讀取順序實際上是完全有consumer決定的,不一定是線性的消息有超時日期,過期則刪除
1.2.3 生產者 producer
  • producer將消息寫入kafka

  • 寫入要指定topic和partition

  • 消息如何分到不同的partition,算法由producer指定

1.2.4 消費者 consumer
  • consumer讀取消息并作處理

  • consumer group


    • 可以按照partition的數目進行并發處理

    • 每個partition都只有一個consumer讀取,因而保證了消息被處理的順序是按照partition的存放順序進行,注意這個順序受到producer存放消息的算法影響

    • 這個概念的引入為了支持兩種場景:每條消息分發一個消費者,每條消息廣播給所有消費者

    • 多個consumer group訂閱一個topic,該topci的消息廣播給所有consumer group

    • 一條消息發送到一個consumer group后,只能由該group的一個consumer接收和使用

    • 一個group中的每個consumer對應一個partition可以帶來如下好處


  •  一個Consumer可以有多個線程進行消費,線程數應不多于topic的partition數,因為對于一個包含一或多消費線程的consumer group來說,一個partition只能分給其中的一個消費線程消費,且讓盡可能多的線程能分配到partition(不過實際上真正去消費的線程及線程數還是由線程池的調度機制來決定)。這樣如果線程數比partition數多,那么單射分配也會有多出的線程,它們就不會消費到任何一個partition的數據而空轉耗資源 。

  • 如果consumer從多個partition讀到數據,不保證數據間的順序性,kafka只保證在一個partition上數據是有序的,但多個partition,根據你讀的順序會有不同

  • 增減consumer,broker,partition會導致rebalance,所以rebalance后consumer對應的partition會發生變化


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

城市| 吕梁市| 琼中| 黔东| 梨树县| 呈贡县| 比如县| 万山特区| 庆元县| 新建县| 宣威市| 上饶县| 泗水县| 犍为县| 阿拉善盟| 长寿区| 博客| 怀远县| 临海市| 自治县| 桐庐县| 余江县| 会昌县| 灵宝市| 阳朔县| 天等县| 安远县| 江山市| 长春市| 五峰| 大关县| 清流县| 外汇| 梅州市| 邹城市| 濉溪县| 大竹县| 信丰县| 墨脱县| 兴国县| 金沙县|