中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何進行kafka的安裝和使用

發布時間:2021-12-15 15:44:14 來源:億速云 閱讀:148 作者:柒染 欄目:互聯網科技

這篇文章將為大家詳細講解有關如何進行kafka的安裝和使用,文章內容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。

1.       kafka介紹

1.1.       主要功能

根據官網的介紹,ApacheKafka?是一個分布式流媒體平臺,它主要有3種功能:

  1:It lets you publish and subscribe to streams of records.發布和訂閱消息流,這個功能類似于消息隊列,這也是kafka歸類為消息隊列框架的原因

  2:It lets you store streams of records in a fault-tolerant way.以容錯的方式記錄消息流,kafka以文件的方式來存儲消息流

  3:It lets you process streams of records as they occur.可以再消息發布的時候進行處理

1.2.       使用場景

1:Building real-time streaming data pipelines that reliably get data between systems or applications.在系統或應用程序之間構建可靠的用于傳輸實時數據的管道,消息隊列功能

2:Building real-time streaming applications that transform or react to the streams of data。構建實時的流數據處理程序來變換或處理數據流,數據處理功能

1.3.       詳細介紹

Kafka目前主要作為一個分布式的發布訂閱式的消息系統使用,下面簡單介紹一下kafka的基本機制

  1.3.1 消息傳輸流程

如何進行kafka的安裝和使用

    Producer即生產者,向Kafka集群發送消息,在發送消息之前,會對消息進行分類,即Topic,上圖展示了兩個producer發送了分類為topic1的消息,另外一個發送了topic2的消息。

    Topic即主題,通過對消息指定主題可以將消息分類,消費者可以只關注自己需要的Topic中的消息

    Consumer即消費者,消費者通過與kafka集群建立長連接的方式,不斷地從集群中拉取消息,然后可以對這些消息進行處理。

    從上圖中就可以看出同一個Topic下的消費者和生產者的數量并不是對應的。

  1.3.2 kafka服務器消息存儲策略

 如何進行kafka的安裝和使用

    談到kafka的存儲,就不得不提到分區,即partitions,創建一個topic時,同時可以指定分區數目,分區數越多,其吞吐量也越大,但是需要的資源也越多,同時也會導致更高的不可用性,kafka在接收到生產者發送的消息之后,會根據均衡策略將消息存儲到不同的分區中。

 如何進行kafka的安裝和使用

  在每個分區中,消息以順序存儲,最晚接收的的消息會最后被消費。

  1.3.3 與生產者的交互

 如何進行kafka的安裝和使用

    生產者在向kafka集群發送消息的時候,可以通過指定分區來發送到指定的分區中

    也可以通過指定均衡策略來將消息發送到不同的分區中

    如果不指定,就會采用默認的隨機均衡策略,將消息隨機的存儲到不同的分區中

  1.3.4  與消費者的交互

 如何進行kafka的安裝和使用 

    在消費者消費消息時,kafka使用offset來記錄當前消費的位置

    在kafka的設計中,可以有多個不同的group來同時消費同一個topic下的消息,如圖,我們有兩個不同的group同時消費,他們的的消費的記錄位置offset各不項目,不互相干擾。

    對于一個group而言,消費者的數量不應該多余分區的數量,因為在一個group中,每個分區至多只能綁定到一個消費者上,即一個消費者可以消費多個分區,一個分區只能給一個消費者消費

    因此,若一個group中的消費者數量大于分區數量的話,多余的消費者將不會收到任何消息。

2.       Kafka安裝與使用

2.1.       下載

  你可以在kafka官網 http://kafka.apache.org/downloads下載到最新的kafka安裝包,選擇下載二進制版本的tgz文件,根據網絡狀態可能需要fq,這里我們選擇的版本是0.11.0.1,目前的最新版

2.2.       安裝

  Kafka是使用scala編寫的運行與jvm虛擬機上的程序,雖然也可以在windows上使用,但是kafka基本上是運行在linux服務器上,因此我們這里也使用linux來開始今天的實戰。

  首先確保你的機器上安裝了jdk,kafka需要java運行環境,以前的kafka還需要zookeeper,新版的kafka已經內置了一個zookeeper環境,所以我們可以直接使用

  說是安裝,如果只需要進行最簡單的嘗試的話我們只需要解壓到任意目錄即可,這里我們將kafka壓縮包解壓到/home目錄

2.3.       配置

  在kafka解壓目錄下下有一個config的文件夾,里面放置的是我們的配置文件

  consumer.properites 消費者配置,這個配置文件用于配置于2.5節中開啟的消費者,此處我們使用默認的即可

  producer.properties 生產者配置,這個配置文件用于配置于2.5節中開啟的生產者,此處我們使用默認的即可

  server.properties kafka服務器的配置,此配置文件用來配置kafka服務器,目前僅介紹幾個最基礎的配置


    1. broker.id 申明當前kafka服務器在集群中的唯一ID,需配置為integer,并且集群中的每一個kafka服務器的id都應是唯一的,我們這里采用默認配置即可

    2. listeners 申明此kafka服務器需要監聽的端口號,如果是在本機上跑虛擬機運行可以不用配置本項,默認會使用localhost的地址,如果是在遠程服務器上運行則必須配置,例如:

          listeners=PLAINTEXT:// 192.168.180.128:9092。并確保服務器的9092端口能夠訪問

    3.zookeeper.connect 申明kafka所連接的zookeeper的地址 ,需配置為zookeeper的地址,由于本次使用的是kafka高版本中自帶zookeeper,使用默認配置即可

          zookeeper.connect=localhost:2181

2.4.       運行

  1. 啟動zookeeper

cd進入kafka解壓目錄,輸入

bin/zookeeper-server-start.sh config/zookeeper.properties &

啟動zookeeper成功后會看到如下的輸出

如何進行kafka的安裝和使用

    
      2.啟動kafka

cd進入kafka解壓目錄,輸入

bin/kafka-server-start.sh config/server.properties

啟動kafka成功后會看到如下的輸出

 如何進行kafka的安裝和使用

2.5.       第一個消息

   2.5.1   創建一個topic

    Kafka通過topic對同一類的數據進行管理,同一類的數據使用同一個topic可以在處理數據時更加的便捷

    在kafka解壓目錄打開終端,輸入

    bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

    創建一個名為test的topic

 如何進行kafka的安裝和使用

         在創建topic后可以通過輸入

            bin/kafka-topics.sh --list --zookeeper localhost:2181

   來查看已經創建的topic

  2.4.2   創建一個消息消費者

   在kafka解壓目錄打開終端,輸入(from-beginning每次都是從頭消費,不想從頭消費可以取消參數)

    bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

   可以創建一個用于消費topic為test的消費者

 如何進行kafka的安裝和使用

         消費者創建完成之后,因為還沒有發送任何數據,因此這里在執行后沒有打印出任何數據

         不過別著急,不要關閉這個終端,打開一個新的終端,接下來我們創建第一個消息生產者

  2.4.3         創建一個消息生產者

    在kafka解壓目錄打開一個新的終端,輸入

    bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

    在執行完畢后會進入的編輯器頁面

如何進行kafka的安裝和使用

在發送完消息之后,可以回到我們的消息消費者終端中,可以看到,終端中已經打印出了我們剛才發送的消息

如何進行kafka的安裝和使用




Python偽代碼版本
消費者

  1. [root@ip-10-1-2-175 sh]# more cus.py

  2. import time, json

  3. from pykafka import KafkaClient

  4. client = KafkaClient(hosts="10.1.2.175:9092") # 可接受多個Client這是重點

  5. topic = client.topics['test']   # 選擇一個topic

  6. # 生成一個消費者

  7. balanced_consumer = topic.get_balanced_consumer(consumer_group='goods_group',auto_commit_enable=True,zookeeper_connect='localhost:2181')


  8. for message in balanced_consumer:

  9.      print message


生產者

  1. [root@ip-10-1-2-175 sh]# more prod.py

  2. import time, json

  3. from pykafka import KafkaClient

  4. def pro():

  5.         client = KafkaClient(hosts="10.1.2.175:9092")

  6.         topic = client.topics['test']     # 選擇一個topic

  7.         producer = topic.get_producer() # 創建一個生產者


  8.         goods_dict = {'option_type':'insert','option_obj':{'goods_name':'goods-1'} }

  9.         goods_json = json.dumps(goods_dict)

  10.         producer.produce(goods_json) # 生產消息

  11.         producer.stop()

  12. if __name__ == '__main__':

  13.     pro()



啟動消費者
[root@ip-10-1-2-175 sh]# python cus.py 


啟動生產者
[root@ip-10-1-2-175 sh]# python prod.py 


查看消費者
[root@ip-10-1-2-175 sh]# python cus.py 

關于如何進行kafka的安裝和使用就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

萨嘎县| 惠水县| 阆中市| 桦川县| 资溪县| 综艺| 衡山县| 昆山市| 沙田区| 皋兰县| 江津市| 涿鹿县| 阿尔山市| 北流市| 黑河市| 桦南县| 湘潭市| 肃南| 荥经县| 元朗区| 大宁县| 上犹县| 自治县| 方山县| 永定县| 陵水| 顺义区| 巨鹿县| 松桃| 财经| 崇左市| 金溪县| 乌鲁木齐市| 花莲县| 双柏县| 黎平县| 蛟河市| 洛浦县| 克东县| 景宁| 南通市|