中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Storm-kafka接口怎么實現

發布時間:2021-12-09 16:19:28 來源:億速云 閱讀:138 作者:iii 欄目:云計算

本篇內容主要講解“Storm-kafka接口怎么實現”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“Storm-kafka接口怎么實現”吧!

閱讀背景: 如有需要,盡情參看本空間的另外一篇文檔

閱讀目的:了解Storm 如何來封裝kafka接口,如何處理Connection連接的封裝性問題

package com.mixbox.storm.kafka;

import kafka.javaapi.consumer.SimpleConsumer;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

import com.mixbox.storm.kafka.trident.IBrokerReader;

import java.util.HashMap;
import java.util.HashSet;
import java.util.Map;
import java.util.Set;

/**
 * 2014/07/22
 * 動態的【分區連接】
 * @author Yin Shuai
 */

public class DynamicPartitionConnections {

	public static final Logger LOG = LoggerFactory
			.getLogger(DynamicPartitionConnections.class);

	/**
	 * 持有了一個 kafka底層的SimpleConsumer對象
	 * 持有了  具體的分區
	 * 
	 * @author Yin Shuai
	 */
	
	
	static class ConnectionInfo {

		//內部維持了一個SimpleConsumer
		SimpleConsumer consumer;
		
		//分區
		Set<Integer> partitions = new HashSet();

		public ConnectionInfo(SimpleConsumer consumer) {
			this.consumer = consumer;
		}
	}

	/**
	 * 也就是kafka的每一個節點都維持了一個COnnectionInfo,ConnectionInfo
	 */
	Map<Broker, ConnectionInfo> _connections = new HashMap();

	// kafkaConfig
	KafkaConfig _config;

	/**
	 * IBrokerReader 基本上 IbroerReader這里初始化的是ZkBrokerReader
	 */

	IBrokerReader _reader;

	/**
	 * @param config
	 *            kafka配置
	 * @param brokerReader
	 *            IBrokerReader-用于拿到當前的接口
	 */
	public DynamicPartitionConnections(KafkaConfig config,
			IBrokerReader brokerReader) {
		_config = config;
		_reader = brokerReader;
	}

	/**
	 * @param partition  分區
	 * @return
	 */
	public SimpleConsumer register(Partition partition) {

		/**
		 * 依據你所擁有的partition號,拿到你所對應的Broker
		 * GlobalPartitionInformation中有Map<Integer, Broker>
		 * partitionMap,記錄了分區號與Broker所對應的關系
		 */

		Broker broker = _reader.getCurrentBrokers().getBrokerFor(
				partition.partition);
		return register(broker, partition.partition);
	}

	/**
	 * @param host
	 *            主機
	 * @param partition
	 *            分區
	 * @return 底層的SimpleConsumer 對象,這里存在一個注冊的行為,將主機和端口【broker】,和分區【partition】 注冊到 connections連接之中
	 */
	public SimpleConsumer register(Broker host, int partition) {

		// Map<Broker, ConnectionInfo> _connections = new HashMap();


		//如果連接之中沒有包含了Broker,那么建立一個新的連接,并且將這個  主機和連接注冊到  _connections之中
		if (!_connections.containsKey(host)) {
			_connections.put(host, new ConnectionInfo(new SimpleConsumer(
					host.host, host.port, _config.socketTimeoutMs,
					_config.bufferSizeBytes, _config.clientId)));
		}
		
		// ---------   在這里,不管之前有沒有都只取一次 -------------
		
		//當包含了,那就直接取出
		ConnectionInfo info = _connections.get(host);
		info.partitions.add(partition);
		return info.consumer;
	}

	public SimpleConsumer getConnection(Partition partition) {

		// ConnectionInfo 之中封裝了一個simpleConsumer
		ConnectionInfo info = _connections.get(partition.host);
		if (info != null) {
			return info.consumer;
		}
		return null;
	}

	/**
	 * @param port    固定的Broker
	 * @param partition  固定的分區
	 */
	public void unregister(Broker port, int partition) {
		ConnectionInfo info = _connections.get(port);
		info.partitions.remove(partition);
		if (info.partitions.isEmpty()) {
			info.consumer.close();
			_connections.remove(port);
		}
	}

	public void unregister(Partition partition) {
		unregister(partition.host, partition.partition);
	}

	public void clear() {
		for (ConnectionInfo info : _connections.values()) {
			info.consumer.close();
		}
		_connections.clear();
	}
}

     與前文有關

                1:       在DynamicPartitionConnections之中,我們持有了一個 IBrokerReader的接口對象。

                2 :       由于IBrokerReader 派生出了  

                                                    2.1 StaticBrokerReader

                                                    2.2 ZBrokerReader

       在這個序列的一系列博文之中,ZBrokerReader已經進行了詳盡的分析,并且在賦值的過程之中,IBrokerReader也是實例化為ZBrokerReader了。

     內部類:

                DynamicPartitionConnections 持有了一個 CinnectionInfo的內部類

static class ConnectionInfo {

		//內部維持了一個SimpleConsumer
		SimpleConsumer consumer;
		
		//分區
		Set<Integer> partitions = new HashSet();

		public ConnectionInfo(SimpleConsumer consumer) {
			this.consumer = consumer;
		}
	}

      1:  對于每一個Connection內部都維持了一個SimpleConsumer ,以及一個 Set集合 partitions

      2 :在DynamicPartitionConnections里面我們維持了一個_connections的對象

Map<Broker, ConnectionInfo> _connections = new HashMap();

      3 :在連接維護之中,關鍵的地方是維護一個 register注冊的行為:

public SimpleConsumer register(Broker host, int partition) {

     4: 如果_connections之中沒有包含Broker,那么將會再建立一個新的連接,并且將Broker和Connection 注冊到_connections之中

    5:在注冊的過程之中,不包含就注冊,最后都直接取出SimpleConsumer,這個SimpleConsumer

封裝了

new ConnectionInfo(new SimpleConsumer(

host.host, host.port, _config.socketTimeoutMs,

_config.bufferSizeBytes, _config.clientId)):

到此,相信大家對“Storm-kafka接口怎么實現”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

错那县| 莆田市| 云和县| 宁陕县| 阳城县| 紫阳县| 麻城市| 邹城市| 东方市| 定州市| 马尔康县| 满洲里市| 连州市| 株洲县| 隆昌县| 天气| 东丽区| 青川县| 岚皋县| 嘉峪关市| 淳安县| 吉林省| 合江县| 佛坪县| 福贡县| 贡山| 和田县| 江陵县| 泰来县| 海兴县| 融水| 盐池县| 商河县| 峡江县| 疏勒县| 永和县| 佛坪县| 获嘉县| 西峡县| 九江市| 平果县|