中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么解決kafka消費不到遠程bootstrap-server數據的問題

發布時間:2021-11-26 16:23:29 來源:億速云 閱讀:281 作者:iii 欄目:開發技術

這篇文章主要介紹“怎么解決kafka消費不到遠程bootstrap-server數據的問題”,在日常操作中,相信很多人在怎么解決kafka消費不到遠程bootstrap-server數據的問題問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”怎么解決kafka消費不到遠程bootstrap-server數據的問題”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

問題

執行 ./bin/kafka-console-consumer.sh --bootstrap-server 10.10.151.12:6667 --topic flink_test
取不到數據沒有任何返回,也沒有報錯

解決

使用./bin/kafka-console-consumer.sh --zookeeper 10.10.151.12:2181 --topic flink_test
終于看到報錯信息了

[2020-12-02 10:06:41,087] WARN [console-consumer-73229_localhost.localdomain-1606874800409-65d73e12-leader-finder-thread]: Failed to add leader for partitions flink_test-5,flink_test-16,flink_test-2,flink_test-13,flink_test-21,flink_test-10,flink_test-15,flink_test-4,flink_test-7,flink_test-18,flink_test-1,flink_test-23,flink_test-12,flink_test-20,flink_test-9,flink_test-6,flink_test-17,flink_test-22,flink_test-3,flink_test-14,flink_test-19,flink_test-8,flink_test-0,flink_test-11; will retry (kafka.consumer.ConsumerFetcherManager$LeaderFinderThread)
java.nio.channels.ClosedChannelException
	at kafka.network.BlockingChannel.send(BlockingChannel.scala:112)
	at kafka.consumer.SimpleConsumer.liftedTree1$1(SimpleConsumer.scala:101)
	at kafka.consumer.SimpleConsumer.kafka$consumer$SimpleConsumer$$sendRequest(SimpleConsumer.scala:86)
	at kafka.consumer.SimpleConsumer.getOffsetsBefore(SimpleConsumer.scala:152)
	at kafka.consumer.SimpleConsumer.earliestOrLatestOffset(SimpleConsumer.scala:191)
	at kafka.consumer.ConsumerFetcherThread.handleOffsetOutOfRange(ConsumerFetcherThread.scala:92)
	at kafka.server.AbstractFetcherThread$$anonfun$7.apply(AbstractFetcherThread.scala:243)
	at kafka.server.AbstractFetcherThread$$anonfun$7.apply(AbstractFetcherThread.scala:240)
	at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234)
	at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234)
	at scala.collection.immutable.HashMap$HashMap1.foreach(HashMap.scala:221)
	at scala.collection.immutable.HashMap$HashTrieMap.foreach(HashMap.scala:428)
	at scala.collection.TraversableLike$class.map(TraversableLike.scala:234)
	at scala.collection.AbstractTraversable.map(Traversable.scala:104)
	at kafka.server.AbstractFetcherThread.addPartitions(AbstractFetcherThread.scala:240)
	at kafka.server.AbstractFetcherManager$$anonfun$addFetcherForPartitions$2.apply(AbstractFetcherManager.scala:97)
	at kafka.server.AbstractFetcherManager$$anonfun$addFetcherForPartitions$2.apply(AbstractFetcherManager.scala:85)
	at scala.collection.TraversableLike$WithFilter$$anonfun$foreach$1.apply(TraversableLike.scala:733)
	at scala.collection.immutable.Map$Map3.foreach(Map.scala:161)
	at scala.collection.TraversableLike$WithFilter.foreach(TraversableLike.scala:732)
	at kafka.server.AbstractFetcherManager.addFetcherForPartitions(AbstractFetcherManager.scala:85)
	at kafka.consumer.ConsumerFetcherManager$LeaderFinderThread.doWork(ConsumerFetcherManager.scala:96)
	at kafka.utils.ShutdownableThread.run(ShutdownableThread.scala:64)

修改/etc/hosts文件

10.10.151.11 test01
10.10.151.12 test02
10.10.151.13 test03

重新執行./bin/kafka-console-consumer.sh --bootstrap-server 10.10.151.12:6667 --topic flink_test
成功獲取數據

原因分析

1.原來kafka消費者和kafka server 在一個集群中hosts文件都一樣,所以沒有問題。
2.新的kafka消費者是我新加的一個機器,是獨立于集群的,但是需要消費集群中部分數據做實驗用
3.集群中的kafka配置中使用的的是hostname,所以新加的機器沒有配hosts就連接不上
4.kafka版本比較老了是1.0.0,但是我們項目定版了,這個版就要用1.0.0版防止沖突,下個版本我在升級一下吧。

到此,關于“怎么解決kafka消費不到遠程bootstrap-server數據的問題”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

陇西县| 姚安县| 玉门市| 深州市| 民县| 滨州市| 怀集县| 油尖旺区| 中卫市| 昌吉市| 双鸭山市| 北海市| 太原市| 浙江省| 津市市| 双峰县| 香港| 栖霞市| 龙门县| 乌鲁木齐市| 北流市| 会宁县| 玛纳斯县| 永吉县| 赫章县| 孝义市| 伽师县| 天峨县| 定日县| 萨迦县| 溆浦县| 安阳县| 山东省| 平潭县| 顺义区| 临夏县| 泰兴市| 运城市| 静安区| 鲁甸县| 龙岩市|