中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

IP改變引起的Ceph monitor異常及OSD盤崩潰怎么辦

發布時間:2021-12-17 11:25:24 來源:億速云 閱讀:300 作者:小新 欄目:系統運維

這篇文章主要介紹了IP改變引起的Ceph monitor異常及OSD盤崩潰怎么辦,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

公司搬家,所有服務器的ip改變。對ceph服務器配置好ip后啟動,發現monitor進程啟動失敗,monitor進程總是試圖綁定到以前的ip地址,那當然不可能成功了。開始以為服務器的ip設置有問題,在改變hostname、ceph.conf等方法無果后,逐步分析發現,是monmap中的ip地址還是以前的ip,ceph通過讀取monmap來啟動monitor進程,所以需要修改monmap。方法如下:

#Add the new monitor locations  # monmaptool --create --add mon0 192.168.32.2:6789 --add osd1 192.168.32.3:6789 \    --add osd2 192.168.32.4:6789 --fsid 61a520db-317b-41f1-9752-30cedc5ffb9a \    --clobber monmap     #Retrieve the monitor map  # ceph mon getmap -o monmap.bin     #Check new contents  # monmaptool --print monmap.bin     #Inject the monmap  # ceph-mon -i mon0 --inject-monmap monmap.bin  # ceph-mon -i osd1 --inject-monmap monmap.bin  # ceph-mon -i osd2 --inject-monmap monmap.bin

再啟動monitor,一切正常。

但出現了上一篇文章中描述的一塊osd盤掛掉的情況。查了一圈,只搜到ceph的官網上說是ceph的一個bug。無力修復,于是刪掉這塊osd,再重裝:

# service ceph stop osd.4  #不必執行ceph osd crush remove osd.4  # ceph auth del osd.4  # ceph osd rm 4     # umount /cephmp1  # mkfs.xfs -f /dev/sdc  # mount /dev/sdc /cephmp1  #此處執行create無法正常安裝osd  # ceph-deploy osd prepare osd2:/cephmp1:/dev/sdf1  # ceph-deploy osd activate osd2:/cephmp1:/dev/sdf1

完成后重啟該osd,成功運行。ceph會自動平衡數據,***的狀態是:

[root@osd2 ~]# ceph -s      cluster 61a520db-317b-41f1-9752-30cedc5ffb9a      health HEALTH_WARN 9 pgs incomplete; 9 pgs stuck inactive; 9 pgs stuck unclean; 3 requests are blocked > 32 sec       monmap e3: 3 mons at {mon0=192.168.32.2:6789/0,osd1=192.168.32.3:6789/0,osd2=192.168.32.4:6789/0}, election epoch 76, quorum 0,1,2 mon0,osd1,osd2       osdmap e689: 6 osds: 6 up, 6 in       pgmap v189608: 704 pgs, 5 pools, 34983 MB data, 8966 objects              69349 MB used, 11104 GB / 11172 GB avail                   695 active+clean                     9 incomplete

出現了9個pg的incomplete狀態。

[root@osd2 ~]# ceph health detail  HEALTH_WARN 9 pgs incomplete; 9 pgs stuck inactive; 9 pgs stuck unclean; 3 requests are blocked > 32 sec; 1 osds have slow requests  pg 5.95 is stuck inactive for 838842.634721, current state incomplete, last acting [1,4]  pg 5.66 is stuck inactive since forever, current state incomplete, last acting [4,0]  pg 5.de is stuck inactive for 808270.105968, current state incomplete, last acting [0,4]  pg 5.f5 is stuck inactive for 496137.708887, current state incomplete, last acting [0,4]  pg 5.11 is stuck inactive since forever, current state incomplete, last acting [4,1]  pg 5.30 is stuck inactive for 507062.828403, current state incomplete, last acting [0,4]  pg 5.bc is stuck inactive since forever, current state incomplete, last acting [4,1]  pg 5.a7 is stuck inactive for 499713.993372, current state incomplete, last acting [1,4]  pg 5.22 is stuck inactive for 496125.831204, current state incomplete, last acting [0,4]  pg 5.95 is stuck unclean for 838842.634796, current state incomplete, last acting [1,4]  pg 5.66 is stuck unclean since forever, current state incomplete, last acting [4,0]  pg 5.de is stuck unclean for 808270.106039, current state incomplete, last acting [0,4]  pg 5.f5 is stuck unclean for 496137.708958, current state incomplete, last acting [0,4]  pg 5.11 is stuck unclean since forever, current state incomplete, last acting [4,1]  pg 5.30 is stuck unclean for 507062.828475, current state incomplete, last acting [0,4]  pg 5.bc is stuck unclean since forever, current state incomplete, last acting [4,1]  pg 5.a7 is stuck unclean for 499713.993443, current state incomplete, last acting [1,4]  pg 5.22 is stuck unclean for 496125.831274, current state incomplete, last acting [0,4]  pg 5.de is incomplete, acting [0,4]  pg 5.bc is incomplete, acting [4,1]  pg 5.a7 is incomplete, acting [1,4]  pg 5.95 is incomplete, acting [1,4]  pg 5.66 is incomplete, acting [4,0]  pg 5.30 is incomplete, acting [0,4]  pg 5.22 is incomplete, acting [0,4]  pg 5.11 is incomplete, acting [4,1]  pg 5.f5 is incomplete, acting [0,4]  2 ops are blocked > 8388.61 sec  1 ops are blocked > 4194.3 sec  2 ops are blocked > 8388.61 sec on osd.0 1 ops are blocked > 4194.3 sec on osd.0 1 osds have slow requests

查了一圈無果。一個有同樣遭遇的人的一段話:

I already tried "ceph pg repair 4.77", stop/start OSDs, "ceph osd lost", "ceph pg force_create_pg 4.77".  Most scary thing is "force_create_pg" does not work. At least it should be a way to wipe out a incomplete PG  without destroying a whole pool.

以上方法嘗試了一下,都不行。暫時無法解決,感覺有點坑。

PS:常用pg操作

[root@osd2 ~]# ceph pg map 5.de  osdmap e689 pg 5.de (5.de) -> up [0,4] acting [0,4]  [root@osd2 ~]# ceph pg 5.de query  [root@osd2 ~]# ceph pg scrub 5.de  instructing pg 5.de on osd.0 to scrub  [root@osd2 ~]# ceph pg 5.de mark_unfound_lost revert  pg has no unfound objects  #ceph pg dump_stuck stale  #ceph pg dump_stuck inactive  #ceph pg dump_stuck unclean  [root@osd2 ~]# ceph osd lost 1  Error EPERM: are you SURE?  this might mean real, permanent data loss.  pass --yes-i-really-mean-it if you really do.  [root@osd2 ~]#   [root@osd2 ~]# ceph osd lost 4 --yes-i-really-mean-it  osd.4 is not down or doesn't exist  [root@osd2 ~]# service ceph stop osd.4  === osd.4 ===   Stopping Ceph osd.4 on osd2...kill 22287...kill 22287...done  [root@osd2 ~]# ceph osd lost 4 --yes-i-really-mean-it  marked osd lost in epoch 690 [root@osd1 mnt]# ceph pg repair 5.de  instructing pg 5.de on osd.0 to repair  [root@osd1 mnt]# ceph pg repair 5.de  instructing pg 5.de on osd.0 to repair

感謝你能夠認真閱讀完這篇文章,希望小編分享的“IP改變引起的Ceph monitor異常及OSD盤崩潰怎么辦”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

秭归县| 巴楚县| 酒泉市| 沙雅县| 青海省| 木里| 荥经县| 陆川县| 金华市| 凉城县| 台南县| 会同县| 车险| 德阳市| 安国市| 德安县| 昭通市| 磐石市| 清远市| 贡嘎县| 铜陵市| 抚州市| 岐山县| 呈贡县| 华蓥市| 贵南县| 大厂| 苗栗市| 环江| 凤山市| 安多县| 北京市| 车险| 贵德县| 岗巴县| 富宁县| 仪陇县| 阳山县| 汶上县| 乌拉特前旗| 遵化市|