您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關MySQL之高可用集群部署及故障切換的實現方法的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
1、MHA架構
數據庫安裝
一主兩從
MHA搭建
2、故障模擬
模擬主庫失效
備選主庫成為主庫
原故障主庫恢復重新加入到MHA成為從庫
3、準備4臺安裝MySQL虛擬機
MHA高可用集群相關軟件包
MHAmanager IP:192.168.221.30
MySQL1 IP:192.168.221.20
MySQL2 IP:192.168.221.100
MySQL3 IP: 192.168.221.110
systemctl stop firewalld systemctl disable firewalld setenforce 0 netstat -natp | grep 3306
mysql1(192.168.221.20)
hostnamectl set-hostname mysql1 su - hostnamectl set-hostname mysql2 su - hostnamectl set-hostname mysql3 su -
MySQL1 vim /etc/my.cnf [mysqld] server-id = 1 log_bin = master-bin log-slave-updates = true systemctl restart mysqld ln -s /usr/local/mysql/bin/mysql /usr/sbin/ ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/ MySQL2 vim /etc/my.cnf server-id = 2 #server-id = 3 MySQL3則為3,三臺服務器 server-id 不能一樣 log_bin = master-bin relay-log = relay-log-bin relay-log-index = slave-relay-bin.index systemctl restart mysqld ln -s /usr/local/mysql/bin/mysql /usr/sbin/ ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
(1)所有MySQL服務器進行MySQL授權 mysql1(192.168.221.20) mysql2(192.168.221.100) mysql3(192.168.221.110) 3臺都要配置 mysql -uroot -p123 grant replication slave on *.* to 'myslave'@'192.168.221.%' identified by '123'; grant all privileges on *.* to 'mha'@'192.168.221.%' identified by 'manager'; grant all privileges on *.* to 'mha'@'mysql1' identified by 'manager'; grant all privileges on *.* to 'mha'@'mysql2' identified by 'manager'; grant all privileges on *.* to 'mha'@'mysql3' identified by 'manager'; flush privileges; show master status;
(2)在 Slave1、Slave2 節點執行同步操作 change master to master_host='192.168.221.20',master_user='myslave',master_password='123',master_log_file='master-bin.000005',master_log_pos=1991; start slave; show slave status\G Slave_IO_Running: Yes Slave_SQL_Running: Yes #一般 Slave_IO_Running: No 的可能性: #網絡不通 #my.cnf配置有問題 #密碼、file文件名、pos偏移量不對 #防火墻沒有關閉
(3)Slave1、Slave2 節點設置為只讀模式 mysql2(192.168.221.100) mysql3(192.168.221.110) set global read_only=1; #改回讀寫狀態set global read_only=0;
(4)主從復制驗證 mysql1(192.168.221.20) 創建庫 create database srs; use test; create table test(id int); insert into test values(1); mysql2(192.168.221.100) mysql3(192.168.221.110) 查詢庫驗證 show databases;
(1)所有服務器上都安裝 MHA 依賴的環境 MHAmanager(192.168.221.30) mysql1(192.168.221.20) mysql2(192.168.221.100) mysql3(192.168.221.110) 首先安裝 epel 源,需要在線源安裝 再在所有服務器上安裝 node 組件 #安裝在線源 mv /etc/yum.repos.d/repos.bak/CentOS-* /etc/yum.repos.d/ yum list yum install epel-release --nogpgcheck -y yum install -y perl-DBD-MySQL \ perl-Config-Tiny \ perl-Log-Dispatch \ perl-Parallel-ForkManager \ perl-ExtUtils-CBuilder \ perl-ExtUtils-MakeMaker \ perl-CPAN
(2)所有服務器安裝MHA node軟件包 MHAmanager(192.168.221.30) mysql1(192.168.221.20) mysql2(192.168.221.100) mysql3(192.168.221.110) 對于每個操作系統版本不一樣,這里 CentOS7.4 必須選擇 0.57 版本。 在所有服務器上必須先安裝 node 組件,最后在 MHA-manager 節點上安裝 manager 組件,因為 manager 依賴 node 組件。 #將軟件包mha4mysql-node-0.57.tar.gz放入/opt目錄下 cd /opt tar zxvf mha4mysql-node-0.57.tar.gz cd mha4mysql-node-0.57 perl Makefile.PL make && make install 在 MHA manager 節點上安裝 manager 組件 將軟件包mha4mysql-manager-0.57.tar.gz放入/opt目錄下 cd /opt tar zxvf mha4mysql-manager-0.57.tar.gz cd mha4mysql-manager-0.57 perl Makefile.PL make && make install #node組件安裝后也會在/usr/local/bin 下面會生成幾個腳本(這些工具通常由 MHAManager 的腳本觸發,無需人為操作) #manager 組件安裝后在/usr/local/bin 下面會生成幾個工具
(1)在 manager 節點上配置到所有數據庫節點的無密碼認證 MHAmanager(192.168.221.30) ssh-keygen -t rsa #一路按回車鍵 ssh-copy-id 192.168.221.20 ssh-copy-id 192.168.221.100 ssh-copy-id 192.168.221.110 (2)在 mysql1 上配置到數據庫節點 mysql2 和 mysql3 的無密碼認證 ssh-keygen -t rsa mysql1(192.168.221.20) ssh-keygen -t rsa ssh-copy-id 192.168.221.100 ssh-copy-id 192.168.221.110 (3)在 mysql2 上配置到數據庫節點 mysql1 和 mysql3 的無密碼認證 mysql2(192.168.221.100) ssh-keygen -t rsa ssh-copy-id 192.168.221.20 ssh-copy-id 192.168.221.110 (4)在 mysql3 上配置到數據庫節點 mysql1 和 mysql2 的無密碼認證 mysql3(192.168.221.110) ssh-keygen -t rsa ssh-copy-id 192.168.221.20 ssh-copy-id 192.168.221.100 篇幅太長不予演示
MHAmanager(192.168.221.30) (1)在 manager 節點上復制相關腳本到/usr/local/bin 目錄 cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin #復制后會有四個執行文件 ll /usr/local/bin/scripts/ (2)復制上述的自動切換時 VIP 管理的腳本到 /usr/local/bin 目錄,這里使用master_ip_failover腳本來管理 VIP 和故障切換 cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin #先清空原有內容 echo '' > /usr/local/bin/master_ip_failover #直接復制并修改vip相關參數 vim /usr/local/bin/master_ip_failover #!/usr/bin/env perl use strict; use warnings FATAL => 'all'; use Getopt::Long; my ( $command, $ssh_user, $orig_master_host, $orig_master_ip, $orig_master_port, $new_master_host, $new_master_ip, $new_master_port ); #############################添加內容部分######################################### my $vip = '192.168.221.200'; #指定vip的地址 my $brdc = '192.168.221.255'; #指定vip的廣播地址 my $ifdev = 'ens33'; #指定vip綁定的網卡 my $key = '1'; #指定vip綁定的虛擬網卡序列號 my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此變量值為ifconfig ens33:1 192.168.221.200 my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此變量值為ifconfig ens33:1 down my $exit_code = 0; #指定退出狀態碼為0 #my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;"; #my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key"; ################################################################################## GetOptions( 'command=s' => \$command, 'ssh_user=s' => \$ssh_user, 'orig_master_host=s' => \$orig_master_host, 'orig_master_ip=s' => \$orig_master_ip, 'orig_master_port=i' => \$orig_master_port, 'new_master_host=s' => \$new_master_host, 'new_master_ip=s' => \$new_master_ip, 'new_master_port=i' => \$new_master_port, ); exit &main(); sub main { print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n"; if ( $command eq "stop" || $command eq "stopssh" ) { my $exit_code = 1; eval { print "Disabling the VIP on old master: $orig_master_host \n"; &stop_vip(); $exit_code = 0; }; if ($@) { warn "Got Error: $@\n"; exit $exit_code; } exit $exit_code; } elsif ( $command eq "start" ) { my $exit_code = 10; eval { print "Enabling the VIP - $vip on the new master - $new_master_host \n"; &start_vip(); $exit_code = 0; }; if ($@) { warn $@; exit $exit_code; } exit $exit_code; } elsif ( $command eq "status" ) { print "Checking the Status of the script.. OK \n"; exit 0; } else { &usage(); exit 1; } } sub start_vip() { `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`; } ## A simple system call that disable the VIP on the old_master sub stop_vip() { `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`; } sub usage { print "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n"; }
mkdir /etc/masterha cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha echo '' > /etc/masterha/app1.cnf vim /etc/masterha/app1.cnf [server default] manager_log=/var/log/masterha/app1/manager.log manager_workdir=/var/log/masterha/app1 master_binlog_dir=/usr/local/mysql/data master_ip_failover_script=/usr/local/bin/master_ip_failover master_ip_online_change_script=/usr/local/bin/master_ip_online_change user=mha password=manager ping_interval=1 remote_workdir=/tmp repl_user=myslave repl_password=123 secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.221.100 -s 192.168.221.110 shutdown_script="" ssh_user=root [server1] hostname=192.168.221.20 port=3306 [server2] candidate_master=1 check_repl_delay=0 hostname=192.168.221.100 port=3306 [server3] hostname=192.168.221.110 port=3306 #--------------------------配置文件解釋-------------------------------------------------------------------------- [server default] manager_log=/var/log/masterha/app1/manager.log #manager日志 manager_workdir=/var/log/masterha/app1.log #manager工作目錄 master_binlog_dir=/usr/local/mysql/data/ #master保存binlog的位置,這里的路徑要與master里配置的binlog的路徑一致,以便MHA能找到 master_ip_failover_script=/usr/local/bin/master_ip_failover #設置自動failover時候的切換腳本,也就是上面的那個腳本 master_ip_online_change_script=/usr/local/bin/master_ip_online_change #設置手動切換時候的切換腳本 user=mha #設置監控用戶root password=manager #設置mysql中root用戶的密碼,這個密碼是前文中創建監控用戶的那個密碼 ping_interval=1 #設置監控主庫,發送ping包的時間間隔1秒,默認是3秒,嘗試三次沒有回應的時候自動進行failover remote_workdir=/tmp #設置遠端mysql在發生切換時binlog的保存位置 repl_user=myslave #設置復制用戶的用戶 repl_password=123 #設置復制用戶的密碼 report_script=/usr/local/send_report #設置發生切換后發送的報警的腳本 secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.221.100 -s 192.168.221.110 #指定檢查的從服務器IP地址 shutdown_script="" #設置故障發生后關閉故障主機腳本(該腳本的主要作用是關閉主機防止發生腦裂,這里沒有使用) ssh_user=root #設置ssh的登錄用戶名 [server1] hostname=192.168.221.20 port=3306 [server2] hostname=192.168.221.100 port=3306 candidate_master=1 #設置為候選master,設置該參數以后,發生主從切換以后將會將此從庫提升為主庫,即使這個主庫不是集群中最新的slave check_repl_delay=0 #默認情況下如果一個slave落后master 超過100M的relay logs的話,MHA將不會選擇該slave作為一個新的master, 因為對于這個slave的恢復需要花費很長時間;通過設置check_repl_delay=0,MHA觸發切換在選擇一個新的master的時候將會忽略復制延時,這個參數對于設置了candidate_master=1的主機非常有用,因為這個候選主在切換的過程中一定是新的master [server3] hostname=192.168.221.110 port=3306
Master(192.168.221.20) /sbin/ifconfig ens33:1 192.168.221.200/24
(1)在 manager 節點上測試 ssh 無密碼認證 MHAmanager(192.168.221.30) masterha_check_ssh -conf=/etc/masterha/app1.cnf #如果正常最后會輸出 successfully; #如果失敗可以去配置服務器無密碼認證的地方看看有沒有問題 (2)在 manager 節點上測試 mysql 主從連接情況 MHAmanager(192.168.221.30) masterha_check_repl -conf=/etc/masterha/app1.cnf #最后出現 MySQL Replication Health is OK 字樣說明正常; #出現MySQL Replication Health is NOT OK!的,可以去看一下mysql服務器上的軟鏈接是否少創建-->本文位置:2、修改三臺MySQL服務器的主配置文件/etc/my.cnf,并創建命令軟鏈接 (3)在 manager 節點上啟動 MHA MHAmanager(192.168.221.30) nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 & #------------------------組件解釋---------------------------------------------------------------------------------- --remove_dead_master_conf:該參數代表當發生主從切換后,老的主庫的 ip 將會從配置文件中移除。 --manger_log:日志存放位置。 --ignore_last_failover:在缺省情況下,如果 MHA 檢測到連續發生宕機,且兩次宕機間隔不足 8 小時的話,則不會進行 Failover, 之所以這樣限制是為了避免 ping-pong 效應。該參數代表忽略上次 MHA 觸發切換產生的文件,默認情況下,MHA 發生切換后會在日志記目錄,也就是上面設置的日志app1.failover.complete文件,下次再次切換的時候如果發現該目錄下存在該文件將不允許觸發切換,除非在第一次切換后收到刪除該文件,為了方便,這里設置為--ignore_last_failover。
MHAmanager(192.168.221.30) 查看 MHA 狀態,可以看到當前的 master 是 Mysql1 節點。 masterha_check_status --conf=/etc/masterha/app1.cnf 查看 MHA 日志,也以看到當前的 master 是 192.168.221.20 cat /var/log/masterha/app1/manager.log | grep "current master" 查看 Mysql1 的 VIP 地址,查看 Mysql1 的 VIP 地址 192.168.163.200 是否存在,這個 VIP 地址不會因為 manager 節點停止 MHA 服務而消失。 ifconfig 補充:若要關閉 manager 服務,可以使用如下命令。 masterha_stop --conf=/etc/masterha/app1.cnf 或者可以直接采用 kill 進程 ID 的方式關閉。
(1)在 manager 節點上監控觀察日志記錄 MHAmanager(192.168.221.30) tail -f /var/log/masterha/app1/manager.log
(2)在 Master 節點 Mysql1 上停止mysql服務 mysql1(192.168.221.20) systemctl stop mysqld 或 pkill -9 mysql 正常自動切換一次后,MHA 進程會退出。HMA 會自動修改 app1.cnf 文件內容,將宕機的 mysql1 節點刪除。
(3)查看 mysql2 是否接管 VIP mysql2(192.168.221.100) ifconfig
(4)回到manager 節點上監控觀察日志記錄 tail -f /var/log/masterha/app1/manager.log 故障切換備選主庫的算法: 1、一般判斷從庫的是從(position/GTID)判斷優劣,數據有差異,最接近于master的slave,成為備選主。 2、數據一致的情況下,按照配置文件順序,選擇備選主庫。 3、設定有權重(candidate_master=1),按照權重強制指定備選主。 (1)默認情況下如果一個slave落后master 100M的relay logs的話,即使有權重,也會失效。 (2)如果check_repl_delay=0的話,即使落后很多日志,也強制選擇其為備選主。
mysql1(192.168.221.20) (1)修復master systemctl restart mysqld netstat -natp | grep 3306
mysql2(192.168.221.100) (2)修復主從 在現主庫服務器 Mysql2查看二進制文件和同步點 mysql -uroot -p123 -e 'show master status;' #在數據庫中執行show master status; 在原主庫服務器 mysql1 執行同步操作 mysql1(192.168.221.20) change master to master_host='192.168.221.100',master_user='myslave',master_password='123',master_log_file='master-bin.000001',master_log_pos=1747; start slave; show slave status\G
(3)在 manager 節點上修改配置文件app1.cnf MHAmanager(192.168.221.30) 再把這個記錄添加進去,因為它檢測掉失效時候會自動消失 vim /etc/masterha/app1.cnf …… secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.221.20 -s 192.168.221.110 ...... [server1] hostname=192.168.221.100 port=3306 [server2] candidate_master=1 check_repl_delay=0 hostname=192.168.221.20 port=3306 [server3] hostname=192.168.221.110 port=3306
(4)在 manager 節點上啟動 MHA MHAmanager(192.168.221.30) masterha_stop --conf=/etc/masterha/app1.cnf nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 & masterha_check_status --conf=/etc/masterha/app1.cnf
感謝各位的閱讀!關于“MySQL之高可用集群部署及故障切換的實現方法”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。