- 1.MHA概述
- (1)MHA 的元件
- (2)MHA 的工作原理
- (3)MHA 的特點
- 2.搭建 MySQL MHA
- 3.故障模擬
- 4.故障修復
MySQL 主從複製叢集高可用方案:keepalived 主備 、MHA 、MMM 、 MySQL Cluster 、PXC。
1.MHA概述
MHA(MasterHigh Availability)是一套優秀的MySQL高可用環境下故障切換和主從複製的軟體。
MHA 的出現就是解決MySQL 單點的問題。
MySQL故障切換過程中,MHA能做到0-30秒內自動完成故障切換操作。
MHA能在故障切換的過程中最大程度上保證資料的一致性,以達到真正意義上的高可用。
傳統的MySQL主從架構存在的問題
(1)MHA 的元件
MHA Node 資料庫節點
MHA Manager 管理節點
(2)MHA 的工作原理
MHA Node 部署在每臺MySQL伺服器上,MHA Manager 可以單獨部署在一臺獨立伺服器上或者某個從庫伺服器上。
MHA Manager 會定時探測 MySQL 叢集中master主庫的狀態,當主庫出現故障,MHA Manager 會自動將一臺擁有最新資料的slave從庫提升為新的主庫,也會在新的主庫上生成 寫入VIP, 然後還會將其它的從庫重新指向新的主庫做主從複製,從而保證MySQL叢集的高可用。整個故障轉移過程對客戶端應用來說是完全透明的。
(3)MHA 的特點
自動故障切換過程中,MHA試圖從當機的主伺服器上儲存二進位制日誌,最大程度的保證資料不丟失
使用半同步複製,可以大大降低資料丟失的風險,如果只有一個slave已經收到了最新的二進位制日誌,MHA可以將最新的二進位制日誌應用於其他所有的slave伺服器上,因此可以保證所有節點的資料一致性
目前MHA支援一主多從架構,最少三臺服務,即一主兩從
2.搭建 MySQL MHA
1)在所有MySQL伺服器都做主從複製授權,還要給 MHA manager 訪問資料庫的授權
2)做時間同步和主從複製配置,並設定從伺服器為只讀模式
3)所有MySQL伺服器和 manager 伺服器都安裝 mha node 元件,manager 伺服器還要安裝 mha manager 元件
4)所有MySQL伺服器都要相互設定SSH免互動登入
5)在 manager 伺服器準備好 VIP故障切換指令碼 和 MHA 配置檔案
6)在 master主庫 伺服器上建立 VIP
7)在 manager 伺服器用 masterha_check_ssh 和 masterha_check_repl 做 MHA 啟動前檢測,再使用 masterha_manager 啟動 MHA 程序
8)做master故障轉移測試(VIP會漂移到新master節點上,其它的從庫會自動指向新的主庫做主從複製,故障轉移完成後MHA程序也會自動退出,MHA配置檔案會自動刪除原master的配置資訊)
1)Master節點伺服器20.0.0.140
2)Slave1節點伺服器20.0.0.170
3)Slave2節點伺服器20.0.0.110
4)MHA manager 節點伺服器20.0.0.150
Master、Slave1、Slave2 節點上安裝 mysql5.7,具體安裝步驟
https://www.cnblogs.com/zsy828/p/18247317
systemctl disable --now firewalld
setenforce 0
vim /etc/selinux/config
disabled
1)Master節點伺服器20.0.0.140
2)Slave1節點伺服器20.0.0.170
3)Slave2節點伺服器20.0.0.110
4)MHA manager 節點伺服器20.0.0.150
##開啟mysql
systemctl status mysqld
##修改 Master、Slave1、Slave2、MHA manager節點的主機名
hostnamectl set-hostname mysql1 ##Master
hostnamectl set-hostname mysql2 ##Slave1
hostnamectl set-hostname mysql3 ##Slave2
hostnamectl set-hostname manager ##MHA manager
bash
vim /etc/hosts
20.0.0.140 mysql1
20.0.0.170 mysql2
20.0.0.110 mysql3
20.0.0.150 manager
修改對應節點的主機名
4)MHA manager 節點伺服器20.0.0.150
##時間同步
systemctl start chronyd
systemctl status chronyd
vim /etc/chrony.conf
其餘註釋掉#
server ntp.aliyun.com iburst
systemctl restart chronyd
timedatectl
1)Master節點伺服器20.0.0.140
2)Slave1節點伺服器20.0.0.170
3)Slave2節點伺服器20.0.0.110
vim /etc/chrony.conf
其餘註釋掉#
server 20.0.0.150 iburst
systemctl restart chronyd
timedatectl
1)Master節點伺服器20.0.0.140
2)Slave1節點伺服器20.0.0.170
3)Slave2節點伺服器20.0.0.110
##修改 Master、Slave1、Slave2 節點的 Mysql主配置檔案/etc/my.cnf
vim /etc/my.cnf
[mysqld]
server-id=1 ###Slave1=2、Slave2=3 #三臺伺服器的 server-id 不能一樣
log_bin=mysql-bin
binlog_format=mixed
log-slave-updates=1
relay-log=relay-log-bin
relay-log-index=relay-log-bin.index
##在 Master、Slave1、Slave2 節點上都建立兩個軟連結
systemctl restart mysqld
ls /usr/local/mysql/bin/
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
##配置 mysql 一主兩從,所有資料庫節點進行 mysql 授權
mysql -uroot -pabc123
create user 'myslave'@'20.0.0.%' identified by 'myslave123';
grant replication slave on *.* to 'myslave'@'20.0.0.%' ;
create user 'manager'@'20.0.0.%' identified by 'manager123';
grant all on *.* to 'manager'@'20.0.0.%';
flush privileges;
##在 Master 節點檢視二進位制檔案和同步點
show master status;
2)Slave1節點伺服器20.0.0.170
3)Slave2節點伺服器20.0.0.110
##在 Slave1、Slave2 節點執行同步操作
change master to master_host='20.0.0.140', master_port=3306, master_user='myslave', master_password='myslave123', master_log_file='mysql-bin.000001', master_log_pos=1225;
start slave;
show slave status\G ##確保 IO 和 SQL 執行緒都是 Yes,代表同步正常。
set global read_only=1; ##兩個從庫必須設定為只讀模式:
插入資料測試資料庫同步
1)Master節點伺服器20.0.0.140
#在 Master 主庫插入條資料,測試是否同步
show databases;
create database mydb;
use mydb;
create table xlb666(id int, name varchar(20), sex char(2));
insert into xlb666 values (1, 'zhangsan', '男');
2)Slave1節點伺服器20.0.0.170
3)Slave2節點伺服器20.0.0.110
show databases;
select * from mydb.xlb666;
所有伺服器上都安裝 MHA 依賴的環境,首先安裝 epel 源
4)MHA manager 節點伺服器20.0.0.150
vim /etc/yum.conf
cachedir=/opt/yumcache
keepcache=1
cd /opt
mkdir /opt/yumcache
cd /etc/yum.repos.d
mv repo.bak/* ./
mv local.repo repo.bak
cd /opt/yumcache
yum install -y epel-release
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
mkdir mha
find ./ -name "*.rpm" -exec mv {} ./mha/ \; #將依賴包挪入該目錄
scp -r mha/ 20.0.0.140:/opt #將包複製到主伺服器
scp -r mha/ 20.0.0.170:/opt #將包複製到從伺服器
scp -r mha/ 20.0.0.110:/opt #將包複製到從伺服器
1)Master節點伺服器20.0.0.140
2)Slave1節點伺服器20.0.0.170
3)Slave2節點伺服器20.0.0.110
cd /opt
createrepo mha/ #自動生成yum資料庫依賴關係
cd mha
vim /etc/yum.repos.d/local.repo
baseurl=file:///opt/mha
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
1)Master節點伺服器20.0.0.140
2)Slave1節點伺服器20.0.0.170
3)Slave2節點伺服器20.0.0.110
4)MHA manager 節點伺服器20.0.0.150
安裝 MHA 軟體包,先在所有伺服器上必須先安裝 node 元件
cd /opt
rz -E
#mha4mysql-node-0.57.tar.gz
tar xf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57/
perl Makefile.PL && make && make install
1)Master節點伺服器20.0.0.140
2)Slave1節點伺服器20.0.0.170
3)Slave2節點伺服器20.0.0.110
4)MHA manager 節點伺服器20.0.0.150
cd /opt
rz -E
#mha4mysql-node-0.57.tar.gz
tar xf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57/
perl Makefile.PL && make && make install
4)MHA manager 節點伺服器20.0.0.150
在 MHA manager 節點上安裝 manager 組
cd /opt/
rz -E 上傳
#mha4mysql-manager-0.57.tar.gz
tar xf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57/
perl Makefile.PL && make && make install
在所有伺服器上配置無密碼認證
4)MHA manager 節點伺服器20.0.0.150
在 manager 節點上配置到所有資料庫節點的無密碼認證
ssh-keygen -t rsa #一路按Enter鍵
ssh-copy-id 20.0.0.140
ssh-copy-id 20.0.0.170
ssh-copy-id 20.0.0.110
1)Master節點伺服器20.0.0.140
在 mysql1 上配置到資料庫節點 mysql2 和 mysql3 的無密碼認證
ssh-keygen -t rsa
ssh-copy-id 20.0.0.170
ssh-copy-id 20.0.0.110
2)Slave1節點伺服器20.0.0.170
在 mysql2 上配置到資料庫節點 mysql1 和 mysql3 的無密碼認證
ssh-keygen -t rsa
ssh-copy-id 20.0.0.140
ssh-copy-id 20.0.0.110
3)Slave2節點伺服器20.0.0.110
在 mysql3 上配置到資料庫節點 mysql1 和 mysql2 的無密碼認證
ssh-keygen -t rsa
ssh-copy-id 20.0.0.170
ssh-copy-id 20.0.0.140
在 manager 節點上配置 MHA
4)MHA manager 節點伺服器20.0.0.150
cd /opt/mha4mysql-manager-0.57/samples
cp -a scripts/ /usr/local/bin
cd /usr/local/bin
##複製上述的自動切換時 VIP 管理的指令碼到 /usr/local/bin 目錄,這裡使用master_ip_failover指令碼來管理 VIP 和故障切換
cp scripts/master_ip_failover /usr/local/bin
rz -E 上傳
##master_ip_failover_2.txt
ls
vim master_ip_failover_2.txt 複製
vim master_ip_failover 貼上
:set paste 回車 i鍵 ##貼上不會混亂
my $vip = '20.0.0.80/24';
my $key = '1';
my $ssh_start_vip = "sudo /sbin/ifconfig ens33:$key $vip";
my $ssh_stop_vip = "sudo /sbin/ifconfig ens33:$key down";
my $ssh_Bcast_arp = "sudo /sbin/arping -I ens33 -c 3 -A $vip";
##複製上述的自動切換時 VIP 管理的指令碼到 /usr/local/bin 目錄,這裡使用master_ip_failover指令碼來管理 VIP 和故障切換
cd /usr/local/bin/scripts
cp master_ip_online_change power_manager /usr/local/bin/
cd /usr/local/bin/
chmod +x master_ip_failover
##建立 MHA 軟體目錄並複製配置文建立 MHA 軟體目錄並複製配置檔案,這裡使用app1.cnf配置檔案來管理 mysql 節點伺服器
#建立相關目錄(所有節點)
cd /opt
mkdir /opt/mysql-mha
cd mysql-mha
mkdir mha-manager
mkdir mha-node
#編寫配置檔案
vim mysql_mha.cnf
[server default]
manager_log=/opt/mysql-mha/manager.log
manager_workdir=/opt/mysql-mha/mha-manager
remote_workdir=/opt/mysql-mha/mha-node
master_binlog_dir=/usr/local/mysql/data
ping_interval=1
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
user=manager
password=manager123
repl_user=myslave
repl_password=myslave123
port=3306
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 20.0.0.170 -s 20.0.0.110
shutdown_script=""
ssh_user=root
[server1]
hostname=20.0.0.140
port=3306
[server2]
candidate_master=1 #候選master
check_repl_delay=0
hostname= 20.0.0.170
port=3306
[server3]
hostname=20.0.0.110
port=3306
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $orig_master_host, $orig_master_ip,$ssh_user,
$orig_master_port, $new_master_host, $new_master_ip,$new_master_port,
$orig_master_ssh_port,$new_master_ssh_port,$new_master_user,$new_master_password
);
# 這裡定義的虛擬IP配置要注意,這個ip必須要與你自己的叢集在同一個網段,否則無效
my $vip = '192.168.80.200/24';
my $key = '1';
# 這裡的網路卡名稱 “ens33” 需要根據你機器的網路卡名稱進行修改
# 如果多臺機器直接的網路卡名稱不統一,有兩種方式,一個是改指令碼,二是把網路卡名稱修改成統一
# 我這邊實際情況是修改成統一的網路卡名稱
my $ssh_start_vip = "sudo /sbin/ifconfig ens33:$key $vip";
my $ssh_stop_vip = "sudo /sbin/ifconfig ens33:$key down";
my $ssh_Bcast_arp= "sudo /sbin/arping -I ens33 -c 3 -A $vip";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'orig_master_ssh_port=i' => \$orig_master_ssh_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
'new_master_ssh_port' => \$new_master_ssh_port,
'new_master_user' => \$new_master_user,
'new_master_password' => \$new_master_password
);
exit &main();
sub main {
$ssh_user = defined $ssh_user ? $ssh_user : 'root';
print "\n\nIN SCRIPT TEST====$ssh_user|$ssh_stop_vip==$ssh_user|$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
&start_vip();
&start_arp();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub start_arp() {
`ssh $ssh_user\@$new_master_host \" $ssh_Bcast_arp \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --ssh_user=user --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
1)Master節點伺服器20.0.0.140
##第一次配置需要在 Master 節點上手動開啟虛擬IP
ifconfig ens33:1 20.0.0.80/24
4)MHA manager 節點伺服器20.0.0.150
在 manager 節點上測試 ssh 無密碼認證,如果正常最後會輸出 successfully
masterha_check_ssh -conf=/opt/mysql-mha/mysql_mha.cnf
successfully
##在 manager 節點上測試 mysql 主從連線情況
masterha_check_repl -conf=/opt/mysql-mha/mysql_mha.cnf
MySQL Replication Health is OK
在 manager 節點上啟動 MHA
nohup masterha_manager \
--conf=/opt/mysql-mha/mysql_mha.cnf \
--remove_dead_master_conf \
--ignore_last_failover < /dev/null > /var/log/mha_manager.log 2>&1 &
ps aux | grep 65146
##檢視 MHA 狀態,可以看到當前的 master 是 mysql1 節點
masterha_check_status -conf=/opt/mysql-mha/mysql_mha.cnf
3.故障模擬
4)MHA manager 節點伺服器20.0.0.150
vim /opt/mysql-mha/manager.log
tail -f /opt/mysql-mha/manager.log #在 manager 節點上監控觀察日誌記錄
1)Master節點伺服器20.0.0.140
systemctl stop mysqld
2)Slave1節點伺服器20.0.0.170
ifconfig
3)Slave2節點伺服器20.0.0.110
mysql -uroot -pabc123
show slave status\G
4.故障修復
1)Master節點伺服器20.0.0.140
systemctl start mysqld
在現主庫伺服器 mysql2 檢視二進位制檔案和同步點
2)Slave1節點伺服器20.0.0.170
mysql -uroot -pabc123
show master status;
在原主庫伺服器 mysql1 執行同步操作
1)Master節點伺服器20.0.0.140
mysql -uroot -pabc123
change master to master_host='20.0.0.170', master_port=3306, master_user='myslave', master_password='myslave123', master_log_file='mysql-bin.000001', master_log_pos=2171;
在 manager 節點上修改配置檔案,再把這個記錄新增進去,因為它檢測掉失效時候會自動消失)
4)MHA manager 節點伺服器20.0.0.150
vim /opt/mysql-mha/mysql_mha.cnf
20.0.0.140 -s 20.0.0.110
[server1]
hostname=20.0.0.140
port=3306
在 manager 節點上啟動 MHA
nohup masterha_manager \
--conf=/opt/mysql-mha/mysql_mha.cnf \
--remove_dead_master_conf \
--ignore_last_failover < /dev/null > /var/log/mha_manager.log 2>&1 &
ps aux | grep 65146
##檢視 MHA 狀態,可以看到當前的 master 是 mysql1 節點
masterha_check_status -conf=/opt/mysql-mha/mysql_mha.cnf
在現主庫伺服器 mysql2 關閉資料庫,重新開啟
2)Slave1節點伺服器20.0.0.170
systemctl stop mysqld
systemctl restart mysqld
####授權配置錯誤修正
STOP SLAVE;
RESET SLAVE;