heartbeat+drbd+mysql MySQL高可用性を実現
5146 ワード
システム環境:
CentOS6.4-x86_64: node3.xxx.com(192.168.200.13/24)、node4.xxx.com(192.168.200.14/24)、VIP(192.168.200.20/24)は、両サーバともシングルNICである.
ソフトウェアおよびバージョン:
1、heartbeat-3.0.4-2.el6.x86_64
2、drbd-8.4.3-33.el6.x86_64
3、mysql-5.6.10-linux-glibc2.5-x86_64
一、ソフトウェアの配置:
1、drbdのインストールには2つのパッケージをインストールする必要がある:drbd-8.4.3-33.el6.x86_64.rpm、drbd-kmdl-2.6.32-358.el6-8.4.3-33.el6.x86_64.rpm
2、heartbeatのインストールに必要なパッケージ:heartbeat、heartbeat-devel、heartbeat-pils、heartbeat-stonith.これらのパッケージはepelソースでインストールできる
3、MySQLのインストールはソースパッケージのインストール、バイナリパッケージ(rpmパッケージ)のインストール、汎用パッケージがあります.ここで使いやすいのはMySQL汎用パッケージmysql-5.6.10-linux-glibc 2です.5-x86_64、それから初期化を行って、簡単に設定してファイルを配置して使用することができて、しかしデータベースの初期化はdrbdを配置した後にやっと行って、MySQLのデータをdrbdパーティションの上で保存するためです
二、ソフトウェア構成:
1、drbd配置:まず/etc/drbdをd/global_common.confは以下の構成に変更されました
そして/etc/drbd.dディレクトリの下にリソースプロファイルを追加します.リソースプロファイルの内容は以下の通りです.
上記のプロファイルは、2台のサーバとも同じである、1台の構成が完了したら、もう1台にコピーすればよい.プロファイルの構成が完了すると、drbdが起動しますが、起動する前にdrbdadm create-md allでdrbdディスクのメタデータを初期化し、drbdを起動します.drbdの起動は同時に2台のサーバで起動します.操作手順は次のとおりです.
2、上のdrbdの起動は完了して、しかも間違いなく報告して、次にするのはdrbdファイルシステムをフォーマットして、データベースのmysqlアカウントを創立して、drbdファイルシステムのマウントディレクトリを作成して、データベースを初期化します
これでmysqlが正常に起動した後、DRBDデバイスがロールを切り替え、mysqlを再起動し、正常であれば、以下のheartbeatによるmysql障害時のdrbdロール自動切替を行うことができる
2、heartbeatの構成:まずそのうちの1台のサーバに修正プロファイルを作成してから、別のサーバにコピーすればよい.
ここで特に説明しなければならないのは、私がここで2つの問題に遭遇したことです.
1) ha.cfのドキドキ情報伝播方式ucastを選択すると、以下のエラーが発生し、サービスが起動できなくなります.ネット上で資料を調べてみると、カーネルがアップグレードされなければ問題を解決できないということです.
Mar 17 14:34:59 node3.xxx.com heartbeat: [24573]: ERROR: glib: ucast: error setting option SO_REUSEPORT(w): Protocol not available
Mar 17 14:34:59 node3.xxx.com heartbeat: [24573]: ERROR: make_io_childpair: cannot open ucast eth0
2)heartbeatサービスを開始する前にdrbdサービスを開始しなかったため、次のエラーが発生しました.
ResourceManager(default)[28960]: 2014/03/17_14:49:47 ERROR: Return code 1 from/etc/ha.d/resource.d/drbddisk
CentOS6.4-x86_64: node3.xxx.com(192.168.200.13/24)、node4.xxx.com(192.168.200.14/24)、VIP(192.168.200.20/24)は、両サーバともシングルNICである.
ソフトウェアおよびバージョン:
1、heartbeat-3.0.4-2.el6.x86_64
2、drbd-8.4.3-33.el6.x86_64
3、mysql-5.6.10-linux-glibc2.5-x86_64
一、ソフトウェアの配置:
1、drbdのインストールには2つのパッケージをインストールする必要がある:drbd-8.4.3-33.el6.x86_64.rpm、drbd-kmdl-2.6.32-358.el6-8.4.3-33.el6.x86_64.rpm
# rpm -ivh drbd-*
2、heartbeatのインストールに必要なパッケージ:heartbeat、heartbeat-devel、heartbeat-pils、heartbeat-stonith.これらのパッケージはepelソースでインストールできる
# rpm -ivh epel-release-6-8.noarch.rpm
# yum install heartbeat heartbeat-devel heartbeat-stonith heartbeat-pils
3、MySQLのインストールはソースパッケージのインストール、バイナリパッケージ(rpmパッケージ)のインストール、汎用パッケージがあります.ここで使いやすいのはMySQL汎用パッケージmysql-5.6.10-linux-glibc 2です.5-x86_64、それから初期化を行って、簡単に設定してファイルを配置して使用することができて、しかしデータベースの初期化はdrbdを配置した後にやっと行って、MySQLのデータをdrbdパーティションの上で保存するためです
二、ソフトウェア構成:
1、drbd配置:まず/etc/drbdをd/global_common.confは以下の構成に変更されました
global {
usage-count no;
}
common {
handlers {
pri-on-incon-degr "/usr/lib/drbd/notify-pri-on-incon-degr.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";
pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";
local-io-error "/usr/lib/drbd/notify-io-error.sh; /usr/lib/drbd/notify-emergency-shutdown.sh; echo o > /proc/sysrq-trigger ; halt -f";
fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
split-brain "/usr/lib/drbd/notify-split-brain.sh root";
out-of-sync "/usr/lib/drbd/notify-out-of-sync.sh root";
}
syncer {rate 200M;}
}
そして/etc/drbd.dディレクトリの下にリソースプロファイルを追加します.リソースプロファイルの内容は以下の通りです.
resource mydb {
protocol C;
startup {
outdated-wfc-timeout 100;
wfc-timeout 120;
degr-wfc-timeout 120;
}
net {
cram-hmac-alg "sha1";
shared-secret "Mysql-Ha";
}
disk {
on-io-error detach;
fencing resource-only;
}
device /dev/drbd0;
on node3.xxx.com {
meta-disk internal;
address 192.168.200.13:7801;
disk /dev/sdb1;
}
on node4.xxx.com {
meta-disk internal;
address 192.168.200.14:7801;
disk /dev/sdb1;
}
}
上記のプロファイルは、2台のサーバとも同じである、1台の構成が完了したら、もう1台にコピーすればよい.プロファイルの構成が完了すると、drbdが起動しますが、起動する前にdrbdadm create-md allでdrbdディスクのメタデータを初期化し、drbdを起動します.drbdの起動は同時に2台のサーバで起動します.操作手順は次のとおりです.
# drbdadm create-md all
# service drbd start
2、上のdrbdの起動は完了して、しかも間違いなく報告して、次にするのはdrbdファイルシステムをフォーマットして、データベースのmysqlアカウントを創立して、drbdファイルシステムのマウントディレクトリを作成して、データベースを初期化します
drbd
#drbdadm primary all
# drbdadm -- --overwrite-data-of-peer primary all
# mkfs -t ext4 /dev/drbd0
# mkdir /data/drbd
# mount /dev/drbd0 /data/drbd
# useradd -r mysql
# mkdir /data/drbd/mysql
# chown mysql:mysql /data/drbd/mysql
# cd /usr/local && ln -s mysql-5.6.10-linux-glibc2.5-x86_64 mysql
# cd mysql && ./mysql_install_db --user=mysql --datadir=/data/drbd/mysql --basedir=/usr/local/mysql
# cp ./support-files/mysql.server /etc/init.d/mysqld
# service mysqld start
これでmysqlが正常に起動した後、DRBDデバイスがロールを切り替え、mysqlを再起動し、正常であれば、以下のheartbeatによるmysql障害時のdrbdロール自動切替を行うことができる
2、heartbeatの構成:まずそのうちの1台のサーバに修正プロファイルを作成してから、別のサーバにコピーすればよい.
# cd /etc/ha.d
# cp /usr/share/doc/heartbeat-3.0.4/{ha.cf,haresources,authkeys} ./
ha.cf :
logfile /var/log/ha-log
logfacility local0
keepalive 2
deadtime 10
bcast eth0 # Linux
auto_failback off
node node3.xxx.com
node node4.xxx.com
haaresources :
node3.xxx.com IPaddr::192.168.200.20/24/eth0 drbd::start drbddisk::mydb Filesystem::/dev/drbd0::/data/drbd::ext4 mysqld
authkeys :
auth 2
2 sha1 abc!
ここで特に説明しなければならないのは、私がここで2つの問題に遭遇したことです.
1) ha.cfのドキドキ情報伝播方式ucastを選択すると、以下のエラーが発生し、サービスが起動できなくなります.ネット上で資料を調べてみると、カーネルがアップグレードされなければ問題を解決できないということです.
Mar 17 14:34:59 node3.xxx.com heartbeat: [24573]: ERROR: glib: ucast: error setting option SO_REUSEPORT(w): Protocol not available
Mar 17 14:34:59 node3.xxx.com heartbeat: [24573]: ERROR: make_io_childpair: cannot open ucast eth0
2)heartbeatサービスを開始する前にdrbdサービスを開始しなかったため、次のエラーが発生しました.
ResourceManager(default)[28960]: 2014/03/17_14:49:47 ERROR: Return code 1 from/etc/ha.d/resource.d/drbddisk
mysql , , 。