rhel 7のcephストレージクラスタ構築の具体的な手順
Cephはストレージクラスタサービスを提供できるソフトウェアです
,
ceph :
1.
2.
2.
ここではcephを使用してストレージクラスタを構築する方法について説明します。
環境の紹介:
node1 node2 node3 , 3 10G , node1 ( )
client
node1 node2 node3 NTP , client NTP , yum node1 /etc/hosts
1.環境の配置、ここの部分は簡単に省略しました:
(1)設定/etc/hostsファイル、ネイティブのドメイン名解析を実現
[root@node1 ~]# cat /etc/hosts # , ,
192.168.4.50 client
192.168.4.51 node1
192.168.4.52 node2
192.168.4.53 node3
これらのコマンドがnode 2 node 3の2つのホスト上の/etc/hostsファイルに存在することを容易にするために(2)node 1管理ホスト上で秘密保護操作を構成するには:
[root@node1 ~]# ssh-keygen -N '' -f /root/.ssh/id_rsa
[root@node1 ~]# ssh-copy-id node1
[root@node1 ~]# ssh-copy-id node2
[root@node1 ~]# ssh-copy-id node3
[root@node1 ~]# ssh-copy-id client
(3)yumソースを他のホストにコピーし、各ホスト上のyumソースにインストールが必要なパッケージがあることを保証する
[root@node1 ~]# scp /etc/yum.repos.d/ceph.repo node2
[root@node1 ~]# scp /etc/yum.repos.d/ceph.repo node3
[root@node1 ~]# scp /etc/yum.repos.d/ceph.repo client
2.node 1管理ホスト上にストレージクラスタの機能ディレクトリを作成し、クラスタを構成する
(1)node 1にストレージクラスタサービスを提供するパッケージceph-deployをインストール.noarch
[root@node1 ~]# yum -y install ceph-deploy.noarch
(2)node 1管理ホスト上にカスタムディレクトリceph-clusterを作成する
[root@node1 ~]# mkdir ceph-cluster
[root@node1 ~]# cd ceph-cluster
(3)node 1 node 2 node 3をストレージクラスタサーバとして指定し、ストレージクラスタサーバを作成する
[root@node1 ceph-cluster]# ceph-deploy new node1 node2 node3 # ,
(4)すべてのストレージクラスタサーバにceph-deployツールをインストールする
[root@node1 ceph-cluster]# ceph-deploy install node1 node2 node3
(5)すべてのクラスタに対してmonitorというモニタリングプログラムを初期化する
[root@node1 ceph-cluster]# ceph-deploy mon create-initial
(6)node 1 node 2 node 3のために/dev/vdbを/dev/vdc/dev/vddの2つのディスクのログディスクとして2つの領域に分割する
[root@node1 ceph-cluster]# parted /dev/vdc mktable gpt mkpart primary 1M 50%
[root@node1 ceph-cluster]# parted /dev/vdc mkpart primary 50% 100%
[root@node2 ~]# parted /dev/vdc mktable gpt mkpart primary 1M 50%
[root@node2 ~]# parted /dev/vdc mkpart primary 50% 100%
[root@node3 ~]# parted /dev/vdc mktable gpt mkpart primary 1M 50%
[root@node3 ~]# parted /dev/vdc mkpart primary 50% 100%
(7)ログディスクに帰属を設定し、cephユーザーがログを保存してから権限を持つことを保証する
[root@node1 ceph-cluster]# chown ceph:ceph /dev/vdc*
[root@node2 ~]# chown ceph:ceph /dev/vdc* # , /etc/rc.local x
[root@node3 ~]# chown ceph:ceph /dev/vdc*
: node2
[root@node2 ~]# echo "chown ceph:ceph /dev/vdc*" >> /etc/rc.local
[root@node2 ~]# chmod +x /etc/rc.local
(8)node 1管理ホスト上で共有する必要があるすべてのディスク/dev/vdb/dev/vddをフォーマットします.これらはnode 1管理ホスト上で動作します.
[root@node1 ceph-cluster]# ceph-deploy disk zap node1:vdb node1:vdd
[root@node1 ceph-cluster]# ceph-deploy disk zap node2:vdb node2:vdd
[root@node1 ceph-cluster]# ceph-deploy disk zap node3:vdb node3:vdd
(9)osdディスクを作成し、これらも管理ホスト上で行えばよい
[root@node1 ceph-cluster]# ceph-deploy osd create node1:vdb:/dev/vdc1 node1:vdd:/dev/vdc2
[root@node1 ceph-cluster]# ceph-deploy osd create node2:vdb:/dev/vdc1 node2:vdd:/dev/vdc2
[root@node1 ceph-cluster]# ceph-deploy osd create node3:vdb:/dev/vdc1 node3:vdd:/dev/vdc2
3.ceph-sコマンドを使用してステータスをチェックし、OKのみが正常です。
[root@node1 ceph-cluster]# ceph -s
cluster e9877c9f-d0ca-40c6-9af4-19c5c9dea10c
health HEALTH_OK
.......
[root@node1 ceph-cluster]# ceph osd lspools #
0 rbd,