rhel 7のcephストレージクラスタ構築の具体的な手順


Cephはストレージクラスタサービスを提供できるソフトウェアです

 , 
ceph :
    1. 
    2. 
    2. 

ここではcephを使用してストレージクラスタを構築する方法について説明します。


環境の紹介:

    node1 node2 node3  , 3 10G , node1 ( )
     client 
    node1 node2 node3 NTP , client NTP , yum node1 /etc/hosts 

1.環境の配置、ここの部分は簡単に省略しました:


(1)設定/etc/hostsファイル、ネイティブのドメイン名解析を実現
[root@node1 ~]# cat /etc/hosts      # , , 
    192.168.4.50 client
    192.168.4.51 node1
    192.168.4.52 node2
    192.168.4.53 node3

これらのコマンドがnode 2 node 3の2つのホスト上の/etc/hostsファイルに存在することを容易にするために(2)node 1管理ホスト上で秘密保護操作を構成するには:
[root@node1 ~]# ssh-keygen -N '' -f /root/.ssh/id_rsa
[root@node1 ~]# ssh-copy-id node1
[root@node1 ~]# ssh-copy-id node2
[root@node1 ~]# ssh-copy-id node3
[root@node1 ~]# ssh-copy-id client

(3)yumソースを他のホストにコピーし、各ホスト上のyumソースにインストールが必要なパッケージがあることを保証する
[root@node1 ~]# scp /etc/yum.repos.d/ceph.repo node2
[root@node1 ~]# scp /etc/yum.repos.d/ceph.repo node3
[root@node1 ~]# scp /etc/yum.repos.d/ceph.repo client

2.node 1管理ホスト上にストレージクラスタの機能ディレクトリを作成し、クラスタを構成する


(1)node 1にストレージクラスタサービスを提供するパッケージceph-deployをインストール.noarch
 [root@node1 ~]# yum -y install ceph-deploy.noarch

(2)node 1管理ホスト上にカスタムディレクトリceph-clusterを作成する
        [root@node1 ~]# mkdir ceph-cluster
        [root@node1 ~]# cd ceph-cluster

(3)node 1 node 2 node 3をストレージクラスタサーバとして指定し、ストレージクラスタサーバを作成する
        [root@node1 ceph-cluster]# ceph-deploy new node1 node2 node3     # , 

(4)すべてのストレージクラスタサーバにceph-deployツールをインストールする
        [root@node1 ceph-cluster]# ceph-deploy install node1 node2 node3

(5)すべてのクラスタに対してmonitorというモニタリングプログラムを初期化する
        [root@node1 ceph-cluster]# ceph-deploy mon create-initial

(6)node 1 node 2 node 3のために/dev/vdbを/dev/vdc/dev/vddの2つのディスクのログディスクとして2つの領域に分割する
        [root@node1 ceph-cluster]# parted /dev/vdc mktable gpt mkpart primary 1M 50%
        [root@node1 ceph-cluster]# parted /dev/vdc mkpart primary 50% 100%
        [root@node2 ~]# parted /dev/vdc mktable gpt mkpart primary 1M 50%
        [root@node2 ~]# parted /dev/vdc mkpart primary 50% 100%
        [root@node3 ~]# parted /dev/vdc mktable gpt mkpart primary 1M 50%
        [root@node3 ~]# parted /dev/vdc mkpart primary 50% 100%

(7)ログディスクに帰属を設定し、cephユーザーがログを保存してから権限を持つことを保証する
        [root@node1 ceph-cluster]# chown ceph:ceph /dev/vdc*
        [root@node2 ~]# chown ceph:ceph /dev/vdc*       # , /etc/rc.local x 
        [root@node3 ~]# chown ceph:ceph /dev/vdc*
             : node2 
                [root@node2 ~]# echo "chown ceph:ceph /dev/vdc*" >> /etc/rc.local
                [root@node2 ~]# chmod +x /etc/rc.local

(8)node 1管理ホスト上で共有する必要があるすべてのディスク/dev/vdb/dev/vddをフォーマットします.これらはnode 1管理ホスト上で動作します.
        [root@node1 ceph-cluster]# ceph-deploy disk zap node1:vdb node1:vdd
        [root@node1 ceph-cluster]# ceph-deploy disk zap node2:vdb node2:vdd
        [root@node1 ceph-cluster]# ceph-deploy disk zap node3:vdb node3:vdd

(9)osdディスクを作成し、これらも管理ホスト上で行えばよい
        [root@node1 ceph-cluster]# ceph-deploy osd create node1:vdb:/dev/vdc1 node1:vdd:/dev/vdc2
        [root@node1 ceph-cluster]# ceph-deploy osd create node2:vdb:/dev/vdc1 node2:vdd:/dev/vdc2
        [root@node1 ceph-cluster]# ceph-deploy osd create node3:vdb:/dev/vdc1 node3:vdd:/dev/vdc2

3.ceph-sコマンドを使用してステータスをチェックし、OKのみが正常です。

        [root@node1 ceph-cluster]# ceph -s
        cluster e9877c9f-d0ca-40c6-9af4-19c5c9dea10c
        health HEALTH_OK
        .......
        [root@node1 ceph-cluster]# ceph osd lspools                 # 
        0 rbd,