Ubuntu 14.04単機取付CEPH
2692 ワード
1、/etc/hostsを修正し、ホスト名を自機のIPアドレスに対応させる(ループバックアドレス127.0.0.1を選択するとドメイン名が解析できないようだ).注意:以下のホスト名はmonsterで、読者はそれを自分のホスト名に変更する必要があります.
2、ディレクトリcephを作成して入る
3、2つのブロックデバイス(ハードディスクでもLVMボリュームでも可)を用意する.ここではLVMを使用する
上記のコマンドに従って、2つの仮想ディスクceph 0とceph 1を作成し、それぞれ/srv/ceph/osd 0と/srv/ceph/osd 1ディレクトリにマウントします.
4、ceph-deployのインストール
5、作業ディレクトリを作成し、クラスタに入る
シングルノードで作業しているので、プロファイルを変更する必要があります.
6、Cephベースライブラリ(ceph,ceph-common, ceph-fs-common, ceph-mds)
でも上の方法でインストールするのはちょっと問題があるようなので...直接apt-get install cephでもいいです
7、クラスタモニタを作成する
8、リモートノードの鍵を現在のフォルダに収集する
9、OSDを追加して、仮想ディスクのディレクトリをマウントする
10、OSDをアクティブにする
[ceph_deploy][ERROR ] RuntimeError: Failed to execute command: ceph-disk -v activate --mark-init upstart --mount/srv/ceph/osd0
起動時に上記のようなエラーが発生した場合は、コマンドsudo chown ceph:ceph/srv/ceph/osd 0で解決します(ただし、前にosdをしたディスクでは、この問題はこの方法では解決できないようです....)
11、adminキーを他のノードにコピーする
12、検証
10.10.105.78 monster
127.0.0.1 localhost
2、ディレクトリcephを作成して入る
3、2つのブロックデバイス(ハードディスクでもLVMボリュームでも可)を用意する.ここではLVMを使用する
dd if=/dev/zero of=ceph-volumes.img bs=1M count=8192 oflag=direct
sgdisk -g --clear ceph-volumes.img
sudo vgcreate ceph-volumes $(sudo losetup --show -f ceph-volumes.img)
sudo lvcreate -L2G -nceph0 ceph-volumes
sudo lvcreate -L2G -nceph1 ceph-volumes
sudo mkfs.xfs -f /dev/ceph-volumes/ceph0
sudo mkfs.xfs -f /dev/ceph-volumes/ceph1
mkdir -p /srv/ceph/{osd0,osd1,mon0,mds0}
sudo mount /dev/ceph-volumes/ceph0 /srv/ceph/osd0
sudo mount /dev/ceph-volumes/ceph1 /srv/ceph/osd1
上記のコマンドに従って、2つの仮想ディスクceph 0とceph 1を作成し、それぞれ/srv/ceph/osd 0と/srv/ceph/osd 1ディレクトリにマウントします.
4、ceph-deployのインストール
sudo apt-get install ceph-deploy
5、作業ディレクトリを作成し、クラスタに入る
mkdir ceph-cluster
cd ceph-cluster
ceph-deploy new monster // , CLUSTER.conf keyring
シングルノードで作業しているので、プロファイルを変更する必要があります.
echo "osd crush chooseleaf type = 0" >> ceph.conf
echo "osd pool default size = 1" >> ceph.conf
echo "osd journal size = 100" >> ceph.conf
6、Cephベースライブラリ(ceph,ceph-common, ceph-fs-common, ceph-mds)
ceph-deploy install monster
でも上の方法でインストールするのはちょっと問題があるようなので...直接apt-get install cephでもいいです
7、クラスタモニタを作成する
ceph-deploy mon create monster
8、リモートノードの鍵を現在のフォルダに収集する
ceph-deploy gatherkeys monster
9、OSDを追加して、仮想ディスクのディレクトリをマウントする
ceph-deploy osd prepare monster:/srv/ceph/osd0
ceph-deploy osd prepare monster:/srv/ceph/osd1
10、OSDをアクティブにする
sudo ceph-deploy osd activate monster:/srv/ceph/osd0
sudo ceph-deploy osd activate monster:/srv/ceph/osd1
[ceph_deploy][ERROR ] RuntimeError: Failed to execute command: ceph-disk -v activate --mark-init upstart --mount/srv/ceph/osd0
起動時に上記のようなエラーが発生した場合は、コマンドsudo chown ceph:ceph/srv/ceph/osd 0で解決します(ただし、前にosdをしたディスクでは、この問題はこの方法では解決できないようです....)
11、adminキーを他のノードにコピーする
ceph-deploy admin monster
12、検証
sudo ceph health
sudo ceph osd tree