Openstack接続cephがうまく解決しませんでした

4609 ワード

げんしょう


Openstack統合ceph中にrbdとrados接続cephが成功したがopenstack接続は成功しなかった.

の原因となる


私が構成したcephはadminユーザーを使用してcephに接続してユーザーを確立していません.権限制限かもしれません.

解決策


cephに新しいライセンスユーザーを作成すればいいです
ceph get-or-create client.glance mon 'allow *' osd 'allow *' mds 'allow *' -o ceph.client.glance.keyring
ceph get-or-create client.cinder mon 'allow *' osd 'allow *' mds 'allow *' -o ceph.client.cinder.keyring
ceph get-or-create client.nova mon 'allow *' osd 'allow *' mds 'allow *' -o ceph.client.nova.keyring

また、novaの計算ノードを変更することに注意してください.
cat > secret.xml <<EOF
<secret ephemeral='no' private='no'>
  <uuid>457eb676-33da-42ec-9a8c-9293d545c337uuid> 
  <usage type='ceph'>
    <name>client.cinder secretname>
  usage>
secret>
EOF

virsh secret-define --file secret.xml
virsh secret-set --secret key --base64 ceph auth get-key client.cinder

説明

  • この一連のコマンドによって生成されたkey値はnovaとcinderを構成する重要な値rbd_である.secret_uuid
  • uuidはまずuuidgenで生成するもよいしvirsh sercret-defineのとき
  • を生成する.

    添付:openstack構成変更

    /etc/glance/glance-api.conf
    [DEFAULT]
    ...
    default_store = rbd
    ...
    [glance_store]
    stores = rbd
    rbd_store_pool = images
    rbd_store_user = glance
    rbd_store_ceph_conf = /etc/ceph/ceph.conf
    rbd_store_chunk_size = 8
    /etc/cinder/cinder.conf
    [DEFAULT]
    ...
    enabled_backends = ceph
    ...
    [ceph]
    volume_driver = cinder.volume.drivers.rbd.RBDDriver
    rbd_pool = volumes
    rbd_ceph_conf = /etc/ceph/ceph.conf
    rbd_flatten_volume_from_snapshot = false
    rbd_max_clone_depth = 5
    rbd_store_chunk_size = 4
    rados_connect_timeout = -1
    glance_api_version = 2
    rbd_user = cinder
    rbd_secret_uuid = 457eb676-33da-42ec-9a8c-9293d545c337
    /etc/nova/nova.conf
    [libvirt]
    images_type = rbd
    images_rbd_pool = vms
    images_rbd_ceph_conf = /etc/ceph/ceph.conf
    rbd_user = cinder
    rbd_secret_uuid = 457eb676-33da-42ec-9a8c-9293d545c337
    disk_cachemodes="network=writeback"