centos 7下でglusterFs分布式ファイルシステム環境構築


1、GlusterFS概要:
GlusterFSは、オープンソースの分散ファイルシステム関連用語であり、次のように述べられている。GFSボリュームをマウントしたデバイス-Extent Attributes:xatrはファイルシステムの特性で、ユーザまたはプログラム関連ファイル/ディレクトリとメタデータをサポートします。FUCSE:Filesystem Userspaceは、カーネルコードの変更を必要とすることなく、特権ユーザー以外のファイルシステムを作成することをサポートするロード可能なカーネルモジュールです。ユーザが空-間でファイルシステムのコードを実行することにより、FSEコードを介してカーネルとブリッジする。GFID:GFSボリュームの各ファイルまたはディレクトリには、いくつかのbrickを持つデバイスRDMA:リモート直接メモリアクセス、両方のOSを通じて直接メモリアクセスをサポートするための唯一の128ビットのデータが関連付けられています。RRDNS:round robin DNSは、DNSを介して異なる装置にループバックして負荷の等化を行う方法であるSelf-heal:バックグラウンド動作検出ボリュームにおけるファイルとディレクトリの不一致を解決し、これらの不一致を解決するために使用される。Split-brain:脳裂-Volfile:glusterfsプロセスのプロファイルは、一般的に/var/lib/gluster d/vols/volname-Volume:一連のbriksの論理セットに位置しています。
2、準備:
  • は三つのノードでglusterfsクラスタを構築し、一つのノードはクライアントとして
     glusterfs     :  
     172.29.41.229 tmaster centos7  
     172.29.41.231 tslave1 centos7  
     172.29.41.232 tslave2 centos7    
    
     client  :   
     172.29.41.163 phn centos7    
    
  • を使用する。
  • は、マシンごとにhostname(vi/etc/hostname)とHostsファイル(vi/etc/hosts)を修正し、ホスト名をipに追加して最後のhostsファイルをマッピングする場合は、次の図のようにするべきです。
  • は、pingコマンドを使用して、各ノードがping通
  • を行うことができるかどうかを確認する。
  • は、yumソースがアリソースである(各ノードで実行される)
  • を構成する。
    //       
    wget http://mirrors.aliyun.com/repo/Centos-7.repo 
    //        repo      
    cp Centos-7.repo /etc/yum.repo.d/ 
    cd /etc/yum.repos.d/ 
    mv CentOS-Base.repo CentOS-Base.repo.bak 
    //  yum      
    yum clean all 
    yum makecache 
    3、glusterfsをインストールする
  • は、tmaster、tslaave 1、tslaave 2ノードにglusterfs yum install centos-release-gluster yum install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
  • をインストールする。
  • により、glusterFSが起動される(各ノードで実行される)systemctl start glusterd.service systemctl enable glusterd.service
  • は、各マシンのファイアウォールsystemctl stop firewalld.service systemctl disable firewalld.service
  • を閉じます。
  • は、tmasterノード上に配置され、2つのslaaveノードをglusterクラスタに追加する。gluster peer probe tmaster gluster peer probe tslave1 gluster peer probe tslave2
  • はクラスタ状態を確認する:gluster peer status
  • データストアディレクトリを作成します。(3つのノードで動作します。):mkdir -p /opt/gluster/data
  • volumeの状態を確認します。gluster volume infoはまだvolumeを作成していないので、表示されているのは一時情報
  • です。
  • GlusterFSディスクgtestを作成します。gluster volume create models replica 3 tmaster:/opt/gluster/data tslave1:/opt/gluster/data tslave2:/opt/gluster/data force replica 3は3つのバックアップを格納していることを示しています。後で指定されたサーバの格納ディレクトリは再度volume情報gluster volume info
  • を調べます。
  • models gluster volume start models
  • を起動します。
  • gluster性能の調整:指定されたvolumeの割当額をオープンする:(modelsはvolume名)gluster volume quota models enableは、models中/(両方のカタログ)を制限する。最大80 GB空間gluster volume quota models limit-usage / 80GBを使用してcacheサイズを設定する(ここでは実際の状況に応じて、設定が大きすぎると、後ろのゲスト端末のマウントに失敗する可能性がある)gluster volume set models performance.cache-size 512MBは、非同期を開始する。バックグラウンド動作gluster volume set models performance.flush-behind onは、ioスレッド32 gluster volume set models performance.io-thread-count 32を設定し、書き込み(書き込みデータ時間、先にキャッシュに書き込み、ハードディスクに書き込む)gluster volume set models performance.write-behind onによって調整された後のvolume情報gluster volume info
  • を設定する。
  • は、GlusterFSクライアントを展開し、mount GlusterFSファイルシステム(クライアントノードphn上で実行)yum install -y glusterfs glusterfs-fuseがマウントポイントを確立する。mkdir -p /opt/gfsmount mountコマンド:mount -t glusterfs tmaster:models /opt/gfsmount/ dfコマンドチェック:df-hは、ディレクトリにファイルを書き込み、その後、glusterサーバの格納状況を確認します。time dd if=/dev/zero of=/opt/gfsmount/hello bs=100M count=1は、phnマシン上/opt/gfsmontディレクトリを確認してください。tmasterマシン上/opt/gluster/dataディレクトリは、glusterサーバーのノードごとにバックアップが表示されます。前に設定した3つのバックアップの原則に適合する

  • 4、その他のコマンド
  • Gluster FSにおけるすべてのvolumeを確認する:gluster volume list
  • GlusterFSディスクを削除する:gluster volume stop models/停止modelsという名前のディスクgluster volume delete models/削除modelsという名前のディスク
  • これで。glusterfsの分布式環境構築が完了しました。