Hadoop2.6クラスタ動的データノードの追加と削除

1479 ワード

開始する前に、すべての新規データノード上のHadoop環境を構成する必要があります(既存のノードのhadoopフォルダを直接コピーする場合は、tmpやdataディレクトリなど、生成されたクラスタデータを削除する必要があります.そうしないと問題が発生します).
Step 1:新たにデータノードを追加したファイアウォールを閉じる.
Step 2:各ノードでホスト情報を補完する
Step 3:2つのNameNodeにおいて、新規データノードの鍵なしSSHへのログインチャネルをオンにします.
Step 4:2つのNameノード上のdfs.hostsが指定するホワイトリストファイルには、新規データノードのhostnameをすべて追加し、dfsで保証する.hosts.Excludeで指定したブラックリストファイルには、新しいデータノードのhostnameが含まれていません.hdfs-siteを変更する必要があります.xml
 
        <property>
                <name>dfs.hosts</name>
                <value>/usr/hadoop/etc/hadoop/datanode-allow.list</value>
        </property>
        <property>
                <name>dfs.hosts.exclude</name>
                <value>/usr/hadoop/etc/hadoop/datanode-deny.list</value>
        </property>

Step 5:namenodeで次のリフレッシュコマンドを実行する:hdfs dfsadmin-refreshNodes
hdfs dfsadmin-reportまたはmaster:50700 webポートで現在のクラスタノードのステータスを表示できます.
Step 6:2つのNameノードでslavesファイルを変更し、オンラインにするデータノードhostnameをslavesファイルに追加します.slaveでtasktrackerプロセスを開始する:実行:hadoop-daemon.sh start datanode、jpsでプロセスを表示
データノードの削除は上記の手順と同様であるが、masterでtasktracker-denyを変更するだけである.list.真の操作の過程でクラスタの再起動に関与しない~
削除した各ノードを再追加
1,masterのtasktracker-deny.List該当機器の削除
2、masterでノード構成をリフレッシュします.
hadoop dfsadmin -refreshNodes  
3、slaveでtasktrackerプロセスを再起動します.
hadoop-daemon.sh start datanode
PS:slave上のtasktrackerプロセスを閉じていない場合は、閉じてから再起動する必要があります.