VMWareによるHadoopクラスタの構築
2615 ワード
背景:Flinkの勉強に関わるので、本機にテスト環境を設置したいです.ここではVMWareでhadoopクラスタを構築するピットを記録する.
再インストールの場合は、VMwareをできるだけクリーンアップしてからインストールしてください.そうしないと、VMwareが正常に使用できない場合があります.
ここではisoファイルで直接インストールします.参照:https://blog.csdn.net/u010780613/article/details/65439856
http-serverを介してjdkインストールパッケージを/root/apps/フォルダの下にアップロードし、インストールパッケージを解凍します: 環境変数、vim/etc/profileを構成し、ファイル行の最後に構成を追加した後、保存終了: profileを再ロードして構成を有効にする 環境変数の構成が完了し、 環境変数が有効かどうかをテストします.
http-serverを介してjdkインストールパッケージを/root/apps/フォルダの下にアップロードし、インストールパッケージを解凍します: hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、slaves、hadoopの環境変数構成参照:https://blog.csdn.net/weixin_29218537/article/details/83154843 マスターノード を構成する.修正/etc/hosts 仮想マシン構成鍵 以下のコマンドは、自分の公開鍵と秘密鍵を生成する、生成された公開鍵は自動的に/root/に格納される.sshディレクトリの下.
生成した公開鍵copyをリモートマシンに接続すると、リモートホストの/root/.ssh/authorized_keysファイルに公開鍵が保存されていますknown_hostsには既知のホスト情報が保存されており、再アクセス時にパスワードを入力する必要はありません.
このコマンドを使用して、パスワードなしで接続できるかどうかを確認します.
$ ssh 192.168.70.130 VMWare仮想マシン="管理="別の2つのマシン をクローン化メインノードマシン/root/apps/hadoop-2.7.3/sbinディレクトリで、namenodeをフォーマットするには、次のコマンドを実行します: Hadoopを起動し、/root/apps/hadoop-2.7.3/sbinディレクトリでサービスを開始した後、Webページ入力192.168.70.130:5070を開くとhadoopクラスタファイル管理インタフェースが表示されます: hadoopを閉じ、/root/apps/hadoop-2.7.3/sbinディレクトリで次のコマンドを実行してサービスを閉じます:
以上,Hadoopクラスタを構築してまとめた.
VMwareのインストール
再インストールの場合は、VMwareをできるだけクリーンアップしてからインストールしてください.そうしないと、VMwareが正常に使用できない場合があります.
OSのインストール
ここではisoファイルで直接インストールします.参照:https://blog.csdn.net/u010780613/article/details/65439856
JDKのインストール
wget http://192.168.XXX.X:8080/jdk.tar.gz
tar -zxvf /root/apps/jdk-8u181-linux-x64.tar.gz
export JAVA_HOME=/root/apps/jdk1.8.0_181
export PATH=$PATH:$JAVA_HOME/bin
source /etc/profile
echo $JAVA_HOME
java -version Java
Hadoopのインストール
wget http://192.168.XXX.X:8080/hadoop.tar.gz
tar -zxvf /root/apps/hadoop.tar.gz
Linux構成
$vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=node1
$source /etc/sysconfig/network
192.168.70.130 node1
192.168.70.131 node2
192.168.70.132 node3
$ ssh-keygen
生成した公開鍵copyをリモートマシンに接続すると、リモートホストの/root/.ssh/authorized_keysファイルに公開鍵が保存されていますknown_hostsには既知のホスト情報が保存されており、再アクセス時にパスワードを入力する必要はありません.
ssh-copy-id [email protected]
このコマンドを使用して、パスワードなしで接続できるかどうかを確認します.
$ ssh 192.168.70.130
./hadoop namenode -format
start-all.sh
$stop-all.sh
以上,Hadoopクラスタを構築してまとめた.