Hadoopの擬似分散のインストールと導入
13463 ワード
文書ディレクトリ
JDKのインストール
JDKの環境変数の設定
Hadoopの環境変数の設定
Hadoopのファイルの変更
Nameノードのフォーマット
NameNodeとDataNodeを開く
Webページアクセス分散ファイルシステム
必要なソフトウェアおよびソースパッケージ
JDKのインストール
mkdir /usr/java
/usr/java
tar -zxvf jdk-7u80-linux-x64.gz -C /usr/java
cd /usr/java
に進むlsコマンドを実行してインストールに成功したかどうかを確認し、環境変数WindowsにJDKをインストールしてコンピュータを実行する->プロパティ->高度なプロパティ->環境変数の手順と同じです
1.vim /etc/profile
2. unset -f pathmunge ( )
export JAVA_HOME=/usr/java/jdk1.7.0_80( )
export PATH=$PATH:$JAVA_HOME/bin
source /etc/profile
java- version
入力コマンドにはバージョン表示があり、JDKインストールが成功したことを示すyum grep|list openjdk
を構成してjavaパケットを検索し、見つけたらyum install java-1.7.0-openjdk-devel.x86_64
を実行してjavaパケットHadoopの導入インストール
tar -zxvf hadoop-2.6.0.tar.gz -C /usr/local
(hadoop-2.6.0.tar.gzを/usr/localに解凍)mv hadoop-2.6.0/ hadoop
(スペースでhadoopに名前を変更することに注意)cd /usr/local/hadoop/
に入り、vim ~/.bashrc
(編集~/.bashrcファイル)
alias rm=”rm -i”
export JAVA_HOME=/usr
export PATH=/usr/local/hadoop/bin/:/usr/local/hadoop/sbin/:$PATH
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
source ~/.bashrc
echo $JAVA_HOME
を入力し、(2)java -version
を入力javaが正常に構成されているかどうかを確認します(3)hadoop version
を入力hadoopが使用可能かどうかを確認します.使用できません.プロファイルが正しいかどうかを確認する必要があります.Hadoopの構成
私たちがやったのはすべて1台の仮想マシンでやった実験なので、私たちは偽分布式の実験をしています.偽分布式の実験は2つのファイルを修正する必要があります.core-site.xmlとhdfs-site.xml、両方のファイルは/usr/local/hadoop/etc/hadoop
フォルダの下にあります.
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
(2)hdfs-siteを修正する.xmlファイル
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>
hdfs namenode -format
コマンドを実行successfully formatted
またはExitting with status 0
を表示すると構成成功、Exitting with status 1
を表示すると構成失敗(異なるバージョンのhadoop表示が異なるので注意してください)stop-dfs.sh
プロセスを閉じて再開する必要があります.NameNode、DataNodeがない場合は、前のファイルに構成エラーがあるかどうかを確認する必要があります.Hadoopの使用
hdfs dfs –mkdir –p /usr/hadoop
でディレクトリを作成し、実行完了後にwebページのutilitiesページに行って ./bin/hdfs dfs –mkdir –p input./bin/hdfs dfs –mkdir –p input
./bin/hdfs dfs –put /etc/hadoop/*.xml input
hadoopフォルダの下のすべてをxmlファイルを分散ファイルシステムにアップロードし、webページのutilitiesページにアクセスして成功したかどうかを検証します.
mkdir ./output
./bin/hdfs dfs –get hdfs-site.xml ./output
cat ./output/ hdfs-site.xml
分散ファイルシステムでhdfs-siteをダウンロードする.xmlからoutputフォルダ)outputフォルダの下に入ってlsを実行し、成功したかどうかを確認します.