Hadoop Ubuntuでのインストール
4532 ワード
これは自分のノートの上の実験のバージョンで、熟知していない情況はやはり先に自分のコンピュータの上で1つの試験のバージョンをインストールすることを考慮して、それから
本番環境に導入されたマシンのインストールを検討します.まず、自分のパソコンに仮想マシンVMWare WorkStationをインストールし、インストールする必要があります.
その後、この仮想マシンにUbutunオペレーティングシステムをインストールします.ここにはUbutun 11.10がインストールされています.lsb_release-aコマンド
このコマンドがなければ、sudo apt-get install lsbを次のコマンドでインストールできます.
1.このオペレーティングシステムに新しいアカウントhadoopを作成します.
次にhadoopユーザーを追加します:sudo adduser-ingroup hadoop hadoop後sudo gedit/etc/sudoersコマンド
sudoersファイルにhadoop ALL=(ALL:ALL)ALLを追加してhadoopユーザーroot権限を与えます.マシンのデフォルトの名前はubuntuで、
修正が必要な場合はsudo gedit/etc/hostname.
2. sshパスワードなしログインの確立
まずsudo apt-get install ssh openssh-serverサービスを作成し、その後ssh-keyを作成し、コマンドssh-keygen-t rsa-P"」を使用します.
帰りは~/.ssh/の下に2つのファイルが生成されます:id_rsaとid_rsa.pubこの2つのファイルは、~/.ssh/ディレクトリの下でid_rsa.pub追加先
authorized_keysライセンスファイルにはauthorized_がありません.keysファイルの、使用コマンド:cat id_ras.pub >> authorized_keys中
次にssh localhostを使用すると正常にログインできます.
3. hadoopのインストール
hadoopアカウントのルートディレクトリにフォルダhadoopを作成し、
wget http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.1.1/hadoop-1.1.1-bin.tar.gz最新をダウンロード
バージョンのhadoopは、現在1.1.1の安定バージョンです.現在のフォルダtar-xvf hadoop-1.1.1-binに解凍する.tar.gzはコマンドmvで
hadoop-1.1.1 hadoop、それからhadoopの構成を開始して、4つのファイルが構成する必要があります.ここでは最も簡単な構成を採用しています.多くのパラメータがあります.
すべてhadoopシステム自身のデフォルトを採用して、この4つのファイルはconfディレクトリの下で、hadoop-envです.sh core-site.xml hdfs-site.xml
mapred-site.xml.
1)hadoop-envを修正する.sh
sudo gedit hadoop-env.sh,そのうちの1行をexport JAVA_に変更するHOME=/usr/lib/jvm/java-6-sun-1.6.0.24
つまりJava仮想マシンの実行ディレクトリを構成します.このディレクトリはあなたのマシンにjavaをインストールする場所です.
2)core-siteを修正する.xml
3)hdfs-siteを修正する.xml
4)mapred-siteを修正する.xml
4 Hadoopの実行
hadoopディレクトリの下に入って、hdfsファイルシステムをフォーマットして、bin/hadoop namenode-format、フォーマットが完成した後
hadoopを起動し、bin/start-dfsをコマンドします.sh bin/start-mapred.sh,起動完了後jpsコマンドで表示
プロセス.次の5つのプロセスがプロセスに含まれている場合は、インストールに成功しました.
5. 簡単なwordcount例を実行
テストデータを準備するには、echoコマンドを使用して2つのテストファイルを簡単に生成し、ディレクトリtestdataを新規作成します.このディレクトリの下に
echo "hello world bye world"> file1.txtecho "hello hadoop goodbye hadoop"> file2.txt
この2つのファイルをhdfsファイルシステムに書き込み、bin/hadoop fs-put./testdata/input使用コマンドhadoop fs-lsr
この2つのファイルはhadoopのhdfsファイルシステムの中にあることがわかります.コマンドbin/hadoop jar hadoop-examples-1.1.1を使用します.jar
wordcount input outputがwordcountを実行する例では、次のような実行手順が表示されます.
プログラムが正常に実行されたことを示し、bin/hadoop fs-cat output/*をコマンドすることで実行結果を見ることができます.
もちろんbin/hadoop fs-get output outputをローカルのファイルシステムにエクスポートするコマンドで確認することもできます.
本番環境に導入されたマシンのインストールを検討します.まず、自分のパソコンに仮想マシンVMWare WorkStationをインストールし、インストールする必要があります.
その後、この仮想マシンにUbutunオペレーティングシステムをインストールします.ここにはUbutun 11.10がインストールされています.lsb_release-aコマンド
このコマンドがなければ、sudo apt-get install lsbを次のコマンドでインストールできます.
1.このオペレーティングシステムに新しいアカウントhadoopを作成します.
tinyfun@ubuntu:/home$ sudo addgroup hadoop
Adding group `hadoop' (GID 1001) ...
Done.
次にhadoopユーザーを追加します:sudo adduser-ingroup hadoop hadoop後sudo gedit/etc/sudoersコマンド
sudoersファイルにhadoop ALL=(ALL:ALL)ALLを追加してhadoopユーザーroot権限を与えます.マシンのデフォルトの名前はubuntuで、
修正が必要な場合はsudo gedit/etc/hostname.
2. sshパスワードなしログインの確立
まずsudo apt-get install ssh openssh-serverサービスを作成し、その後ssh-keyを作成し、コマンドssh-keygen-t rsa-P"」を使用します.
帰りは~/.ssh/の下に2つのファイルが生成されます:id_rsaとid_rsa.pubこの2つのファイルは、~/.ssh/ディレクトリの下でid_rsa.pub追加先
authorized_keysライセンスファイルにはauthorized_がありません.keysファイルの、使用コマンド:cat id_ras.pub >> authorized_keys中
次にssh localhostを使用すると正常にログインできます.
3. hadoopのインストール
hadoopアカウントのルートディレクトリにフォルダhadoopを作成し、
wget http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.1.1/hadoop-1.1.1-bin.tar.gz最新をダウンロード
バージョンのhadoopは、現在1.1.1の安定バージョンです.現在のフォルダtar-xvf hadoop-1.1.1-binに解凍する.tar.gzはコマンドmvで
hadoop-1.1.1 hadoop、それからhadoopの構成を開始して、4つのファイルが構成する必要があります.ここでは最も簡単な構成を採用しています.多くのパラメータがあります.
すべてhadoopシステム自身のデフォルトを採用して、この4つのファイルはconfディレクトリの下で、hadoop-envです.sh core-site.xml hdfs-site.xml
mapred-site.xml.
1)hadoop-envを修正する.sh
sudo gedit hadoop-env.sh,そのうちの1行をexport JAVA_に変更するHOME=/usr/lib/jvm/java-6-sun-1.6.0.24
つまりJava仮想マシンの実行ディレクトリを構成します.このディレクトリはあなたのマシンにjavaをインストールする場所です.
2)core-siteを修正する.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop/hadoop/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
3)hdfs-siteを修正する.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4)mapred-siteを修正する.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
4 Hadoopの実行
hadoopディレクトリの下に入って、hdfsファイルシステムをフォーマットして、bin/hadoop namenode-format、フォーマットが完成した後
hadoopを起動し、bin/start-dfsをコマンドします.sh bin/start-mapred.sh,起動完了後jpsコマンドで表示
プロセス.次の5つのプロセスがプロセスに含まれている場合は、インストールに成功しました.
3453 TaskTracker
7753 Jps
3218 JobTracker
2572 NameNode
3073 SecondaryNameNode
2843 DataNode
5. 簡単なwordcount例を実行
テストデータを準備するには、echoコマンドを使用して2つのテストファイルを簡単に生成し、ディレクトリtestdataを新規作成します.このディレクトリの下に
echo "hello world bye world"> file1.txtecho "hello hadoop goodbye hadoop"> file2.txt
この2つのファイルをhdfsファイルシステムに書き込み、bin/hadoop fs-put./testdata/input使用コマンドhadoop fs-lsr
この2つのファイルはhadoopのhdfsファイルシステムの中にあることがわかります.コマンドbin/hadoop jar hadoop-examples-1.1.1を使用します.jar
wordcount input outputがwordcountを実行する例では、次のような実行手順が表示されます.
12/12/10 22:31:15 WARN conf.Configuration: mapred.used.genericoptionsparser is deprecated. Instead, use mapreduce.client.genericoptionsparser.used
12/12/10 22:31:15 INFO input.FileInputFormat: Total input paths to process : 2
12/12/10 22:31:16 INFO mapreduce.JobSubmitter: number of splits:2
12/12/10 22:31:18 INFO mapreduce.Job: Running job: job_201212102055_0001
12/12/10 22:31:19 INFO mapreduce.Job: map 0% reduce 0%
12/12/10 22:32:43 INFO mapreduce.Job: map 100% reduce 0%
12/12/10 22:33:30 INFO mapreduce.Job: map 100% reduce 100%
12/12/10 22:33:54 INFO mapreduce.Job: Job complete: job_201212102055_0001
12/12/10 22:33:54 INFO mapreduce.Job: Counters: 36
FileInputFormatCounters
プログラムが正常に実行されたことを示し、bin/hadoop fs-cat output/*をコマンドすることで実行結果を見ることができます.
bye 1
goodbye 1
hadoop 2
hello 2
world 2
もちろんbin/hadoop fs-get output outputをローカルのファイルシステムにエクスポートするコマンドで確認することもできます.