linux下ELK環境構築
4229 ワード
一.準備作業
3台のマシンを用意してこそ、分散クラスタの実験を完了することができ、もちろんより多くのマシンがより良いことができます. 192.168.3.64(e1) 192.168.3.62 (e2) 192.168.3.63(e3)
役割区分: 3台の機器はすべてjdk 1を取り付ける.8,elasticsearchはjavaが開発した であるため 3台全取付elasticsearch(以降はesと略称する) e 1を主ノードとする e 2,e 3はデータノード として機能する. e 1にkibana を取り付ける必要がある e 2にlogstash をインストールする
二.Esのインストール構成
2.1 esダウンロードインストール
[root@master-node ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch [root@master-node ~]# vim/etc/yum.repos.d/elastic.repo#以下を追加[elasticsearch-6.x]name=Elasticsearch repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md [root@master-node ~]# yum install -y elasticsearch
2.2マスターノードe 1の構成
[root@master-node ~]# vim/etc/elasticsearch/elasticsearch.yml#次の内容を追加または変更します.name:master-node#クラスタの名前node.name:master#ノード名node.master:true#は、このノードが主ノードnodeであることを意味する.Data:false#は、データノードnetworkではないことを示す.host:0.0.0.0#はすべてのipを傍受する、実際の環境では安全なip httpに設定すべきである.port:9200#esサービスのポート番号discovery.zen.ping.unicast.hosts:["192.168.3.64","192.168.3.62","192.168.3.63"]構成自動検出
2.3データノードe 2の構成
[root@gtp3 ~]# vim/etc/elasticsearch/elasticsearch.yml#次の内容を追加または変更します.name:master-node#クラスタの名前node.name:data-node 1#ノード名node.master:false#は、このノードが主ノードnodeであることを意味する.Data:true#は、データノードnetworkではないことを示す.host:0.0.0.0#はすべてのipを傍受する、実際の環境では安全なip httpに設定すべきである.port:9200#esサービスのポート番号discovery.zen.ping.unicast.hosts:["192.168.3.64","192.168.3.62","192.168.3.63"]構成自動検出
2.4データノードe 3の構成
[root@gtp3 ~]# vim/etc/elasticsearch/elasticsearch.yml#次の内容を追加または変更します.name:master-node#クラスタの名前node.name:data-node 2#ノード名node.master:false#は、このノードが主ノードnodeであることを意味する.Data:true#は、データノードnetworkではないことを示す.host:0.0.0.0#はすべてのipを傍受する、実際の環境では安全なip httpに設定すべきである.port:9200#esサービスのポート番号discovery.zen.ping.unicast.hosts:["192.168.3.64","192.168.3.62","192.168.3.63"]構成自動検出
2.5マスタノードe 1に次のコマンドを入力し、esを起動する
systemctl start elasticsearch.service
2.6 esが起動しているかどうかを確認する
[root@gtp1 ~]# ps aux |grep elasticsearch
[root@gtp1~]#netstat-lntp|grep java#esサービスは2つのポートをリスニングします
9300ポートはクラスタ通信用、9200はデータ転送時用です.
プライマリノードが正常に起動したら、別のノードを順に起動します.
2.7クラスタの状況の表示
[root@gtp1 ~]# curl 'localhost:9200/_cluster/health?pretty'
三.kibanaのインストール
3.1 kibanaのダウンロードインストール
3.3ログファイルの作成
3.4 kibanaサービスを開始し、プロセスとリスニングポートを確認する
[root@gtp1 ~]#systemctl start kibana
[root@gtp1 ~]# ps aux |grep kibanaroot 16528 0.0 0.0 112660 968 pts/2 S+ 10:47 0:00 grep --color=auto kibanakibana 29265 0.4 0.7 1315604 239188 ? Ssl Sep19 39:09/usr/share/kibana/bin/../node/bin/node --no-warnings/usr/share/kibana/bin/../src/cli -c/etc/kibana/kibana.yml
3.5ブラウザアクセスhttp://192.168.77.128:5601/、kibanaを表示
四.インストールlogstash
4.1 e 2にlogstashをインストールする
4.2 logstashの起動
logstashのログ収集方法の構成については、必要に応じて関連ドキュメントを追加します.
3台のマシンを用意してこそ、分散クラスタの実験を完了することができ、もちろんより多くのマシンがより良いことができます.
役割区分:
二.Esのインストール構成
2.1 esダウンロードインストール
[root@master-node ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch [root@master-node ~]# vim/etc/yum.repos.d/elastic.repo#以下を追加[elasticsearch-6.x]name=Elasticsearch repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md [root@master-node ~]# yum install -y elasticsearch
2.2マスターノードe 1の構成
[root@master-node ~]# vim/etc/elasticsearch/elasticsearch.yml#次の内容を追加または変更します.name:master-node#クラスタの名前node.name:master#ノード名node.master:true#は、このノードが主ノードnodeであることを意味する.Data:false#は、データノードnetworkではないことを示す.host:0.0.0.0#はすべてのipを傍受する、実際の環境では安全なip httpに設定すべきである.port:9200#esサービスのポート番号discovery.zen.ping.unicast.hosts:["192.168.3.64","192.168.3.62","192.168.3.63"]構成自動検出
2.3データノードe 2の構成
[root@gtp3 ~]# vim/etc/elasticsearch/elasticsearch.yml#次の内容を追加または変更します.name:master-node#クラスタの名前node.name:data-node 1#ノード名node.master:false#は、このノードが主ノードnodeであることを意味する.Data:true#は、データノードnetworkではないことを示す.host:0.0.0.0#はすべてのipを傍受する、実際の環境では安全なip httpに設定すべきである.port:9200#esサービスのポート番号discovery.zen.ping.unicast.hosts:["192.168.3.64","192.168.3.62","192.168.3.63"]構成自動検出
2.4データノードe 3の構成
[root@gtp3 ~]# vim/etc/elasticsearch/elasticsearch.yml#次の内容を追加または変更します.name:master-node#クラスタの名前node.name:data-node 2#ノード名node.master:false#は、このノードが主ノードnodeであることを意味する.Data:true#は、データノードnetworkではないことを示す.host:0.0.0.0#はすべてのipを傍受する、実際の環境では安全なip httpに設定すべきである.port:9200#esサービスのポート番号discovery.zen.ping.unicast.hosts:["192.168.3.64","192.168.3.62","192.168.3.63"]構成自動検出
2.5マスタノードe 1に次のコマンドを入力し、esを起動する
systemctl start elasticsearch.service
2.6 esが起動しているかどうかを確認する
[root@gtp1 ~]# ps aux |grep elasticsearch
[root@gtp1~]#netstat-lntp|grep java#esサービスは2つのポートをリスニングします
9300ポートはクラスタ通信用、9200はデータ転送時用です.
プライマリノードが正常に起動したら、別のノードを順に起動します.
2.7クラスタの状況の表示
[root@gtp1 ~]# curl 'localhost:9200/_cluster/health?pretty'
三.kibanaのインストール
3.1 kibanaのダウンロードインストール
[root@gtp1 ~]# yum -y install kibana
[root@gtp1 ~]# wget https://artifacts.elastic.co/downloads/kibana/kibana-6.0.0-x86_64.rpm
[root@gtp1 ~]# rpm -ivh kibana-6.0.0-x86_64.rpm
3.2 kibana
[root@gtp1 ~]#
vim /etc/kibana/kibana.yml # 增加以下内容
server.port: 5601 # kibana
server.host: 192.168.77.128 # ip
elasticsearch.url: "http://192.168.77.128:9200" # es ip, ip
logging.dest: /var/log/kibana.log # kibana , messages
3.3ログファイルの作成
[root@gtp1 ~]# touch /var/log/kibana.log; chmod 777 /var/log/kibana.log
3.4 kibanaサービスを開始し、プロセスとリスニングポートを確認する
[root@gtp1 ~]#systemctl start kibana
[root@gtp1 ~]# ps aux |grep kibanaroot 16528 0.0 0.0 112660 968 pts/2 S+ 10:47 0:00 grep --color=auto kibanakibana 29265 0.4 0.7 1315604 239188 ? Ssl Sep19 39:09/usr/share/kibana/bin/../node/bin/node --no-warnings/usr/share/kibana/bin/../src/cli -c/etc/kibana/kibana.yml
3.5ブラウザアクセスhttp://192.168.77.128:5601/、kibanaを表示
四.インストールlogstash
4.1 e 2にlogstashをインストールする
[root@gtp2 ~]# yum install -y logstash
[root@gtp2 ~]# wget https://artifacts.elastic.co/downloads/logstash/logstash-6.0.0.rpm
[root@gtp2 ~]# rpm -ivh logstash-6.0.0.rpm
4.2 logstashの起動
[root@gtp2 ~]#
systemctl restart logstash logstashのログ収集方法の構成については、必要に応じて関連ドキュメントを追加します.