k8s環境上でKUDO(Kubernetes Universal Declarative Operator)を使ってElasticStackをインストールしてみる
この記事はElastic Stack (Elasticsearch)その2 Advent Calendar 2019、3日目の記事です。
【お断り】
よくよく手順を見直したら、KUDO CLIがkubectl plugin対応なことを見逃してました。kubectl-kudo*という名前でPATHを通せば、kubectlのサブコマンドとして"kubectl kudo"と実行できます。時間を見て手順修正しておきます。(一応下記の手順でもやっていることは変わりません)
※お断り、ここまで
最近Elasticsearchの環境を構築するにもさまざまな方法が出てきています。パッケージインストール、Dockerコンテナ、ElasticCloudもその一つです。
もしkubernetes(以下、k8s)を使っているのであれば、ElasticsearchやKibanaをOperator経由で管理できるElastic Cloud on K8s(ECK)も今年登場しましたね。
(ちなみに、ECKについては12/23にElastic Stack (Elasticsearch)その1 Advent Calendar 2019で何か書く予定です。)
k8sではもう1つの方法として、KUDO(Kubernetes Universal Declarative Operator)と呼ばれるOperatorを宣言的に書いてより直感的に管理できる仕組みを利用してElasticStackを導入することができます。
KUDOは昨日初めて知ったのですが、触ってみると確かに簡単に(手元にすぐ使えるk8s環境がある前提ですが)ElasticStackクラスタをセットアップできましたので、手順だけでもご紹介したいと思います。
【参考】
・KUDO
前提条件
お手元にk8s環境がある前提とします。パブリッククラウドではいくつかマネージドなk8sサービスがありますので手軽に試す場合は利用を検討してみてください。
今回はAzureが提供するAKS(Azure Kubernetes Service)を使って動作確認をしています。
環境セットアップ方法は、OpenShift Meetup Tokyo #05で発表したスライドの一番最後(p.50 Appendix)にまとめてあるので参考にしてください。
ただし、KUDOでElasticパッケージを使うためにはk8sのバージョンが1.15以上である必要があるため、バージョン指定には注意してください。
2019/12/03現在、AKSの東日本リージョンでは1.15.5あるいは1.15.6のバージョンが利用可能です。
利用環境
product | version |
---|---|
AKS | 1.15.5 |
kubectl | 1.15.0 |
kudo CLI | 0.8.0 |
導入手順
手順の概要は以下の通りです。
1. AKSのセットアップ(省略。上記slideshare p.50参照)
2. KUDO CLIインストール
3. k8s環境へのKUDOのインストール
4. KUDO CLIを使い任意のOperator(ここではElastic)をインストール
5. アクセス確認
1. AKSのセットアップ
- ここでは省略します。
2. KUDO CLIインストール
- 環境に合わせてインストールを行います
- MacOSであれば"brew install kudo-cli"で終わり
- 各OSに合わせたバイナリをダウンロードできます
$ wget https://github.com/kudobuilder/kudo/releases/download/v0.8.0/kubectl-kudo_0.8.0_linux_x86_64 -O kudo
$ export PATH=$PATH:.
$ kudo version
KUDO Version: version.Info{GitVersion:"0.8.0", GitCommit:"2a585aed", BuildDate:"2019-11-08T16:35:17Z", GoVersion:"go1.13.4", Compiler:"gc", Platform:"linux/amd64"}
3. k8s環境へのKUDOのインストール
- kudo環境のセットアップを行います
$ kudo init
$KUDO_HOME has been configured at /mnt/c/Users/tetsuyas/home/.kudo
✅ installing crds
✅ preparing service accounts and other requirements for controller to run
✅ installing kudo controller
$
$ kubectl get crd | grep kudo
instances.kudo.dev 2019-12-03T03:57:38Z
operators.kudo.dev 2019-12-03T03:57:38Z
operatorversions.kudo.dev 2019-12-03T03:57:38Z
$
$ kubectl get all -n kudo-system
NAME READY STATUS RESTARTS AGE
pod/kudo-controller-manager-0 1/1 Running 0 79s
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service/kudo-controller-manager-service ClusterIP 10.0.210.80 <none> 443/TCP 79s
NAME READY AGE
statefulset.apps/kudo-controller-manager 1/1 79s
$
- 環境が初期化され、kudo-systemネームスペースにKUDOのcontroller managerが起動します
- 以後のCLIコマンドはこのcontroller managerが受け取り、管理します
- アーキテクチャ図を参考に示します
- 図の真ん中に点線で囲まれたKUDO CRDsとKUDO controllerがいまインストールしたコンポーネント部分です
- このOperatorにインストールなどの命令を実行すると右側の例にあるようにkafkaなどのクラスタが自動でセットアップされます
- インストール情報などはファイル群としてパッケージングされ簡単に利用できるようになっています。これがrepositoryです。
4. KUDO CLIを使い任意のOperator(ここではElastic)をインストール
- KUDOではリポジトリに付属のOperatorがいくつか公開されており、これを使うと簡単にインストールを試すことができます
-
Elasticのリポジトリの構成を見てみると主に次のロールのファイルがある
- operator/operator.yamlファイル:インストールなどの運用管理タスクを抽象化したCustom Resourceを定義
- operator/params.yamlファイル:構成をカスタマイズするための変数を定義
- operator/templates/*.yamlファイル:実際のPodやServiceなどのリソース定義をテンプレートとして格納
次の手順でインストールを行います
$ kudo install elastic
instance.kudo.dev/v1beta1/elastic-instance created
$
$ kubectl get all
NAME READY STATUS RESTARTS AGE
pod/master-0 0/1 Init:0/2 0 15s
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service/kubernetes ClusterIP 10.0.0.1 <none> 443/TCP 87m
service/master-hs ClusterIP None <none> 9200/TCP 15s
NAME READY AGE
statefulset.apps/master 0/3 15s
$
- デフォルトのパラメータ定義に従って、Masterノードx3、Dataノードx1、Coordinatingノードx1、Ingestノードx0が順次起動してきます
- 仕様なのか、ノードは1台ずつ起動するため、すべて起動し終わるまで5-10分ほど待ちます
$ kubectl get all
NAME READY STATUS RESTARTS AGE
pod/data-0 1/1 Running 0 37s
pod/data-1 0/1 Init:0/2 0 7s
pod/master-0 1/1 Running 0 2m22s
pod/master-1 1/1 Running 0 96s
pod/master-2 1/1 Running 0 66s
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service/data-hs ClusterIP None <none> 9200/TCP 37s
service/kubernetes ClusterIP 10.0.0.1 <none> 443/TCP 89m
service/master-hs ClusterIP None <none> 9200/TCP 2m22s
NAME READY AGE
statefulset.apps/data 1/2 38s
statefulset.apps/master 3/3 2m23s
$
- もう少し
$ kubectl get all
NAME READY STATUS RESTARTS AGE
pod/coordinator-0 1/1 Running 0 5m43s
pod/data-0 1/1 Running 0 6m42s
pod/data-1 1/1 Running 0 6m12s
pod/master-0 1/1 Running 0 8m27s
pod/master-1 1/1 Running 0 7m41s
pod/master-2 1/1 Running 0 7m11s
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service/coordinator-hs ClusterIP None <none> 9200/TCP 5m43s
service/data-hs ClusterIP None <none> 9200/TCP 6m42s
service/ingest-hs ClusterIP None <none> 9200/TCP 5m14s
service/kubernetes ClusterIP 10.0.0.1 <none> 443/TCP 95m
service/master-hs ClusterIP None <none> 9200/TCP 8m27s
NAME READY AGE
statefulset.apps/coordinator 1/1 5m43s
statefulset.apps/data 2/2 6m42s
statefulset.apps/ingest 0/0 5m14s
statefulset.apps/master 3/3 8m27s
$
- 全部起動しました(ingestはデフォルト設定で0台なので0/0となってます)
5. アクセス確認
- Serviceが9200ポートで起動していますので、LoadBalancerに接続して外部から接続も可能です
- ここでは端折ってCoordinatingノードのPodに潜ってcurlコマンドを発行します
$ kubectl exec -it coordinator-0 /bin/bash
[root@coordinator-0 elasticsearch]# curl coordinator-hs:9200
{
"name" : "coordinator-0",
"cluster_name" : "elastic-instance-cluster",
"cluster_uuid" : "_na_",
"version" : {
"number" : "7.0.0",
"build_flavor" : "default",
"build_type" : "docker",
"build_hash" : "b7e28a7",
"build_date" : "2019-04-05T22:55:32.697037Z",
"build_snapshot" : false,
"lucene_version" : "8.0.0",
"minimum_wire_compatibility_version" : "6.7.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
[root@coordinator-0 elasticsearch]# exit
$
-
バージョンは7.0.0が動いているようですね。。
- バージョンを上げる場合は、operator.yamlのversionおよび、各template/*.yamlのimageバージョンを上げてkudo upgradeコマンドを実行すればできるようです
Dataノードのスケールアウト(2->3台)を試してみます
$ kudo update --instance elastic-instance -p DATA_NODE_COUNT=3
$
$ kubectl get all
NAME READY STATUS RESTARTS AGE
pod/coordinator-0 1/1 Running 0 86s
pod/data-0 1/1 Running 0 2m16s
pod/data-1 1/1 Running 0 3m36s
pod/data-2 1/1 Running 0 4m19s
pod/master-0 1/1 Running 0 5m36s
pod/master-1 1/1 Running 0 7m6s
pod/master-2 1/1 Running 0 7m29s
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service/coordinator-hs ClusterIP None <none> 9200/TCP 20m
service/data-hs ClusterIP None <none> 9200/TCP 21m
service/ingest-hs ClusterIP None <none> 9200/TCP 19m
service/kubernetes ClusterIP 10.0.0.1 <none> 443/TCP 110m
service/master-hs ClusterIP None <none> 9200/TCP 23m
NAME READY AGE
statefulset.apps/coordinator 1/1 20m
statefulset.apps/data 3/3 21m
statefulset.apps/ingest 0/0 19m
statefulset.apps/master 3/3 23m
$
- コマンド実行によりDataノードが2台から3台にスケールアウトしていることが確認できました
まとめ
k8s環境ではElastic Cloud on K8s(ECK)の開発が進んでおりまもなく1.0.0バージョンがGAする見込みですが、ここではOperatorをよりわかりやすく作成、管理することを目的に作られたKUDOを触ってみて手順を紹介しました。
使い勝手だけでいうとECKと同等ですが、自分でOperatorを作る場合はGithubのコードを見る限りかなりわかりやすい印象を受けました。
今後どのくらい利用が広がるかわかりませんが、今後の動向を見守りたいと思います。
Author And Source
この問題について(k8s環境上でKUDO(Kubernetes Universal Declarative Operator)を使ってElasticStackをインストールしてみる), 我々は、より多くの情報をここで見つけました https://qiita.com/tetsuyasodo/items/3946430517c210abeeb1著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .