lenses boxをうごかした
位置づけ
lenses boxとやらを使うと次の取り組みに使えそうだったので、
環境構築を試しながらスクショやらメモやらを残している。
goal
lensesをつかってkafka clusterとその周辺の仕組みを雑に動かしたい
インフラ面
lensesio/boxでdockerで実験環境のようなものを動作させられる
アプリ面
kafka topicを入力に、Streaming SQLを実行、データフローの可視化ができそう。
start
ここから実施。
https://lenses.io/start/
メールアドレスを入れて登録
メールの中にdocker run コマンドが入ってるので実施
以降はこの手順に沿って手を動かす
https://lenses.io/apache-kafka-docker/
ブラウザから管理画面へ
SQL Studioとやらでデータをみる
なんのデータを見ているのかわからないが 手順に従いSQLでデータを見る。
実行結果が中央下側。
新しいKafkaトピックを作る
新しくデータを投入する。
Exploreを選択すると右上にCreateTopicがある
データパイプラインの作成
データパイプラインを作ってリアルタイムイベントをKafka topicとして投入する。
手順にはないが、SQL Studioでクエリをしてみる
何かは取れてそう
SQL Processor
streaming SQLでリアルタイムデータを処理
手順に含まれていた streaming SQLを定義
内容的には speed_boatsができる模様
SET defaults.topic.autocreate=true;
INSERT INTO speed_boats
SELECT STREAM MMSI, Speed, Longitude AS Long, Latitude AS Lat, `Timestamp`
FROM sea_vessel_position_reports
WHERE Speed > 10;
手順にないがExploreからデータを確認。
SQLに書かれているようにSpeedが10以上が抽出されたトピックが新しくできている。
Consumer Monitor
リアルタイムデータフロー
アラートの設定
略
Author And Source
この問題について(lenses boxをうごかした), 我々は、より多くの情報をここで見つけました https://qiita.com/seiketkm/items/f85a26e9d1ed2c325790著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .