機械学習エクスペリメントの自動トラッキングのためのDatabricks Autologgingの発表


Announcing Databricks Autologging for Automated ML Experiment Tracking - The Databricks Blogの翻訳です。

機械学習(ML)チームは、規制への対応、デバッグなどの目的から、彼らの結果を再現し、説明する能力を必要とします。このことは、あらゆる実運用のモデルは、自身のリネージュ、パフォーマンスに関する特性に関して記録を行うべきであるということを意味します。何人かのML実践者は、ソースコード、ハイパーパラメーター、パフォーマンスのメトリクスをこつこつとバージョン管理していますが、他の人は面倒、あるいは迅速なプロトタイピングの妨げとなると考えます。このため、データチームはこれらの情報を記録する際、主に3つの課題に直面します。

  1. MLチームにおける機械学習アーティファクトの標準化
  2. 様々なML問題に対する再現性、監査可能性の確保
  3. 大量のロギング処理呼び出しを含むコードの可読性の維持

MLモデルの再現性確保

Databricks Autologgingは、上のscikit-learnのデモのように、様々な種類のMLフレームワークにおけるモデルトレーニングのセッションを自動で追跡します

これらの課題に取り組むために、企業の全ての機械学習モデルに対する自動エクスペリメントトラッキングを提供するためにマネージドMLflowを活用したノーコードソリューションであるDatabricks Autologgingを発表できることを嬉しく思います。Databricks Autologgingを活用することで、ユーザーがノートブックでトレーニングコードを実行した際に、モデル、パラメーター、メトリクス、ファイル、リネージュ情報がロギングされます。MLflowのインポートやロギングを指示するためのコードを書く必要はありません。

scikit-learn、PySpark MLlib、Tensorflowを含む著名なMLライブラリを用いたトレーニングにおいて、トレーニングセッションはモデルのMLflowトラッキングランとして記録されます。また、モデルファイルも追跡され、MLflowのモデルレジストリにシームレスに登録することができ、リアルタイムスコアリングを行うためにMLflowのモデルサービングにデプロイすることもできます。

Databricks Autologgingの利用

Databricks Autologgingを使うには、シンプルにDatabricksのPythonノートブックで、サポートされているフレームワークによるモデルトレーニングを実行するだけで大丈夫です。全ての適切なモデルパラメーター、メトリクス、ファイル、リネージュ情報は自動で収集され、エクスペリメントページで参照することができます。これにより、データサイエンティストは実験のガイド、あるいは方向性を決めるために、様々なトレーニングラン(実行したトレーニング)を容易に比較することができます。また、Databricks Autologgingはハイパーパラメータチューニングのセッションを追跡することもでき、MLflow parallel coordinates plotのようなUIによる可視化を通じて、適切な探索空間を定義することを支援します。