Snowflake Model Registry のユーザーインターフェース¶
注釈
Model Registry Snowsight UI は、一般的にすべてのデプロイメントで利用可能です。
SPCS Model Servingの推論サービス UI は、AWS、Azure、および GCP の商業デプロイメントのみで使用できるプレビュー版できます。
Snowsightの Models のページで、すべての機械学習モデルを見つけることができます。メタデータやデプロイメントを表示することもできます。
モデルの詳細¶
Models ページには、Snowflake Model Registryに作成して記録されたモデル、または USAGE か READ 権限経由でアクセスしたモデルが表示されます。これらは、どちらも Snowpark ML および外部ソースモデル(Hugging Faceのモデルなど)で開発されたモデルです。Cortex微調整 モデルも表示されます。今後のリリースでは、Snowflakeで作成できる他のモデルタイプも含まれる可能性があります。
モデルページを表示するには、ナビゲーションメニューで AI & ML » Models を選択します。結果のリストには、現在のロールがアクセスできるすべてのデータベースとスキーマのSnowflake Model Registry内のすべてのモデルが含まれます。
注釈
モデルが表示されない場合は、ロールに 必要な権限 があることを確認してください。
モデルの詳細ページを開くには、 Models リストの該当行をクリックします。ここに表示される詳細ページには、モデルの説明、タグ、バージョンなどの主要なモデル情報が表示されます。
モデルの説明を編集したり、モデルを削除したりするには、右上の ... を選択します。
モデルのバージョンをクリックすると、以下のようなバージョンの詳細ページが開きます。このページは、メトリックスなどのモデルバージョンのメタデータと、PythonまたはSQLから呼び出すことができる利用可能なメソッドのリストを表示します。
モデル関数を呼び出すコードを表示するには、その横にある SQL または Python リンクを選択します。このコードスニペットをSnowsight SQL ワークシートまたはPythonノートブックにコピーできます。
メタデータの追加や修正、モデルのバージョンを削除するには、右上の ... を選択します。
Files タブには、モデル・バージョンの基礎となるアーティファクトのリストが含まれています。このページから個々のファイルをダウンロードできます。このページを利用するには、ユーザーのモデルに対する OWNERSHIP または READ 権限が必要です。
Lineage タブには、モデルのトレーニングに使用されたデータセット、Feature Storeからの機能ビュー、ソースデータテーブルを含む、モデルの完全なデータフロー系統情報が表示されます。
ユーザーモデルをデプロイする¶
モデルレジストリページから SPCS Model Servingに直接モデルをデプロイできます。
注釈
Snowflakeモデルレジストリは、SPCS Model Servingへのユーザーモデルのデプロイのみをサポートしています。
モデルをデプロイするには、以下の手順を完了します。
モデルのリストからモデルを選択します。
モデルの詳細ページから、Versions セクションに移動します。
バージョン詳細ページを開くには、バージョンのリストからモデルのバージョンを選択します。
バージョンの詳細ページから、Deploy ボタンを選択します。
開いたペインで、デプロイされるサービスの名前を入力します。
デプロイされるサービスの RESTAPI エンドポイントを作成するかどうかを選択します。
デプロイされるサービスのコンピューティングプールを選択します。
(オプション)パフォーマンスとリソースの使用量をカスタマイズするために、ワーカーの数、CPU、メモリなど、詳細設定から細かくカスタマイズできます。
Deploy を選択します。
デプロイメントプロセスは、サービスを作成するのに最大15分かかることがあります。
デプロイメントが完了すると、メインのモデルレジストリページの Inference Services タブでサービスを確認できます。
モデル推論サービス¶
SPCS Modeling Servingで作成されたモデル推論サービスは、Model Registry UI で見ることができます。メインのモデルリストページには、任意のモデルに対して作成された推論サービスのステータスが表示されます。
モデル名とモデルのバージョンを選択すると、モデルのバージョン詳細ページの Inference Services タブを使用してデプロイされた推論サービスの詳細を確認したり、推論サービスを一時停止することができます。これは、サービスが公開する関数のリストも示します。SQL またはPythonの使用コードスニペットを表示したり、コピーしたりできます。
Open Details を選択して、サービスパラメーターを表示します。デプロイされた推論サービスの詳細を表示するには、サービスパラメーターペインから Open Service Details を選択します。メインのモデルレジストリページの Inference Services タブからサービスの詳細にもアクセスできます。
モデルモニタリング¶
モデルモニターがアタッチされているモデルでは、モデル詳細ページのモデルモニターを使用してモデルモニタリングメトリックを視覚化することができます。
モニタリングダッシュボードを表示するには、希望のモデルモニターを選択します。
Compare を選択すると、モデルバージョンのメニューが表示されます。このモデルバージョンと比較する2番目のモデルバージョンを選択してください。
モニタリングは、モデル精度、モデルドリフト、機能ドリフトの大容量メトリックをサポートします。計算および表示されるメトリックを選択するには、 Settings アイコンを選択して、必要なメトリックを選択します。