例およびクイックスタート¶
このトピックでは、Snowflake ML におけるモデルロギングとモデル推論の一般的な使用例とクイックスタートについて説明します。あなたの大文字と小文字のための出発点として、これらの例を使用することができます。
初心者クイックスタート¶
Snowflake ML: xgboost回帰モデルをトレーニングし、モデルレジストリにログを記録し、ウェアハウスで推論を実行します。
xgboostモデル、Snowpark Container Servicesにおける CPU 推論¶
このコードでは、Snowpark Container Services (SPCS)で XGBoost モデルをデプロイし、デプロイされたモデルを推論に使用するキーステップを説明します。
詳細については、 リアルタイム推論のためのモデルの展開( REST API ) をご参照ください。
カスタム前処理とモデル学習によるパイプラインのログ記録¶
この例では、以下の方法を説明します。
機能エンジニアリングの実行。
カスタム前処理ステップとxgboost予測モデルによるパイプラインのトレーニング。
ハイパーパラメーター最適化の実行。
最適なパイプラインのログ。
ウェアハウスまたはSnowpark Container Services(SPCS)で推論を実行します。
Snowpark Container Servicesで使用中のモデルではじめるにあたり¶
この例では、以下の方法を説明します。
Snowflake Model Registry を使用して、モデルのトレーニング、登録、バージョン管理を行います。
Snowpark Container Servicesのサービスとしてモデルをデプロイします。
キーペアとプログラムの両方のアクセストークン(PAT)認証で、RESTAPI を使用してデプロイされたモデルエンドポイントにアクセスします。
大容量オープンソース埋め込みモデル、 GPU 推論¶
この例では、Snowflake Notebooks on Container Runtime を使用して、Hugging Face sentence_transformer ライブラリから大規模埋め込みモデルを学習し、Snowpark Container Services (SPCS) 上の GPUs を使用して大規模予測を実行します。
分散型 PyTorch レコメンダーモデル、 GPU 推論による完全なパイプライン¶
この例では、 GPUs を使ってエンドツーエンドの分散 Pytorch 推薦モデルを構築し、Snowpark Container Services(SPCS)に GPU 推論用のモデルをデプロイする方法を示します。
外部でトレーニングされた既存のモデル(例: AWS Sagemaker/Azure ML/GCP Vertex AI)をSnowflakeに取り込みます。¶
これらの例は、 AWS Sagemaker、Azure ML、または GCP Vertex AI の既存のモデルを Snowflake に持ち込む方法を示しています(詳細は ブログポスト をご参照ください)。
Snowflakeに MLFlow PyFunc モデルを取り込む¶
この例では、Snowflake Model Registryに MLFlow PyFunc モデルをログに記録し、推論を実行する方法を示します。
学習と推論のための分割された予測モデルのログ¶
この例では、Snowflakeで分割学習と推論を実行するための予測モデルをログに記録する方法を示します。
分割推論を大規模に実行するためのコレクションとしての多モデルログ¶
この例では、分散パーティショニング推論を実行するために、何千ものモデルをカスタムパーティショニングモデルとしてログに記録する方法を示します。