Exemples et démarrages rapides

Cette rubrique contient plusieurs exemples et démarrages rapides pour des cas d’utilisation courants de la journalisation et de l’inférence de modèles dans Snowflake ML. Vous pouvez utiliser ces exemples comme point de départ pour votre propre cas d’utilisation.

Démarrage rapide pour les débutants

Démarrer avec Snowflake ML : entraînez un modèle de régression xgboost, connectez-vous au registre de modèles et exécutez l’inférence dans un entrepôt.

Démarrage rapide

Modèle xgboost, inférence CPU dans les services de conteneurs Snowpark

Ce code illustre les étapes clés du déploiement d’un modèle XGBoost dans Snowpark Container Services (SPCS), puis de l’utilisation du modèle déployé pour l’inférence.

Exemple de

Connecter un pipeline avec un prétraitement et un entraînement de modèle personnalisés

Cet exemple illustre comment :

  • Effectuer l’ingénierie des fonctions

  • Former un pipeline avec des étapes de prétraitement personnalisées et un modèle de prévision xgboost

  • Lancer l’optimisation des hyperparamètres

  • Connecter le pipeline optimal

  • Exécuter l’inférence dans un entrepôt ou dans Snowpark Container Services (SPCS)

Exemple de Notebook

Modèle d’intégrations à grande échelle et open source, inférence GPU

Cet exemple utilise Snowflake Notebooks sur Container Runtime pour former un modèle d’intégration à grande échelle à partir de la bibliothèque Hugging Face sentence_transformer et exécuter des prédictions à grande échelle à l’aide de GPUs sur Snowpark Container Services (SPCS).

Démarrage rapide

Pipeline complet avec modèle de recommandation distribué PyTorch, inférence GPU

Cet exemple montre comment concevoir un modèle de recommandation Pytorch distribué de bout en bout à l’aide de GPUs, en déployant le modèle pour l’inférence GPU sur Snowpark Container Services (SPCS).

Démarrage rapide

Apporter un modèle existant entrainé en externe (par exemple AWS Sagemaker/Azure ML/GCP Vertex AI) à Snowflake

Ces exemples montrent comment amener votre modèle existant dans AWS Sagemaker, Azure ML ou GCP Vertex AI à Snowflake (voir l’article de blog pour plus de détails).

Apporter un modèle MLFlow PyFunc à Snowflake

Cet exemple montre comment connecter un modèle MLFlow PyFunc dans le Snowflake Model Registry et exécuter l’inférence.

Exemple

Connecter un modèle de prévision partitionné pour l’entraînement et l’inférence

Cet exemple montre comment connecter un modèle de prévision pour exécuter un entraînement et une inférence partitionnés dans Snowflake.

Démarrage rapide

Connecter de nombreux modèles en tant que collection pour exécuter une inférence partitionnée à l’échelle

Cet exemple montre comment connecter des milliers de modèles en tant que modèle partitionné personnalisé pour exécuter une inférence distribuée et partitionnée.

Démarrage rapide