Exemples et démarrages rapides¶
Cette rubrique contient plusieurs exemples et démarrages rapides pour des cas d’utilisation courants de la journalisation et de l’inférence de modèles dans Snowflake ML. Vous pouvez utiliser ces exemples comme point de départ pour votre propre cas d’utilisation.
Démarrage rapide pour les débutants¶
Démarrer avec Snowflake ML : entraînez un modèle de régression xgboost, connectez-vous au registre de modèles et exécutez l’inférence dans un entrepôt.
Modèle xgboost, inférence CPU dans les services de conteneurs Snowpark¶
Ce code illustre les étapes clés du déploiement d’un modèle XGBoost dans Snowpark Container Services (SPCS), puis de l’utilisation du modèle déployé pour l’inférence.
Connecter un pipeline avec un prétraitement et un entraînement de modèle personnalisés¶
Cet exemple illustre comment :
Effectuer l’ingénierie des fonctions
Former un pipeline avec des étapes de prétraitement personnalisées et un modèle de prévision xgboost
Lancer l’optimisation des hyperparamètres
Connecter le pipeline optimal
Exécuter l’inférence dans un entrepôt ou dans Snowpark Container Services (SPCS)
Modèle d’intégrations à grande échelle et open source, inférence GPU¶
Cet exemple utilise Snowflake Notebooks sur Container Runtime pour former un modèle d’intégration à grande échelle à partir de la bibliothèque Hugging Face sentence_transformer
et exécuter des prédictions à grande échelle à l’aide de GPUs sur Snowpark Container Services (SPCS).
Pipeline complet avec modèle de recommandation distribué PyTorch, inférence GPU¶
Cet exemple montre comment concevoir un modèle de recommandation Pytorch distribué de bout en bout à l’aide de GPUs, en déployant le modèle pour l’inférence GPU sur Snowpark Container Services (SPCS).
Apporter un modèle existant entrainé en externe (par exemple AWS Sagemaker/Azure ML/GCP Vertex AI) à Snowflake¶
Ces exemples montrent comment amener votre modèle existant dans AWS Sagemaker, Azure ML ou GCP Vertex AI à Snowflake (voir l’article de blog pour plus de détails).
AWS et Azure ML Démarrage rapide
GCP Vertex AI Démarrage rapide
Apporter un modèle MLFlow PyFunc à Snowflake¶
Cet exemple montre comment connecter un modèle MLFlow PyFunc dans le Snowflake Model Registry et exécuter l’inférence.
Connecter un modèle de prévision partitionné pour l’entraînement et l’inférence¶
Cet exemple montre comment connecter un modèle de prévision pour exécuter un entraînement et une inférence partitionnés dans Snowflake.
Connecter de nombreux modèles en tant que collection pour exécuter une inférence partitionnée à l’échelle¶
Cet exemple montre comment connecter des milliers de modèles en tant que modèle partitionné personnalisé pour exécuter une inférence distribuée et partitionnée.