Beispiele und Quickstarts¶
Unter diesem Thema finden Sie mehrere Beispiele und Quickstarts für häufige Anwendungsfälle für Modellprotokollierung und Modellinferenz in Snowflake ML. Sie können diese Beispiele als Ausgangspunkt für Ihren eigenen Anwendungsfall verwenden.
Quickstart für Anfänger¶
Erste Schritte mit Snowflake ML: Trainieren Sie ein xgboost-Regressionsmodell, protokollieren Sie es in der Modell-Registry und führen Sie Inferenzen in einem Warehouse durch.
xgboost-Modell, CPU-Inferenz in Snowpark Container Services¶
Dieser Code veranschaulicht die wichtigsten Schritte bei der Bereitstellung eines XGBoost-Modells in Snowpark Container Services (SPCS) und der anschließenden Verwendung des bereitgestellten Modells für die Inferenz.
Protokollieren einer Pipeline mit benutzerdefinierter Vorverarbeitung und Modelltraining¶
Dieses Beispiel veranschaulicht, wie das geht:
Führen Sie das Feature-Engineering durch.
Trainieren Sie eine Pipeline mit kundenspezifischen Vorverarbeitungsschritten und einem xgboost-Prognosemodell.
Führen Sie eine Hyperparameter-Optimierung durch.
Protokollieren Sie die optimale Pipeline.
Führen Sie die Inferenz in einem Warehouse oder in Snowpark Container Services (SPCS) aus.
Erste Schritte mit Model Serving in Snowpark Container Services¶
Dieses Beispiel veranschaulicht, wie das geht:
Trainieren, Registrieren und Versionieren eines Modells mit Snowflake Model Registry
Stellen Sie ein Modell als Service in Snowpark Container Services bereit.
Greifen Sie mit der REST API auf den Endpunkt des bereitgestellten Modells zu, sowohl mit der Authentifizierung anhand von Schlüsselpaaren als auch mit einem programmgesteuerten Zugriffstoken (PAT).
Umfassendes Open-Source-Einbettungsmodell, GPU-Inferenz¶
In diesem Beispiel werden Snowflake Notebooks auf Container Runtime verwendet, um ein umfangreiches Einbettungsmodell aus der Hugging Face sentence_transformer
-Bibliothek zu trainieren und Vorhersagen in großem Maßstab mit GPUs auf Snowpark Container Services (SPCS) auszuführen.
Komplette Pipeline mit verteiltem PyTorch-Empfehlungsmodell, GPU-Inferenz¶
Dieses Beispiel zeigt, wie Sie ein verteiltes Pytorch-Empfehlungsmodell mit GPUs erstellen und das Modell für GPU-Inferenz auf Snowpark Container Services (SPCS) einsetzen.
Ein vorhandenes, extern trainiertes Modell (z. B. AWS Sagemaker/Azure ML/GCP Vertex AI) nach Snowflake übertragen¶
Diese Beispiele zeigen, wie Sie Ihr bestehendes Modell in AWS Sagemaker, Azure ML oder GCP Vertex AI in Snowflake übertragen können (siehe Blogbeitrag für weitere Details).
AWS und Azure ML Quickstart
GCP Vertex AI Quickstart
Ein MLFlow PyFunc-Modell zu Snowflake bereitstellen¶
Dieses Beispiel zeigt, wie Sie ein MLFlow PyFunc-Modell in der Snowflake Model Registry protokollieren und eine Inferenz durchführen.
Protokollieren eines partitionierten Prognosemodells für Training und Inferenz¶
Dieses Beispiel zeigt, wie Sie ein Prognosemodell protokollieren, um partitioniertes Training und Inferenz in Snowflake durchzuführen.
Protokollieren vieler Modelle als Sammlung, um partitionierte Interferenz in großem Maßstab durchzuführen¶
Dieses Beispiel zeigt, wie Sie Tausende von Modellen als benutzerdefiniertes partitioniertes Modell protokollieren können, um verteilte, partitionierte Inferenz durchzuführen.