Beispiele und Quickstarts

Unter diesem Thema finden Sie mehrere Beispiele und Quickstarts für häufige Anwendungsfälle für Modellprotokollierung und Modellinferenz in Snowflake ML. Sie können diese Beispiele als Ausgangspunkt für Ihren eigenen Anwendungsfall verwenden.

Quickstart für Anfänger

Erste Schritte mit Snowflake ML: Trainieren Sie ein xgboost-Regressionsmodell, protokollieren Sie es in der Modell-Registry und führen Sie Inferenzen in einem Warehouse durch.

Quickstart

xgboost-Modell, CPU-Inferenz in Snowpark Container Services

Dieser Code veranschaulicht die wichtigsten Schritte bei der Bereitstellung eines XGBoost-Modells in Snowpark Container Services (SPCS) und der anschließenden Verwendung des bereitgestellten Modells für die Inferenz.

Beispiel

Protokollieren einer Pipeline mit benutzerdefinierter Vorverarbeitung und Modelltraining

Dieses Beispiel veranschaulicht, wie das geht:

  • Führen Sie das Feature-Engineering durch.

  • Trainieren Sie eine Pipeline mit kundenspezifischen Vorverarbeitungsschritten und einem xgboost-Prognosemodell.

  • Führen Sie eine Hyperparameter-Optimierung durch.

  • Protokollieren Sie die optimale Pipeline.

  • Führen Sie die Inferenz in einem Warehouse oder in Snowpark Container Services (SPCS) aus.

Beispiel-Notebook

Erste Schritte mit Model Serving in Snowpark Container Services

Dieses Beispiel veranschaulicht, wie das geht:

  • Trainieren, Registrieren und Versionieren eines Modells mit Snowflake Model Registry

  • Stellen Sie ein Modell als Service in Snowpark Container Services bereit.

  • Greifen Sie mit der REST API auf den Endpunkt des bereitgestellten Modells zu, sowohl mit der Authentifizierung anhand von Schlüsselpaaren als auch mit einem programmgesteuerten Zugriffstoken (PAT).

Quickstart

Umfassendes Open-Source-Einbettungsmodell, GPU-Inferenz

In diesem Beispiel werden Snowflake Notebooks auf Container Runtime verwendet, um ein umfangreiches Einbettungsmodell aus der Hugging Face sentence_transformer-Bibliothek zu trainieren und Vorhersagen in großem Maßstab mit GPUs auf Snowpark Container Services (SPCS) auszuführen.

Quickstart

Komplette Pipeline mit verteiltem PyTorch-Empfehlungsmodell, GPU-Inferenz

Dieses Beispiel zeigt, wie Sie ein verteiltes Pytorch-Empfehlungsmodell mit GPUs erstellen und das Modell für GPU-Inferenz auf Snowpark Container Services (SPCS) einsetzen.

Quickstart

Ein vorhandenes, extern trainiertes Modell (z. B. AWS Sagemaker/Azure ML/GCP Vertex AI) nach Snowflake übertragen

Diese Beispiele zeigen, wie Sie Ihr bestehendes Modell in AWS Sagemaker, Azure ML oder GCP Vertex AI in Snowflake übertragen können (siehe Blogbeitrag für weitere Details).

Ein MLFlow PyFunc-Modell zu Snowflake bereitstellen

Dieses Beispiel zeigt, wie Sie ein MLFlow PyFunc-Modell in der Snowflake Model Registry protokollieren und eine Inferenz durchführen.

Example

Protokollieren eines partitionierten Prognosemodells für Training und Inferenz

Dieses Beispiel zeigt, wie Sie ein Prognosemodell protokollieren, um partitioniertes Training und Inferenz in Snowflake durchzuführen.

Quickstart

Protokollieren vieler Modelle als Sammlung, um partitionierte Interferenz in großem Maßstab durchzuführen

Dieses Beispiel zeigt, wie Sie Tausende von Modellen als benutzerdefiniertes partitioniertes Modell protokollieren können, um verteilte, partitionierte Inferenz durchzuführen.

Quickstart