Beispiel-Workflows¶
Auf dieser Seite finden Sie Beispiel-Workflows für den Einsatz von Machine Learning-Modellen für Echtzeit-Inferenz mit Snowpark Container Services (SPCS). Jedes Beispiel zeigt den vollständigen Lebenszyklus von der Registrierung des Modells bis zur Bereitstellung und Inferenz.
Dies beinhaltet:
Wie Sie über HTTP-Endpunkte Dienste erstellen, Vorhersagen treffen und auf Modelle zugreifen können.
Wie Sie verschiedene Modellarchitekturen (XGBoost, Hugging Face-Transformer, PyTorch) und Computeoptionen (CPU und GPU) verwenden.
Einsatz eines XGBoost-Modells für CPU-gestützte Inferenz¶
Der folgende Code:
Stellt ein XGBoost-Modell für die Inferenz in SPCS bereit.
Verwendet das bereitgestellte Modell für die Inferenz.
Aufrufe über HTTP (externe Anwendung)¶
Da bei diesem Modell der Dateneingang aktiviert ist (ingress_enabled=True), können Sie den öffentlichen HTTP-Endpunkt aufrufen. Im folgenden Beispiel wird ein in der Umgebungsvariablen PAT_TOKEN gespeichertes PAT verwendet, um sich bei einem öffentlichen Snowflake-Endpunkt zu authentifizieren:
Einsatz eines Hugging Face-Satzumwandlers für GPU-gestützte Inferenz¶
Der folgende Code trainiert und setzt einen Hugging Face Satzumwandler ein, einschließlich eines HTTP-Endpunkts.
Für dieses Beispiel benötigen Sie das sentence-transformers-Paket, einen GPU-Computepool und ein Image-Repository.
In SQL können Sie die Dienstfunktion wie folgt aufrufen:
Auf ähnliche Weise können Sie den HTTP-Endpunkt wie folgt aufrufen.
Einsatz eines PyTorch-Modells für GPU-gestützte Inferenz¶
Ein Beispiel für das Training und den Einsatz eines PyTorch Deep Learning-Empfehlungsmodells (DLRM) auf SPCS für GPU-Inferenz finden Sie in diesem Quickstart.
Bereitstellen eines Snowpark ML-Modellierungsmodells¶
Modelle, die mit Snowpark ML-Modellierungsklassen entwickelt wurden, können nicht in Umgebungen eingesetzt werden, die eine GPU haben. Als Problemumgehung können Sie das native Modell extrahieren und es bereitstellen. Beispiel: