Snowflake Model Registry-Benutzeroberfläche

Bemerkung

Die Model Registry Snowsight-UI ist generell in allen Einsatzgebieten verfügbar.

Die Inference Services-UI für SPCS Model Serving ist nur in kommerziellen Bereitstellungen von AWS, Azure und GCP in der Vorschau verfügbar.

Auf der Seite Models in Snowsight finden Sie alle Ihre Modelle des maschinellen Lernens. Sie können auch deren Metadaten und Bereitstellungen einsehen.

Details zum Modell

Auf der Seite Models werden die Modelle angezeigt, die Sie erstellt und in der Snowflake Model Registry angemeldet haben oder die über die ML- oder -Berechtigung Zugriff auf die Modelle haben. Dies sind beides Modelle, die mit Snowpark ML entwickelt wurden, und Modelle aus externen Quellen (z. B. Modelle von Hugging Face). Es zeigt auch :doc:`Cortex Fine-Tuning-Modelle, und enthält unter Umständen andere Modelltypen, die Sie in zukünftigen Versionen in Snowflake erstellen können.

Zum Anzeigen der Seite „Models“ wählen Sie im Navigationsmenü AI & ML » Models aus. Die resultierende Liste enthält alle Modelle in der Snowflake Model Registry in allen Datenbanken und Schemas, auf die Ihre aktuelle Rolle Zugriff hat.

Die Seite „Modelle“, die eine Liste der verfügbaren Machine-Learning-Modelle anzeigt

Bemerkung

Wenn Sie keine Modelle sehen, vergewissern Sie sich, dass Ihre Rolle über die erforderlichen Berechtigungen verfügt.

Um die Detailseite eines Modells zu öffnen, wählen Sie die entsprechende Zeile in der Models-Liste. Auf der Detailseite werden wichtige Informationen zum Modell angezeigt, darunter die Beschreibung des Modells, Tags und Versionen.

Eine Seite mit Modelldetails, auf der die wichtigsten Informationen zum Modell angezeigt werden

Um die Modellbeschreibung zu bearbeiten oder das Modell zu löschen, wählen Sie in der oberen rechten Ecke.

Um die Detailseite der Version zu öffnen, wählen Sie eine Modellversion. Auf dieser Seite werden Metadaten zur Modellversion angezeigt, wie z. B. Metriken, und eine Liste der verfügbaren Methoden, die von Python oder SQL aus aufgerufen werden können.

Eine Seite mit Details zur Modellversion, die Informationen über die Modellversion anzeigt

Um den Code zu sehen, der die Funktion des Modells aufruft, wählen Sie den Link SQL oder Python daneben. Sie können diesen Codeausschnitt in ein Snowsight-SQL-Arbeitsblatt oder ein Python-Notebook kopieren.

Eine Detailseite zur Modellversion, die den Code zum Aufruf der Modellfunktion anzeigt

Um Metadaten hinzuzufügen oder zu ändern oder die Modellversion zu löschen, wählen Sie die in der oberen rechten Ecke.

Die Files-Registerkarte enthält eine Liste der der Modellversion zugrunde liegenden Artefakte. Sie können einzelne Dateien von dieser Seite herunterladen. Diese Seite ist nur verfügbar, wenn der Benutzer die OWNERSHIP- oder READ-Berechtigung für das Modell hat.

Die Registerkarte „Dateien“ der Detailseite der Modellversion, die eine Liste der Artefakte des Modells anzeigt

Auf der Registerkarte Lineage finden Sie die vollständigen Datenflussinformationen für das Modell, einschließlich aller Datensätze, die zum Trainieren des Modells verwendet wurden, aller Feature-Ansichten aus dem Feature Store und der Quelldatentabellen.

Die Registerkarte Herkunft auf der Detailseite der Modellversionen, die die Herkunft des Modells anzeigt

Bereitstellen von Benutzermodellen

Sie können Modelle in SPCS Model Serving direkt über die Modell-Registry-Seite bereitstellen.

Bemerkung

Die Snowflake-Modell-Registry unterstützt nur die Bereitstellung von Benutzermodellen in SPCS Model Serving.

Um ein Modell bereitzustellen, führen Sie die folgenden Schritte aus:

  1. Wählen Sie ein Modell aus der Liste der Modelle aus.

  2. Navigieren auf der Seite mit den Modelldetails zum Abschnitt Versions.

  3. Um die Seite mit den Versionsdetails zu öffnen, wählen Sie in der Liste der Versionen eine Modellversion aus.

  4. Wählen Sie auf der Seite mit den Versionsdetails die Schaltfläche Deploy aus.

  5. Geben Sie im geöffneten Fenster einen Namen für den bereitzustellenden Dienst ein.

  6. Wählen Sie aus, ob ein REST-API-Endpunkt für den bereitgestellten Dienst erstellt werden soll.

  7. Wählen Sie einen Computepool für den bereitgestellten Dienst aus.

  8. (Optional) Um die Leistung und die Ressourcennutzung anzupassen, können Sie Details wie die Anzahl der Worker, CPU und Speicher über die erweiterten Einstellungen anpassen.

  9. Wählen Sie Deploy aus.

    Der Bereitstellungsprozess kann bis zu 15 Minuten benötigen, um den Dienst zu erstellen.

Nachdem die Bereitstellung abgeschlossen ist, wird der Dienst auf der Registerkarte Inference Services auf der Hauptseite der Modell-Registry angezeigt.

Importieren und Bereitstellen von Modellen von einem externen Dienst

Bemerkung

Derzeit wird nur nur Hugging Face als Modellanbieter unterstützt.

Sie können vortrainierte Modelle von einem externen Anbieter importieren und sie als Snowflake-Dienste für Ableitung bereitstellen. Um ein externes Modell zu importieren, gehen Sie wie folgt vor:

  1. Wählen Sie im Navigationsmenü die Option AI & ML » Models aus.

  2. Wählen Sie Import model aus.

    Das Dialogfenster Import model wird geöffnet.

  3. Geben Sie im Feld Model handle das Modell-Handle von Ihrem Anbieter ein, oder wählen Sie eines aus der Liste der von Snowflake verifizierten Modelle aus.

  4. Wählen Sie in der Liste Task die Aufgabe aus, die das Modell ausführen soll.

  5. Optional: Um den Download von benutzerdefiniertem Python-Code aus dem Modell-Repository zu aktivieren, aktivieren Sie das Trust remote code.

    Warnung

    Es sollte als Sicherheitsrisiko angesehen werden, wenn Modelle beliebigen Code herunterladen. Lassen Sie nur Remotecode von Modellen zu, die Sie gründlich evaluiert haben und bei denen Sie darauf vertrauen, dass sie auf Snowflake ausgeführt werden können.

  6. Optional: To import a gated model, enter the name of the Snowflake secret for your Hugging Face token in the Hugging Face token secret field.

    Your Hugging Face token secret should be a generic text secret, with your Hugging Face token as a value. For information on how to create a generic text secret, see CREATE SECRET.

  7. Optional: Erweitern Sie Advanced settings:

    1. Um die Konvertierung von Eingabe- und Ausgabe-Token für Ihr Modell durchzuführen, geben Sie im Tokenizer model-Feld ein Tokenisierungsmodell ein.

    2. Um einen Hyperparameter hinzuzufügen, wählen Sie Add parameter aus und geben Sie dann einen Namen und einen Wert ein, die vom Modell erkannt werden.

  8. Geben Sie im Feld Model name einen Namen zur Verwendung in der Snowflake-Modell-Registry ein.

  9. Geben Sie im Feld Version name eine Version für die Registrierung ein.

  10. Wählen Sie in der Liste Database and schema eine Datenbank aus, mit der dieses Modell verknüpft werden soll.

  11. Optional: Erweitern Sie Advanced settings:

    1. Um der Laufzeitumgebung des Modells pip-Anforderungen hinzuzufügen, wählen Sie Add Pip requirement aus und fügen Sie dann einen pip -Anforderungsbezeichner für Ihr Paket hinzu. Nur Pakete, die von PyPi bereitgestellt werden, werden unterstützt.

    2. Geben Sie im Feld Comment alle nützlichen Informationen zu dem Modell ein.

  12. Wählen Sie Continue to deployment aus.

    Das Dialogfenster Deploy (model handle) wird geöffnet.

Um Ihr Modell bereitzustellen, gehen Sie wie folgt vor:

  1. Geben Sie im Feld Service name einen Namen ein, unter dem der Dienst ausgeführt werden soll.

    Snowflake bietet einen Standard, der auf dem Modellnamen und der Version basiert.

  2. Optional: Um zu ändern, ob ein API-Endpunkt automatisch für den Dienst Ihres Modells erstellt wird, aktivieren oder deaktivieren Sie Create REST API endpoint.

  3. Wählen Sie in der Liste Compute pool einen vorhandenen Computepool aus, auf dem der Dienst ausgeführt werden soll.

  4. Optional: Passen Sie die Anzahl der Instanzen im Computepool an, auf denen der Dienst läuft.

    Das Maximum wird durch die Anzahl der Knoten in Ihrem Computepool begrenzt.

  5. Optional für CPU-Computepools: Um Details zu den verfügbaren Ressourcen des Dienstes im Computepool bereitzustellen, erweitern Sie Advanced settings:

    • Number of workers

    • Max batch rows

    • CPU: Die Anzahl der virtuellen Kerne in Millieinheiten

    • GPU: Die Anzahl der physischen GPUs (erforderlich für GPU-Computepools)

    • Memory: Die Menge des maximal verfügbaren Arbeitsspeichers

  6. Um das Modell zu importieren und den Dienst zu erstellen, über den Benutzende auf Ihr Modell zugreifen, wählen Sie Deploy aus.

    Sie können den Modellimport auch abbrechen oder zu den Modelldetails zurückkehren.

Sobald die Bereitstellung beginnt, wird in einem Dialogfeld eine Query ID angezeigt. Diese Abfrage erstellt die Jobs, um das Modell zu importieren und Ihren Dienst bereitzustellen. Es handelt sich um keine Abfrage zur Überwachung eines Jobs.

  1. Führen Sie eine der folgenden Aktionen aus:

    • Um das Dialogfeld zu schließen, wählen Sie Done aus.

    • Um die Abfrage zu überwachen, wählen Sie Open query monitoring aus.

Snowflake führt die folgenden Aktionen für Ihr Modell und Ihre Dienstbereitstellung aus:

  • Lädt die erforderlichen Dateien von Ihrem Anbieter herunter.

  • Lädt das Modell hoch und protokolliert es in Ihrer Modell-Registry.

  • Erstellt ein modellspezifisches Container-Image für die Ausführung Ihres Dienstes.

  • Stellt das Image des Modells als Dienst bereit.

Bemerkung

Wie lange Snowflake für die Ausführung dieser Operationen benötigt, hängt von mehreren Faktoren ab, darunter die Modellgröße, die verfügbaren Computeressourcen und die Einrichtung des Netzwerks.

Wenn bei der Bereitstellung ein Fehler auftritt, finden Sie in der zugehörigen SQL-Abfrage weitere Informationen. Wählen Sie im Navigationsmenü Monitoring » Query History`aus, um Ihre Bereitstellungsabfrage zu finden, die einen Aufruf von ``SYSTEM$DEPLOY_MODEL` enthält.

Überwachung der Modell- und Dienstbereitstellung

Wenn externe Modelle geladen und für die Bereitstellung vorbereitet werden, beginnt Snowflake automatisch mit der Registrierung des zugehörigen Dienstes. Überwachen Sie die Bereitstellung, indem Sie folgende Schritte ausführen:

  1. Wählen Sie im Navigationsmenü die Option Monitoring » Services & jobs aus.

  2. Wählen Sie auf der Registerkarte Jobs den Job aus, der dem Speicherort und dem Computepool Ihres Dienstes entspricht, die zum Zeitpunkt des Starts des Imports erstellt wurden.

    Dieser Job hat einen Namen im Format MODEL_DEPLOY_IDENTIFIER. Jede durch einen Modellimport ausgeführte Dienstbereitstellung erstellt einen eindeutigen Bezeichner für die zugehörigen Jobs.

  3. Um die Bereitstellung des Modells zu überwachen, wählen Sie die Registerkarte Logs aus.

    Wenn die Bereitstellung des Modells abgeschlossen ist, startet Snowflake einen Job, um Ihren Dienst zu erstellen und bereitzustellen.

  4. Kehren Sie zur Registerkarte Jobs zurück und wählen Sie den Job namens MODEL_BUILD_IDENTIFIER aus.

    Dieser Bezeichner ist derselbe wie Ihr Modellbereitstellungsjobs.

  5. Um den Aufbau des Dienstcontainers zu überwachen, kehren Sie zur Registerkarte Logs zurück.

    Wenn dieser Job abgeschlossen ist, wird Ihr Dienst bereitgestellt und ist bereit.

Dienste zur Modellinferenz

Sie können die mit SPCS Model Serving erstellten Modellinferenzdienste in der Model Registry-UI sehen. Die Hauptseite der Modellliste zeigt den Status der für ein beliebiges Modell erstellten Inferenzdienste an.

Die für die Modelle erstellten Inferenzdienste.

Wenn Sie einen Modellnamen und eine Modellversion auswählen, können Sie auf der Registerkarte Inference Services auf der Seite mit den Details der Modellversion weitere Details über den bereitgestellten Ableitungsdienst anzeigen oder den Dienst aussetzen. Hier sehen Sie auch eine Liste der Funktionen, die der Dienst zur Verfügung stellt. Zudem können Sie auch das SQL- oder Python-Nutzungscode-Snippet anzeigen oder kopieren.

Die Versionen für Modellinferenzdienste.

Wählen Sie Open Details aus, um Dienstparameter anzuzeigen. Um weitere Details zu dem bereitgestellten Inferenzdienst anzuzeigen, wählen Sie im Bereich mit den Dienstparametern die Option Open Service Details aus. Sie können die Dienstdetails auch über die Registerkarte Inference Services auf der Hauptseite der Modell-Registry abrufen.

Modellüberwachung

Für alle Modelle, denen Modellmonitore zugeordnet sind, können Sie die Metriken der Modellüberwachung mithilfe der Modellmonitore auf der Seite mit den Modelldetails anzeigen.

Eine Seite mit Modelldetails, auf der die wichtigsten Informationen zum Modell angezeigt werden

Wählen Sie die gewünschten Modellmonitore aus, um das Monitoring Dashboard anzuzeigen:

Die für das Dashboard ausgewählten Modellmonitore.

Wählen Sie Compare, um das Menü der Modellversion anzuzeigen. Wählen Sie eine zweite Modellversion aus, mit der Sie diese Modellversion vergleichen möchten:

Ein Vergleich zwischen zwei Modellversionen.

Die Überwachung unterstützt eine große Anzahl von Metriken für Modellgenauigkeit, Modelldrift und Feature-Drift. Um die Metriken auszuwählen, die berechnet und angezeigt werden sollen, wählen Sie das Symbol Settings, um die gewünschten Metriken auszuwählen:

Die Einstellungen für die Modellüberwachungsseite