Abfrageaktivität mit Abfrageverlauf überwachen

Um die Abfrageaktivitäten in Ihrem Konto zu überwachen, können Sie Folgendes verwenden:

Auf der Seite Query History in Snowsight können Sie Folgendes tun:

  • Abfragen überwachen, die von Benutzern Ihres Kontos ausgeführt werden

  • Anzeigen von Details zu Abfragen, einschließlich Performancedaten. In einigen Fällen sind Abfragedetails nicht verfügbar.

  • Untersuchen jedes Schritts einer ausgeführten Abfrage im Query Profile.

Auf der Seite „Query History“ (Abfrageverlauf) können Sie die in Ihrem Snowflake-Konto ausgeführten Abfragen der letzten 14 Tage anzeigen.

Innerhalb eines Arbeitsblatts können Sie den Abfrageverlauf für Abfragen einsehen, die in diesem Arbeitsblatt ausgeführt wurden. Siehe Abfrageverlauf anzeigen.

Abfrageverlauf mit Snowsight überprüfen

Um die Seite Query History in Snowsight aufzurufen, gehen Sie wie folgt vor:

  1. Melden Sie sich bei Snowsight an.

  2. Wählen Sie Activity » Query History aus.

  3. Filtern Sie Ihre Ansicht, um die relevantesten und genauesten Ergebnisse anzuzeigen.

Bemerkung

Wenn Sie die Seite Query History verwenden, werden möglicherweise unvollständige oder gar keine Ergebnisse angezeigt. Der Grund dafür ist, dass die Seite maximal 15 Sekunden benötigt, um Ergebnisse abzurufen, und alle zu diesem Zeitpunkt verfügbaren Abfrageinformationen zurückgibt. Um Ergebnisse zuverlässig abzurufen, verwenden Sie Filter, mit denen sich die Abrufzeit der Ergebnisse auf unter 15 Sekunden reduzieren lässt.

Erforderliche Berechtigungen zum Anzeigen des Abfrageverlaufs

Sie können jederzeit den Verlauf der von Ihnen ausgeführten Abfragen einsehen.

Es hängt aber von Ihrer aktiven Rolle ab, für welche weitere Abfragen Ihnen auf der Seite Query History Verläufe angezeigt werden:

  • Wenn Ihre aktive Rolle die Rolle ACCOUNTADMIN ist, können Sie Verläufe aller Abfragen des Kontos einsehen.

  • Wenn Ihre aktive Rolle die Berechtigung MONITOR oder OPERATE für ein Warehouse hat, können Sie Abfragen anzeigen, die von anderen Benutzern ausgeführt wurden, die dieses Warehouse verwenden.

  • Wenn Ihrer aktiven Rolle die Datenbankrolle GOVERNANCE_VIEWER für die Datenbank SNOWFLAKE zugewiesen ist, können Sie den Abfrageverlauf für alle Benutzer in Ihrem Konto anzeigen. Siehe SNOWFLAKE-Datenbankrollen.

  • Wenn Ihrer aktiven Rolle die Datenbankrolle READER_USAGE_VIEWER für die Datenbank SNOWFLAKE zugewiesen ist, können Sie den Abfrageverlauf für alle Benutzer von Leserkonten anzeigen, die mit Ihrem Konto verbunden sind. Siehe SNOWFLAKE-Datenbankrollen.

Hinweise zur Verwendung des Abfrageverlaufs

Wenn Sie den Abfrageverlauf in Query History für Ihr Konto überprüfen, beachten Sie Folgendes:

  • Details zu Abfragen, die vor mehr als 7 Tagen ausgeführt wurden, enthalten aufgrund der Datenaufbewahrungsrichtlinie für Sitzungen keine Benutzerinformationen unter User. Sie können den Benutzerfilter verwenden, um die von einzelnen Benutzern ausgeführten Abfragen abzurufen. Siehe Abfrageverlaufsfilter.

  • Bei Abfragen, die aufgrund von Syntax- oder Parsing-Fehlern fehlgeschlagen sind, wird Ihnen anstelle der ausgeführten SQL-Anweisung <redacted> (Abfragetext ist unkenntlich gemacht) angezeigt. Wenn Sie über eine Rolle mit entsprechenden Berechtigungen verfügen, können Sie den Parameter ENABLE_UNREDACTED_QUERY_SYNTAX_ERROR setzen, um den vollständigen Abfragetext anzuzeigen.

  • Für Filter und die Spalten Started und End Time wird Ihre aktuelle Zeitzone verwendet. Sie können diese Einstellung nicht ändern. Die Einstellung des Parameters TIMEZONE für die Sitzung ändert nicht die verwendete Zeitzone.

Abfrageverlaufsfilter

Bemerkung

Wenn Sie die Seite „Query History“ (Abfrageverlauf) verwenden, werden möglicherweise unvollständige oder gar keine Ergebnisse angezeigt. Verwenden Sie Filter, um zuverlässige Ergebnisse zu erhalten.

Sie können nach folgenden Elementen filtern:

  • Status der Abfrage, um z. B. Abfragen mit langer Ausführungszeit, fehlgeschlagene Abfragen und Abfragen in der Warteschlange zu identifizieren.

  • Benutzer, der die Abfrage ausgeführt hat, einschließlich:

    • All, um alle Benutzer anzuzeigen, für die Sie Zugriff auf den Abfrageverlauf haben.

    • Benutzer, mit dem Sie sich angemeldet haben (Standard)

    • Einzelne Snowflake-Benutzer in Ihrem Konto, wenn Sie mit Ihrer Rolle den Abfrageverlauf von anderen Benutzer einsehen dürfen.

  • Zeitraum, in dem die Abfrage ausgeführt wurde, begrenzt auf 14 Tage.

  • Weitere Filter, darunter die folgenden:

    • SQL Text, um beispielsweise Abfragen anzuzeigen, die bestimmte Anweisungen verwenden, wie GROUP BY.

    • Query ID, um Details zu einer bestimmten Abfrage anzuzeigen.

    • Warehouse, um Abfragen anzuzeigen, die unter Verwendung eines bestimmten Warehouses ausgeführt wurden.

    • Statement Type, um Abfragen anzuzeigen, die einen bestimmten Anweisungstyp verwenden, z. B. DELETE, UPDATE, INSERT oder SELECT.

    • Duration, um z. B. Abfragen mit besonders langer Ausführungsdauer zu identifizieren.

    • Session ID, um Abfragen anzuzeigen, die während einer bestimmten Snowflake-Sitzung ausgeführt wurden.

    • Query Tag, um Abfragen mit einem bestimmten Abfrage-Tag anzuzeigen, das über den Sitzungsparameter QUERY_TAG festgelegt wurde.

    • Client generated statements, um interne Abfragen anzuzeigen, die von einem Client, Treiber oder einer Bibliothek ausgeführt werden, einschließlich der Weboberfläche. Wenn ein Benutzer beispielsweise in Snowsight zur Seite Warehouses navigiert, führt Snowflake im Hintergrund eine SHOW WAREHOUSES-Anweisung aus. Diese Anweisung wird sichtbar, wenn dieser Filter aktiviert ist. Ihrem Konto werden keine Anweisungen in Rechnung gestellt, die vom Client generiert werden.

    • Queries executed by user tasks, um ausgeführte SQL-Anweisungen oder gespeicherte Prozeduren anzuzeigen, die von Benutzeraufgaben aufgerufen wurden.

    • Show replication refresh history, um Abfragen anzuzeigen, die zum Ausführen von Replikationsaktualisierungsaufgaben in Remoteregionen und Remotekonten verwendet werden.

Wenn Sie Ergebnisse nahezu in Echtzeit anzeigen möchten, aktivieren Sie Auto Refresh. Wenn Auto Refresh aktiviert ist, wird die Tabelle alle zehn Sekunden aktualisiert.

In der Tabelle Queries werden standardmäßig die folgenden Spalten angezeigt:

  • SQL Text mit dem Text der ausgeführten Anweisung (immer angezeigt).

  • Query ID mit der ID der Abfrage (immer angezeigt).

  • Status mit dem Status der ausgeführten Anweisung (immer angezeigt).

  • User mit dem Benutzernamen, der eine Anweisung ausgeführt hat.

  • Warehouse mit dem Warehouse, das zum Ausführen einer Anweisung verwendet wurde.

  • Duration mit der Zeitdauer, die zum Ausführen einer Anweisung benötigt wurde.

  • Started mit dem Zeitpunkt, zu dem die Ausführung der Anweisung gestartet wurde.

Wenn Sie weniger als 1.000 Ergebnisse haben, können Sie eine Spaltenüberschrift auswählen, nach der die Tabelle sortiert werden soll. Wenn Sie mehr Ergebnisse haben, können Sie die Tabelle nicht sortieren.

Um spezifischere Informationen anzuzeigen, können Sie durch Auswahl von Columns Spalten zur Tabelle hinzuzufügen oder entfernen, z. B.:

  • All, um alle Spalten anzuzeigen.

  • End Time, um den Zeitpunkt anzuzeigen, an dem die Ausführung der Anweisung beendet war.

  • Session ID, um den ID der Sitzung anzuzeigen, die die Anweisung ausgeführt hat.

  • Client Driver, um den Namen und die Version von Client, Treiber oder Bibliothek anzuzeigen, die zur Ausführung der Anweisung verwendet werden. Bei Anweisungen, die in Snowsight ausgeführt werden, wird Go 1.1.5 angezeigt.

  • Bytes Scanned, um die Anzahl der Bytes anzuzeigen, die während der Verarbeitung der Abfrage gescannt wurden.

  • Rows, um die Anzahl der von einer Anweisung zurückgegebenen Zeilen anzuzeigen.

  • Query Tag, um das auf eine Abfrage gesetzte Tag anzuzeigen.

  • Warehouse Size, um die Größe des Warehouses anzuzeigen, das zur Ausführung der Anweisung verwendet wurde.

  • Incident, um Details zu Anweisungen mit Ausführungsstatus „Incident“ (Vorfall) anzuzeigen, die für Problembehandlung oder Debugging verwendet werden können.

Um zusätzliche Details zu einer Abfrage anzuzeigen, wählen Sie die Abfrage in der Tabelle aus, wodurch Query Details geöffnet wird.

Details und Profil einer bestimmten Anfrage überprüfen

Wenn Sie in Query History eine Abfrage auswählen, können Sie zugehörige Details und das Profil der Abfrage überprüfen.

Abfragedetails überprüfen

Um die Details einer bestimmten Abfrage zu überprüfen und die Ergebnisse einer erfolgreichen Abfrage anzuzeigen, öffnen Sie Query Details für eine Abfrage.

Unter Details können Sie Informationen zur Abfrageausführung überprüfen, einschließlich:

  • Status der Abfrage

  • Zeitpunkt des Beginns der Abfrage, in der lokalen Zeitzone des Benutzers

  • Zeitpunkt des Endes der Abfrage, in der lokalen Zeitzone des Benutzers

  • Größe des für die Abfrage verwendeten Warehouses

  • Dauer der Abfrage

  • Abfrage-ID

  • Abfrage-Tag für die Abfrage, falls vorhanden

  • Treiberstatus. Weitere Details dazu finden Sie unter Anzeigen der verwendeten Snowflake-Clientversionen.

  • Namen und Version von Client, Treiber oder Bibliothek, die zur Übermittlung der Abfrage verwendet wurden. Beispiel: Go 1.1.5 für Abfragen, die über Snowsight ausgeführt wurden.

  • Sitzung-ID

Über der Registerkarte Query Details wird das Warehouse angezeigt, das zur Ausführung der Abfrage verwendet wurde, sowie der Benutzer, der die Abfrage ausgeführt hat.

Der Bereich SQL Text enthält den eigentlichen Text der Abfrage. Bewegen Sie den Mauszeiger über den SQL-Text, um die Anweisung in einem Arbeitsblatt zu öffnen oder die Anweisung zu kopieren. Wenn die Abfrage fehlgeschlagen ist, können Sie die Fehlerdetails überprüfen.

Der Bereich Results enthält die Ergebnisse der Abfrage. Es werden nur die ersten 10.000 Zeilen eines Ergebnisses angezeigt, und die Ergebnisse können nur von dem Benutzer eingesehen werden, der die Abfrage ausgeführt hat. Wählen Sie Export Results aus, um den vollständigen Satz von Ergebnissen als CSV-formatierte Datei zu exportieren.

Fehlersuche, warum Abfragedetails möglicherweise nicht verfügbar sind

Wenn eine Abfrage keine Abfragedetails enthält, kann dies unter anderem folgende Ursachen haben:

  • Die Abfrage wird noch ausgeführt. Sobald die Abfrage beendet ist, können Sie die Abfragedetails und das Profil einsehen.

  • Ihre Rolle hat keine Berechtigung zum Anzeigen der Abfragedetails.

  • Die Abfrage wurde vor mehr als 14 Tagen ausgeführt, sodass Abfragedetails und Profil nicht mehr verfügbar sind.

  • Die Abfrage konnte nicht ausgeführt werden und hat daher kein Abfrageprofil.

Query Profile überprüfen

Auf der Registerkarte Query Profile können Sie den Ausführungsplan der Abfrage untersuchen und detaillierte Informationen zu den einzelnen Ausführungsschritten abrufen.

Query Profile ist ein leistungsfähiges Tool zum Verständnis der Mechanismen von Abfragen. Es kann verwendet werden, wenn Sie mehr über die Leistung oder das Verhalten einer bestimmten Abfrage erfahren müssen. Das Tool soll Ihnen helfen, typische Fehler in SQL-Abfrageausdrücken zu erkennen, um potenzielle Leistungsengpässe und Verbesserungsmöglichkeiten zu identifizieren.

Dieser Abschnitt gibt einen kurzen Überblick über die Navigation und Verwendung von Query Profile.

Schnittstelle

Beschreibung

Ausführungsplan von Abfragen

Der Ausführungsplan von Abfragen wird in der Mitte von Query Profile angezeigt.

Der Ausführungsplan von Abfragen besteht aus Operatorknoten, die Rowset-Operatoren repräsentieren.

Pfeile zwischen den Operatoren zeigen die Rowsets an, die von einem Operator zu einem anderen weitergegeben werden.

Operatorknoten

Jeder Operatorknoten enthält folgende Informationen:

  • Operatortyp und Operator-ID

  • Die für das Ausführen dieses Operators benötigte Zeit in Prozent der Abfragedauer

  • Vorschau der Operatordetails. Beispielsweise der Name einer Tabelle oder einer Liste von Ausdrücken.

Query Profile-Navigation

Verwenden Sie die Schaltflächen in der linken oberen Ecke von Query Profile für folgende Aktionen:

  • Zwischen Ausführungsschritten wechseln

  • Abfrageausführungsplan in das Fenster einpassen

  • Abfrageausführungsplan vergrößern/verkleinern

Bemerkung

Schritte werden nur angezeigt, wenn die Abfrage in Schritten ausgeführt wurde.

Informationsbereiche

Query Profile bietet verschiedene Informationsbereiche. Die Bereiche werden im Abfrageausführungsplan angezeigt. Welche Bereiche angezeigt werden, hängt vom Fokus des Abfrageausführungsplans ab.

Query Profile enthält die folgenden Informationsbereiche:

  • Profile Overview

  • Statistics

  • Most Expensive Nodes

  • Attributes

Weitere Informationen zu den Informationen, die in den Bereichen bereitgestellt werden, finden Sie unter Referenz zum Query Profile.

Referenz zum Query Profile

In diesem Abschnitt werden alle Elemente beschrieben, die in den einzelnen Informationsbereichen angezeigt werden können. Der genaue Inhalt der Informationsfenster hängt vom Kontext des Abfrageausführungsplans ab.

Profilübersicht

Der Bereich enthält Informationen dazu, welche Verarbeitungsaufgaben Abfragezeit verbraucht haben. Die Ausführungszeit enthält Informationen darüber, wofür die Zeit während der Verarbeitung einer Abfrage verbraucht wurde. Die aufgewendete Zeit kann in folgende Kategorien unterteilt werden:

  • Processing – Zeit, die von der CPU für die Datenverarbeitung verbraucht wurde.

  • Local Disk IO – Zeit, in der die Verarbeitung durch den Zugriff auf die lokale Festplatte blockiert wurde.

  • Remote Disk IO – Zeit, in der die Verarbeitung durch Remote-Festplattenzugriff blockiert wurde.

  • Network Communication – Zeit, in der die Verarbeitung auf die Netzwerkdatenübertragung wartete.

  • Synchronization – Verschiedene Synchronisationsaktivitäten zwischen den beteiligten Prozessen.

  • Initialization – Zeit, die für das Einrichten der Abfrageverarbeitung verbraucht wurde.

Statistiken

Eine wichtige Informationsquelle im Detailbereich sind die verschiedenen Statistiken, die in folgende Abschnitte unterteilt sind:

  • IO – Informationen zu den während der Abfrage ausgeführten Eingabe/Ausgabe-Operationen:

    • Scan progress – Prozentsatz der Daten, die bislang für eine bestimmte Tabelle gescannt wurden.

    • Bytes scanned – Anzahl der bislang gescannten Bytes.

    • Percentage scanned from cache – Prozentsatz der Daten, die vom lokalen Festplattencache gescannt wurden.

    • Bytes written – Geschriebene Bytes (z. B. beim Laden in eine Tabelle).

    • Bytes written to result – Bytes, die in das Ergebnisobjekt geschrieben wurden. So würde beispielsweise select * from . . . eine Menge von Ergebnissen im tabellarischen Format für jedes Feld in der Auswahl liefern. Im Allgemeinen repräsentiert das Ergebnisobjekt das, was als Ergebnis der Abfrage erzeugt wird, und Bytes written to result steht für die Größe des zurückgegebenen Ergebnisses.

    • Bytes read to result – Bytes, die aus dem Ergebnisobjekt gelesen wurden.

    • External Bytes scanned – Bytes, die von einem externen Objekt, z. B. einem Stagingbereich, gelesen wurden.

  • DML – Statistiken zu DML–Abfragen (Datenbearbeitungssprache):

    • Number of rows inserted – Anzahl der in eine Tabelle (oder Tabellen) eingefügten Zeilen.

    • Number of rows updated – Anzahl der in einer Tabelle aktualisierten Zeilen.

    • Number of rows deleted – Anzahl der aus einer Tabelle gelöschten Zeilen.

    • Number of rows unloaded – Anzahl der während des Datenexports entladenen Zeilen.

  • Pruning – Informationen zu den Auswirkungen der Tabellenverkürzung:

    • Partitions scanned – Anzahl der bisher gescannten Partitionen.

    • Partitions total – Gesamtanzahl der Partitionen einer Tabelle.

  • Spilling – Informationen zur Festplattennutzung für Operationen, bei denen Zwischenergebnisse nicht in den Arbeitsspeicher passen:

    • Bytes spilled to local storage – Datenmenge, die auf die lokale Festplatte übertragen wurde.

    • Bytes spilled to remote storage – Datenmenge, die auf die externe Festplatte übertragen wurde.

  • Network – Netzwerk-Kommunikation:

    • Bytes sent over the network – Über das Netzwerk gesendete Datenmenge.

  • External Functions – Informationen zu Aufrufen externer Funktionen:

    Die folgenden Statistiken werden für jede externe Funktion angezeigt, die von der SQL-Anweisung aufgerufen wird. Wenn dieselbe Funktion mehrmals von derselben SQL-Anweisung aufgerufen wurde, werden die Statistiken aggregiert.

    • Total invocations – Häufigkeit, mit der eine externe Funktion aufgerufen wurde. Der Wert kann sich von der Anzahl der externen Funktionsaufrufe im Text der SQL-Anweisung unterscheiden und zwar aufgrund der Anzahl der Batches, in die Zeilen unterteilt sind, der Anzahl der Wiederholungsversuche (bei vorübergehenden Netzwerkproblemen) usw.

    • Rows sent – Anzahl der an externe Funktionen gesendeten Zeilen.

    • Rows received – Anzahl der von externen Funktionen empfangenen Zeilen.

    • Bytes sent (x-region) – Anzahl der an externe Funktionen gesendeten Bytes. Wenn das Etikett „(x-region)“ enthält, wurden die Daten über Regionen hinweg gesendet (was sich auf die Abrechnung auswirken kann).

    • Bytes received (x-region) – Anzahl der von externen Funktionen empfangenen Bytes. Wenn das Etikett „(x-region)“ enthält, wurden die Daten über Regionen hinweg gesendet (was sich auf die Abrechnung auswirken kann).

    • Retries due to transient errors – Anzahl der Wiederholungen aufgrund vorübergehender Fehler.

    • Average latency per call – Durchschnittliche Zeit pro Aufruf zwischen dem Zeitpunkt, zu dem Snowflake die Daten gesendet hat, und dem Zeitpunkt, zu dem Snowflake die zurückgegebenen Daten empfangen hat.

    • HTTP 4xx errors – Gesamtzahl der HTTP-Anforderungen, die einen 4xx-Statuscode zurückgegeben haben.

    • HTTP 5xx errors – Gesamtzahl der HTTP-Anforderungen, die einen 5xx-Statuscode zurückgegeben haben.

    • Latency per successful call (avg) – Durchschnittliche Latenz von erfolgreichen HTTP-Anforderungen.

    • Avg throttle latency overhead – Durchschnittlicher Overhead pro erfolgreicher Anforderung aufgrund einer durch Drosselung verursachten Verlangsamung (HTTP 429).

    • Batches retried due to throttling – Anzahl der Batches, deren Ausführung aufgrund von HTTP-Fehler 429 erneut versucht wurden.

    • Latency per successful call (P50) – 50. Perzentil-Latenz von erfolgreichen HTTP-Anforderungen. 50 Prozent aller erfolgreichen Anforderungen wurden in weniger als dieser Zeit abgeschlossen.

    • Latency per successful call (P90) – 90. Perzentil-Latenz von erfolgreichen HTTP-Anforderungen. 90 Prozent aller erfolgreichen Anforderungen wurden in weniger als dieser Zeit abgeschlossen.

    • Latency per successful call (P95) – 95. Perzentil-Latenz von erfolgreichen HTTP-Anforderungen. 95 Prozent aller erfolgreichen Anforderungen wurden in weniger als dieser Zeit abgeschlossen.

    • Latency per successful call (P99) – 99. Perzentil-Latenz von erfolgreichen HTTP-Anforderungen. 99 Prozent aller erfolgreichen Anforderungen wurden in weniger als dieser Zeit abgeschlossen.

  • Extension Functions – Informationen zu Aufrufen von Erweiterungsfunktionen:

    • Java UDF handler load time – Zeit, die der Java-UDF-Handler zum Laden benötigt.

    • Total Java UDF handler invocations – Anzahl der Aufrufe des Java-UDF-Handlers.

    • Max Java UDF handler execution time – Maximaler Zeitaufwand für die Ausführung des Java-UDF-Handlers.

    • Avg Java UDF handler execution time – Durchschnittlicher Zeitaufwand für die Ausführung des Java-UDF-Handlers.

    • Java UDTF process() invocations – Anzahl der Aufrufe der Java-UDTF-Methode process.

    • Java UDTF process() execution time – Zeitaufwand für die Ausführung des Java-UDTF-Prozesses.

    • Avg Java UDTF process() execution time – Durchschnittlicher Zeitaufwand für die Ausführung des Java-UDTF-Prozesses.

    • Java UDTF’s constructor invocations – Anzahl der Aufrufe des Java-UDTF-Konstruktors.

    • Java UDTF’s constructor execution time – Zeitaufwand für die Ausführung des Java-UDTF-Konstruktors.

    • Avg Java UDTF’s constructor execution time – Durchschnittlicher Zeitaufwand für die Ausführung des Java-UDTF-Konstruktors.

    • Java UDTF endPartition() invocations – Anzahl der Aufrufe der Java-UDTF-Methode endPartition.

    • Java UDTF endPartition() execution time – Zeitaufwand für die Ausführung der Java-UDTF-Methode endPartition.

    • Avg Java UDTF endPartition() execution time – Durchschnittlicher Zeitaufwand für die Ausführung der Java-UDTF-Methode endPartition.

    • Max Java UDF dependency download time – Maximaler Zeitaufwand für das Herunterladen der Java-UDF-Abhängigkeiten.

    • Max JVM memory usage – Spitzenauslastung des Arbeitsspeichers, wie von JVM gemeldet.

    • Java UDF inline code compile time in ms – Kompilierungszeit für den Java-UDF-Inline-Code.

    • Total Python UDF handler invocations – Anzahl der Aufrufe des Python-UDF-Handlers.

    • Total Python UDF handler execution time – Gesamtausführungszeit für den Python-UDF-Handler.

    • Avg Python UDF handler execution time – Durchschnittlicher Zeitaufwand für die Ausführung des Python-UDF-Handlers.

    • Python sandbox max memory usage – Spitzenauslastung des Arbeitsspeichers durch die Python-Sandbox-Umgebung.

    • Avg Python env creation time: Download and install packages – Durchschnittlicher Zeitaufwand für das Erstellen der Python-Umgebung, einschließlich des Herunterladens und Installierens von Paketen.

    • Conda solver time – Zeitaufwand für die Ausführung des Conda-Solvers zur Auflösung von Python-Paketen.

    • Conda env creation time – Zeitaufwand für das Erstellen der Python-Umgebung.

    • Python UDF initialization time – Zeitaufwand für das Initialisieren der Python-UDF.

    • Number of external file bytes read for UDFs – Anzahl der für UDFs gelesenen Bytes für externe Dateien.

    • Number of external files accessed for UDFs – Anzahl der Zugriffe auf externe Dateien für UDFs.

    Wenn der Wert eines Feldes, z. B. „Retries due to transient errors“, null ist, wird das Feld nicht angezeigt.

Die teuersten Knoten

Im Bereich werden alle Knoten aufgelistet, die 1 % oder mehr der gesamten Ausführungszeit der Abfrage (oder die Ausführungszeit für den angezeigten Abfrageschritt, wenn die Abfrage in mehreren Verarbeitungsschritten ausgeführt wurde) in Anspruch genommen haben. Der Bereich listet die Knoten nach Ausführungszeit in absteigender Reihenfolge auf, sodass Benutzer die teuersten Operatorknoten in Bezug auf die Ausführungszeit schnell finden können.

Attribute

In den folgenden Abschnitten finden Sie eine Liste der häufigsten Operatortypen und ihrer Attribute.

Datenzugriffs- und Datengenerierungsoperatoren

TableScan

Stellt den Zugriff auf eine einzelne Tabelle dar. Attribute:

  • Full table name – Name der Tabelle, auf die zugegriffen wird, einschließlich Datenbank und Schema.

  • Columns – Liste der gescannten Spalten

  • Table alias – Verwendeter Tabellenalias, falls vorhanden

  • Extracted Variant path – Liste der aus VARIANT-Spalten extrahierten Pfade

ValuesClause

Liste der Werte, die mit der VALUES-Klausel bereitgestellt werden. Attribute:

  • Number of values – Anzahl der produzierten Werte.

  • Values – Liste der produzierten Werte.

Generator

Generiert Datensätze mit dem TABLE(GENERATOR(...))-Konstrukt. Attribute:

  • rowCount – bereitgestellter rowCount-Parameter

  • timeLimit – bereitgestellter timeLimit-Parameter

ExternalScan

Stellt den Zugriff auf Daten dar, die in Stagingobjekten gespeichert sind. Kann Teil von Abfragen sein, die Daten direkt in Stagingbereichen scannen, aber auch Datenladeoperationen (d. h. COPY-Anweisungen).

Attribute:

  • Stage name – Name des Stagingbereichs, von dem die Daten gelesen werden.

  • Stage type – Typ des Stagingbereichs (z. B. TABLE STAGE).

InternalObject

Stellt den Zugriff auf ein internes Datenobjekt dar (z. B. eine Information Schema-Tabelle oder das Ergebnis einer vorherigen Abfrage). Attribute:

  • Object Name – Name oder Typ des Objekts, auf das zugegriffen wird.

Datenverarbeitungsoperatoren

Filter

Stellt eine Operation dar, mit der Datensätze gefiltert werden. Attribute:

  • Filter condition – Bedingung, die zum Filtern verwendet wird.

Join

Kombiniert zwei Eingaben unter einer bestimmten Bedingung. Attribute:

  • Join Type – Typ der Join-Verknüpfung (z. B. INNER, LEFT OUTER usw.)

  • Equality Join Condition – Listet bei Joins, die auf Gleichheit basierende Bedingungen verwenden, die zum Verbinden der Elemente verwendeten Ausdrücke auf.

  • Additional Join Condition – Einige Verbindungen verwenden Bedingungen mit Prädikaten, die nicht auf Gleichheit basieren. Diese werden hier aufgelistet.

Bemerkung

Join-Prädikate, die auf Ungleichheit basieren, können zu deutlich niedrigeren Verarbeitungsgeschwindigkeiten führen und sollten nach Möglichkeit vermieden werden.

Aggregatfunktionen

Gruppiert die Eingabe und berechnet Aggregatfunktionen. Kann SQL-Konstrukte wie GROUP BY oder SELECT DISTINCT darstellen. Attribute:

  • Grouping Keys – Wenn GROUP BY verwendet wird, werden die Ausdrücke aufgelistet, nach denen gruppiert wird.

  • Aggregate Functions – Liste der Funktionen, die für jede Aggregatgruppe berechnet wurden, z. B. SUM.

GroupingSets

Repräsentiert Konstrukte wie GROUPING SETS, ROLLUP und CUBE. Attribute:

  • Grouping Key Sets – Liste der Gruppierungssätze

  • Aggregate Functions – Liste der Funktionen, die für jede Gruppe berechnet wurden, z. B. SUM.

WindowFunction

Berechnet Fensterfunktionen. Attribute:

  • Window Functions – Liste der berechneten Fensterfunktionen.

Sort

Sortiert die Eingabe anhand eines gegebenen Ausdrucks. Attribute:

  • Sort Keys – Ausdruck, der die Sortierreihenfolge definiert.

SortWithLimit

Erstellt nach der Sortierung einen Teil der Eingabesequenz, normalerweise das Ergebnis eines ORDER BY ... LIMIT ... OFFSET ...-Konstrukts in SQL.

Attribute:

  • Sort Keys – Ausdruck, der die Sortierreihenfolge definiert.

  • Number of rows – Anzahl der erzeugten Zeilen.

  • Offset – Position in der sortierten Sequenz, ab der die produzierten Tupel ausgegeben werden.

Flatten

Verarbeitet VARIANT-Datensätze und vereinfacht sie ggf. in einem angegebenen Pfad. Attribute:

  • Input – Eingabeausdruck, der zum Vereinfachen der Daten verwendet wird.

JoinFilter

Spezielle Filteroperation, bei der Tupel entfernt werden, die als möglicherweise nicht mit der Bedingung eines Joins im Abfrageplan übereinstimmend identifiziert werden können. Attribute:

  • Original join ID – Join, mit dem Tupel identifiziert werden, die herausgefiltert werden können.

UnionAll

Verkettet zwei Eingänge. Attribute: keine.

ExternalFunction

Repräsentiert die Verarbeitung durch eine externe Funktion.

DML-Operatoren

Insert

Fügt Datensätze entweder durch eine INSERT- oder COPY-Operation zu einer Tabelle hinzu. Attribute:

  • Input expression – Ausdrücke, die eingefügt werden.

  • Table names – Namen der Tabellen, denen Datensätze hinzugefügt werden.

Delete

Entfernt Datensätze aus einer Tabelle. Attribute:

  • Table name – Name der Tabelle, aus der Datensätze gelöscht werden.

Update

Aktualisiert Datensätze in einer Tabelle. Attribute:

  • Table name – Name der aktualisierten Tabelle.

Merge

Führt eine MERGE-Operation für eine Tabelle aus. Attribute:

  • Full table name – Name der aktualisierten Tabelle.

Unload

Stellt eine COPY-Operation dar, bei der Daten aus einer Tabelle in einer Datei im Stagingbereich exportiert werden. Attribute:

  • Location – Name des Stagingbereichs, in den die Daten gespeichert werden.

Metadatenoperatoren

Einige Abfragen enthalten Schritte, bei denen es sich nicht um Datenverarbeitungsoperationen, sondern um reine Metadaten- bzw. Katalogoperationen handelt. Diese Schritte bestehen aus einem einzigen Operator. Einige Beispiele sind:

DDL- und Transaktionsbefehle

Werden zum Erstellen oder Ändern von Objekten, Sitzungen, Transaktionen usw. verwendet. Normalerweise werden diese Abfragen nicht von einem virtuellen Warehouse verarbeitet und führen zu einem Einzelschrittprofil, das der zugehörigen SQL-Anweisung entspricht. Beispiel:

CREATE DATABASE | SCHEMA | …

ALTER DATABASE | SCHEMA | TABLE | SESSION | …

DROP DATABASE | SCHEMA | TABLE | …

COMMIT

Befehl zur Tabellenerstellung

DDL-Befehl zum Erstellen einer Tabelle. Beispiel:

CREATE TABLE

Ähnlich wie andere DDL-Befehle führen diese Abfragen zu einem Einzelschrittprofil. Sie können jedoch auch Teil eines mehrstufigen Profils sein, z. B. in einer CTAS-Anweisung. Beispiel:

CREATE TABLE … AS SELECT …

Wiederverwendung des Abfrageergebnisses

Eine Abfrage, die das Ergebnis einer vorherigen Abfrage wiederverwendet.

Metadatenbasiertes Ergebnis

Eine Abfrage, deren Ergebnis nur auf Verarbeitung von Metadaten basiert, ohne auf Daten zuzugreifen. Diese Abfragen werden nicht von einem virtuellen Warehouse verarbeitet. Beispiel:

SELECT COUNT(*) FROM …

SELECT CURRENT_DATABASE()

Verschiedene Operatoren

Result

Gibt das Abfrageergebnis zurück. Attribute:

  • List of expressions – Ausdrücke, die generiert wurden.

Typische, von Query Profile identifizierte Abfrageprobleme

In diesem Abschnitt werden einige Probleme beschrieben, die Sie mithilfe von Query Profile identifizieren und beheben können.

„Explodierende“ Joins

Einer der häufigsten Fehler von SQL-Benutzern besteht darin, Tabellen zu verknüpfen, ohne eine Join-Bedingung anzugeben (was zu einem „Kartesischen Produkt“ führt), oder eine Bedingung bereitzustellen, bei der Datensätze einer Tabelle mit mehreren Datensätzen einer anderen Tabelle übereinstimmen. Für solche Abfragen produziert der Operator Join signifikant (oft um Größenordnungen) mehr Tupel, als er verbraucht.

Dies kann beobachtet werden, indem die Anzahl der Datensätze betrachtet wird, die von einem Join-Operator erzeugt wurden. Dies spiegelt sich normalerweise auch in Join-Operatoren wider, die viel Zeit in Anspruch nehmen.

UNION ohne ALL

In SQL können zwei Datasets mit UNION- oder UNION ALL-Konstrukten kombiniert werden. Der Unterschied zwischen beiden besteht darin, dass mit UNION ALL die Eingaben einfach verkettet werden, während UNION dasselbe tut, aber auch eine doppelte Löschung durchführt.

Ein häufiger Fehler ist die Verwendung von UNION, wenn die UNION ALL-Semantik ausreicht. Diese Abfragen werden in Query Profile als UnionAll-Operator mit einem zusätzlichen Aggregate-Operator darüber angezeigt (der eine doppelte Löschung vornimmt).

Abfragen, die zu groß für den Arbeitsspeicher sind

Bei einigen Operationen (z. B. doppelte Löschung bei einem großen Dataset) reicht die für die Server zur Ausführung der Operation zur Verfügung stehende Speicherkapazität möglicherweise nicht aus, um Zwischenergebnisse zu speichern. Als Ergebnis beginnt das Abfrageverarbeitungsmodul, die Daten auf die lokale Festplatte zu übertragen. Wenn der lokale Speicherplatz nicht ausreicht, werden die Überlaufdaten auf Remote-Festplatten gespeichert.

Dieser Überlauf kann sich erheblich auf die Abfrageleistung auswirken (insbesondere, wenn für den Überlauf ein Remote-Datenträger verwendet wird). Um die Auswirkungen zu reduzieren, empfehlen wir Folgendes:

  • Verwenden eines größeren Warehouse (effektives Erhöhen des verfügbaren Arbeitsspeichers bzw. des lokalen Festplattenspeichers für die Operation) und/oder

  • Verarbeiten der Daten in kleineren Batches.

Ineffizientes Verkürzen (Pruning)

Snowflake sammelt umfangreiche Statistiken zu Daten, sodass basierend auf den Abfragefiltern keine unnötigen Teile einer Tabelle gelesen werden. Um diesen Effekt zu erzielen, muss die Reihenfolge der Datenspeicherung mit den Abfragefilterattributen korreliert werden.

Die Effizienz des Verkürzungsprozesses kann durch Vergleichen der Statistiken Partitions scanned und Partitions total in den TableScan-Operatoren überwacht werden. Wenn ersterer Wert ein kleiner Bruchteil des letzteren Werts ist, dann ist das Verkürzen effizient. Wenn nicht, hatte das Verkürzen keine Wirkung.

Das Verkürzen kann natürlich nur für Abfragen hilfreich sein, bei denen tatsächlich eine erhebliche Datenmenge herausgefiltert wird. Wenn in den Verkürzungsstatistiken keine Datenreduktion angezeigt wird, über TableScan jedoch ein Filter-Operator steht, der eine Anzahl von Datensätzen herausfiltert, könnte dies darauf hindeuten, dass für diese Abfrage eine andere Organisation der Daten von Vorteil ist.

Weitere Informationen zum Verkürzen finden Sie unter Grundlegendes zu Tabellenstrukturen in Snowflake.