Snowpark Migration Accelerator: Glossar

The Snowpark Migration Accelerator (SMA) uses some technical terms that might be unfamiliar. Refer to the glossary page to learn more about these terms.

Snowpark Migration Accelerator (SMA)

Diese Software-Dokumentation erklärt, wie Sie in Scala oder Python geschriebenen Spark API-Code automatisch in entsprechenden Snowflake Snowpark-Code konvertieren können. Der Konvertierungsprozess ist sicher und behält die Funktionalität Ihres ursprünglichen Codes bei.

The Snowpark Migration Accelerator (SMA) was previously known as SnowConvert and SnowConvert for Spark. SnowConvert (SC) continues to be available as a tool for SQL conversions.

Bereitschaftsbewertung

Die Bereitschaftsbewertung hilft Ihnen zu verstehen, wie bereit Ihr Code für die Migration zu Snowpark ist. Sie berechnet den Prozentsatz der Spark API-Referenzen, die in Snowpark-API umgewandelt werden können. Wenn z. B. 3413 von 3748 Spark API-Referenzen konvertiert werden können, liegt die Bereitschaftsbewertung bei 91 %.

Es ist jedoch wichtig zu beachten, dass diese Bewertung:

  • Nur Spark API-Referenzen berücksichtigt

  • Keine Bibliotheken von Drittanbietern bewertet

  • Als erste Einschätzung verwendet werden sollte, nicht als letzter Entscheidungsfaktor

Eine höhere Bewertung deutet zwar auf eine bessere Kompatibilität mit Snowpark hin, aber Sie sollten auch andere Faktoren, wie z. B. Abhängigkeiten von Drittanbietern-Bibliotheken, beachten, bevor Sie mit der Migration fortfahren.

Spark-Referenz-Kategorien

Der Snowpark Migration Accelerator (SMA) klassifiziert Spark-Komponenten nach ihrer Zuordnung zu Snowpark-Funktionen. Für jede Spark-Referenz bietet SMA:

  • Eine Kategorisierung, wie sie sich auf Snowpark überträgt

  • Eine detaillierte Beschreibung

  • Beispielcode

  • Informationen über die automatische Konvertierungsfunktion

  • Details zur Snowpark-Unterstützung

You can find the complete reference guide on this page.

SnowConvert-Qualifizierungs-Tool

SnowConvert für den Bewertungsmodus von Spark analysiert Ihre Codebasis, um automatisch alle Instanzen von Apache Spark Python-Code zu erkennen und zu identifizieren.

Dateiinventar

Eine vollständige Liste aller im Verzeichnis des Tools gefundenen Dateien, unabhängig vom Dateityp. Das Inventar bietet eine detaillierte Aufschlüsselung nach Dateityp, einschließlich:

  • Der ursprünglichen Technologie oder Plattform

  • Anzahl der Codezeilen

  • Anzahl der Kommentarzeilen

  • Dateigrößen der Quelldateien

Anzahl der Schlüsselworter

Eine nach Technologietyp geordnete Zusammenfassung des Vorkommens von Schlüsselwörtern. Wenn Sie zum Beispiel eine .py-Datei analysieren, die PySpark-Code enthält, verfolgt und zählt das System jedes PySpark-Schlüsselwort. Der Bericht zeigt die Gesamtzahl der gefundenen Schlüsselwörter für jede Dateierweiterung an.

Spark-Referenzinventar

Nach der Analyse Ihres Codes erhalten Sie eine umfassende Liste aller Spark API-Referenzen, die in Ihrem Python-Code gefunden wurden.

Bereitschaftsbewertung

Anhand der Spark-Code-Referenzen können Sie feststellen, wie viel von Ihrer Codebasis automatisch konvertiert werden kann.

Konvertierungsbewertung

Die Konvertierungsbewertung wird berechnet, indem die Anzahl der automatisch konvertierten Spark-Operationen durch die Gesamtzahl der im Code erkannten Spark-Referenzen geteilt wird.

Konvertierungs-/Transformations-Regel

Regeln, die festlegen, wie SnowConvert den Quellcode in das gewünschte Zielcodeformat transformiert.

Parsen

Die Parsing-Phase ist der erste Schritt, in dem SnowConvert den Quellcode analysiert und eine interne Datenstruktur erstellt. Diese Struktur wird dann zur Anwendung von Konvertierungsregeln während des Migrationsprozesses verwendet.