Snowpark Migration Accelerator: Glossar¶
Der Snowpark Migration Accelerator (SMA) verwendet einige technische Begriffe, die Ihnen vielleicht nicht geläufig sind. Mehr über diese Begriffe erfahren Sie auf unserer Glossarseite.
Snowpark Migration Accelerator (SMA)¶
Diese Software-Dokumentation erklärt, wie Sie in Scala oder Python geschriebenen Spark API-Code automatisch in entsprechenden Snowflake Snowpark-Code konvertieren können. Der Konvertierungsprozess ist sicher und behält die Funktionalität Ihres ursprünglichen Codes bei.
Der Snowpark Migration Accelerator (SMA) war zuvor als SnowConvert und SnowConvert für Spark bekannt. Bitte beachten Sie, dass SnowConvert (SC) weiterhin als Tool für SQL-Konvertierungen zur Verfügung steht.
Bereitschaftsbewertung¶
Die Bereitschaftsbewertung hilft Ihnen zu verstehen, wie bereit Ihr Code für die Migration zu Snowpark ist. Sie berechnet den Prozentsatz der Spark API-Referenzen, die in Snowpark-API umgewandelt werden können. Wenn z. B. 3413 von 3748 Spark API-Referenzen konvertiert werden können, liegt die Bereitschaftsbewertung bei 91 %.
Es ist jedoch wichtig zu beachten, dass diese Bewertung:
Nur Spark API-Referenzen berücksichtigt
Keine Bibliotheken von Drittanbietern bewertet
Als erste Einschätzung verwendet werden sollte, nicht als letzter Entscheidungsfaktor
Eine höhere Bewertung deutet zwar auf eine bessere Kompatibilität mit Snowpark hin, aber Sie sollten auch andere Faktoren, wie z. B. Abhängigkeiten von Drittanbietern-Bibliotheken, beachten, bevor Sie mit der Migration fortfahren.
Spark-Referenz-Kategorien¶
Der Snowpark Migration Accelerator (SMA) klassifiziert Spark-Komponenten nach ihrer Zuordnung zu Snowpark-Funktionen. Für jede Spark-Referenz bietet SMA:
Eine Kategorisierung, wie sie sich auf Snowpark überträgt
Eine detaillierte Beschreibung
Beispielcode
Informationen über die automatische Konvertierungsfunktion
Details zur Snowpark-Unterstützung
Das vollständige Referenzhandbuch finden Sie auf dieser Seite.
SnowConvert-Qualifizierungs-Tool¶
SnowConvert für den Bewertungsmodus von Spark analysiert Ihre Codebasis, um automatisch alle Instanzen von Apache Spark Python-Code zu erkennen und zu identifizieren.
Dateiinventar¶
Eine vollständige Liste aller im Verzeichnis des Tools gefundenen Dateien, unabhängig vom Dateityp. Das Inventar bietet eine detaillierte Aufschlüsselung nach Dateityp, einschließlich:
Der ursprünglichen Technologie oder Plattform
Anzahl der Codezeilen
Anzahl der Kommentarzeilen
Dateigrößen der Quelldateien
Anzahl der Schlüsselworter¶
Eine nach Technologietyp geordnete Zusammenfassung des Vorkommens von Schlüsselwörtern. Wenn Sie zum Beispiel eine .py-Datei analysieren, die PySpark-Code enthält, verfolgt und zählt das System jedes PySpark-Schlüsselwort. Der Bericht zeigt die Gesamtzahl der gefundenen Schlüsselwörter für jede Dateierweiterung an.
Spark-Referenzinventar¶
Nach der Analyse Ihres Codes erhalten Sie eine umfassende Liste aller Spark API-Referenzen, die in Ihrem Python-Code gefunden wurden.
Bereitschaftsbewertung¶
Anhand der Spark-Code-Referenzen können Sie feststellen, wie viel von Ihrer Codebasis automatisch konvertiert werden kann.
Konvertierungsbewertung¶
Die Konvertierungsbewertung wird berechnet, indem die Anzahl der automatisch konvertierten Spark-Operationen durch die Gesamtzahl der im Code erkannten Spark-Referenzen geteilt wird.
Konvertierungs-/Transformations-Regel¶
Regeln, die festlegen, wie SnowConvert den Quellcode in das gewünschte Zielcodeformat transformiert.
Parsen¶
Die Parsing-Phase ist der erste Schritt, in dem SnowConvert den Quellcode analysiert und eine interne Datenstruktur erstellt. Diese Struktur wird dann zur Anwendung von Konvertierungsregeln während des Migrationsprozesses verwendet.