Snowpark Migration Accelerator: Code-Extraktion¶
Der Snowpark Migration Accelerator (SMA) verarbeitet alle Dateien innerhalb eines bestimmten Verzeichnisses. Es erstellt zwar eine Bestandsaufnahme jeder Datei, analysiert aber speziell Dateien mit bestimmten Erweiterungen, um Spark API-Referenzen zu identifizieren.
Es gibt mehrere Möglichkeiten, Dateien zu diesem Verzeichnis hinzuzufügen.
Legen Sie alle relevanten Codedateien in ein einziges Verzeichnis, bevor Sie mit der Migration fortfahren.
Zum Extrahieren von Notebooks aus Ihrer bestehenden Umgebung (z. B. Databricks) können Sie ein Extraktionsskript verwenden, das Sie bei der Migration unterstützt.
Extraktions-Skripte¶
Snowflake bietet öffentlich verfügbare Extraktionsskripte, die Sie auf der Snowflake Labs GitHub-Seite finden. Für Spark-Migrationen unterstützen diese Skripte verschiedene Plattformen.
Databricks¶
Jupyter (.ipynb) oder Databricks-Notebooks (.dbc), die in Databricks ausgeführt werden, können Sie ohne Extraktion direkt in einem Verzeichnis für die SMA-Analyse ablegen. Um zu erfahren, wie Sie Ihre Databricks-Notebook-Dateien exportieren können, besuchen Sie die Databricks-Dokumentation hier: https://docs.databricks.com/en/notebooks/notebook-export-import.html#export-notebooks.
Als Alternative können Sie die Anweisungen befolgen und die Skripte verwenden, die im Ordner Databricks des Repositorys SC.DDLExportScripts verfügbar sind: https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main/Databricks
Weitere Informationen zur Datenextraktion werden in Kürze zur Verfügung gestellt.