Snowpark Migration Accelerator: Code-Extraktion

Der Snowpark Migration Accelerator (SMA) verarbeitet alle Dateien innerhalb eines bestimmten Verzeichnisses. Es erstellt zwar eine Bestandsaufnahme jeder Datei, analysiert aber speziell Dateien mit bestimmten Erweiterungen, um Spark API-Referenzen zu identifizieren.

Es gibt mehrere Möglichkeiten, Dateien zu diesem Verzeichnis hinzuzufügen.

Legen Sie alle relevanten Codedateien in ein einziges Verzeichnis, bevor Sie mit der Migration fortfahren.

Zum Extrahieren von Notebooks aus Ihrer bestehenden Umgebung (z. B. Databricks) können Sie ein Extraktionsskript verwenden, das Sie bei der Migration unterstützt.

Extraktions-Skripte

Snowflake bietet öffentlich verfügbare Extraktionsskripte, die Sie auf der Snowflake Labs GitHub-Seite finden. Für Spark-Migrationen unterstützen diese Skripte verschiedene Plattformen.

Databricks

Jupyter (.ipynb) oder Databricks-Notebooks (.dbc), die in Databricks ausgeführt werden, können Sie ohne Extraktion direkt in einem Verzeichnis für die SMA-Analyse ablegen. Um zu erfahren, wie Sie Ihre Databricks-Notebook-Dateien exportieren können, besuchen Sie die Databricks-Dokumentation hier: https://docs.databricks.com/en/notebooks/notebook-export-import.html#export-notebooks.

Als Alternative können Sie die Anweisungen befolgen und die Skripte verwenden, die im Ordner Databricks des Repositorys SC.DDLExportScripts verfügbar sind: https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main/Databricks

Weitere Informationen zur Datenextraktion werden in Kürze zur Verfügung gestellt.