Snowpark Migration Accelerator: Code-Extraktion

Der Snowpark Migration Accelerator (SMA) verarbeitet alle Dateien innerhalb eines bestimmten Verzeichnisses. Es erstellt zwar eine Bestandsaufnahme jeder Datei, analysiert aber speziell Dateien mit bestimmten Erweiterungen, um Spark API-Referenzen zu identifizieren.

Es gibt mehrere Möglichkeiten, Dateien zu diesem Verzeichnis hinzuzufügen.

Legen Sie alle relevanten Codedateien in ein einziges Verzeichnis, bevor Sie mit der Migration fortfahren.

Zum Extrahieren von Notebooks aus Ihrer bestehenden Umgebung (z. B. Databricks) können Sie ein Extraktionsskript verwenden, das Sie bei der Migration unterstützt.

Extraktions-Skripte

Snowflake provides publicly available extraction scripts that you can find on the Snowflake Labs GitHub page. For Spark migrations, these scripts support various platforms.

Databricks

For Jupyter (.ipynb) or Databricks (.dbc) notebooks that run in Databricks, you can directly place them in a directory for SMA analysis without any extraction. To learn how to export your Databricks notebook files, visit the Databricks documentation here: https://docs.databricks.com/en/notebooks/notebook-export-import.html#export-notebooks.

For an alternative approach, you can follow the instructions and use the scripts available in the Databricks folder of the SC.DDLExportScripts repository: https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main/Databricks

Weitere Informationen zur Datenextraktion werden in Kürze zur Verfügung gestellt.