Snowpark Migration Accelerator : Extraction de code¶
L’outil Snowpark Migration Accelerator (SMA) traite tous les fichiers d’un répertoire spécifié. Bien qu’il crée un inventaire de chaque fichier, il analyse spécifiquement les fichiers ayant certaines extensions afin d’identifier les références Spark API.
Il existe plusieurs façons d’ajouter des fichiers à ce répertoire.
Placez tous vos fichiers de code pertinents dans un répertoire unique avant de procéder à la migration.
Pour extraire les notebooks de votre environnement existant (tel que Databricks), vous pouvez utiliser un script d’extraction pour faciliter le processus de migration.
Scripts d’extraction¶
Snowflake provides publicly available extraction scripts that you can find on the Snowflake Labs GitHub page. For Spark migrations, these scripts support various platforms.
Databricks¶
For Jupyter (.ipynb) or Databricks (.dbc) notebooks that run in Databricks, you can directly place them in a directory for SMA analysis without any extraction. To learn how to export your Databricks notebook files, visit the Databricks documentation here: https://docs.databricks.com/en/notebooks/notebook-export-import.html#export-notebooks.
For an alternative approach, you can follow the instructions and use the scripts available in the Databricks folder of the SC.DDLExportScripts repository: https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main/Databricks
Des informations supplémentaires sur l’extraction des données seront fournies prochainement.