Snowpark Migration Accelerator : Extraction de code

L’outil Snowpark Migration Accelerator (SMA) traite tous les fichiers d’un répertoire spécifié. Bien qu’il crée un inventaire de chaque fichier, il analyse spécifiquement les fichiers ayant certaines extensions afin d’identifier les références Spark API.

Il existe plusieurs façons d’ajouter des fichiers à ce répertoire.

Placez tous vos fichiers de code pertinents dans un répertoire unique avant de procéder à la migration.

Pour extraire les notebooks de votre environnement existant (tel que Databricks), vous pouvez utiliser un script d’extraction pour faciliter le processus de migration.

Scripts d’extraction

Snowflake fournit des scripts d’extraction accessibles au public, que vous trouverez sur la page Snowflake Labs GitHub. Pour les migrations Spark, ces scripts prennent en charge différentes plateformes.

Databricks

Pour les notebooks Jupyter (.ipynb) ou Databricks (.dbc) qui s’exécutent dans Databricks, vous pouvez directement les placer dans un répertoire pour l’analyse SMA sans aucune extraction. Pour savoir comment exporter vos fichiers notebook Databricks, consultez la documentation Databricks ici : https://docs.databricks.com/en/notebooks/notebook-export-import.html#export-notebooks.

Pour une autre approche, vous pouvez suivre les instructions et utiliser les scripts disponibles dans le dossier Databricks du référentiel SC.DDLExportScripts : https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main/Databricks

Des informations supplémentaires sur l’extraction des données seront fournies prochainement.