Snowpark Migration Accelerator: Extração de código¶
O Snowpark Migration Accelerator (SMA) processa todos os arquivos em um diretório específico. Embora crie um inventário de cada arquivo, ele analisa especificamente os arquivos com determinadas extensões para identificar as referências do Spark API.
Há várias maneiras de adicionar arquivos a esse diretório.
Coloque todos os seus arquivos de código relevantes em um único diretório antes de prosseguir com a migração.
Para extrair notebooks do seu ambiente existente (como o Databricks), você pode usar um script de extração para ajudar no processo de migração.
Scripts de extração¶
Snowflake provides publicly available extraction scripts that you can find on the Snowflake Labs GitHub page. For Spark migrations, these scripts support various platforms.
Databricks¶
For Jupyter (.ipynb) or Databricks (.dbc) notebooks that run in Databricks, you can directly place them in a directory for SMA analysis without any extraction. To learn how to export your Databricks notebook files, visit the Databricks documentation here: https://docs.databricks.com/en/notebooks/notebook-export-import.html#export-notebooks.
For an alternative approach, you can follow the instructions and use the scripts available in the Databricks folder of the SC.DDLExportScripts repository: https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main/Databricks
Informações adicionais sobre a extração de dados serão fornecidas em breve.