Snowpark Migration Accelerator: Extração de código

O Snowpark Migration Accelerator (SMA) processa todos os arquivos em um diretório específico. Embora crie um inventário de cada arquivo, ele analisa especificamente os arquivos com determinadas extensões para identificar as referências do Spark API.

Há várias maneiras de adicionar arquivos a esse diretório.

Coloque todos os seus arquivos de código relevantes em um único diretório antes de prosseguir com a migração.

Para extrair notebooks do seu ambiente existente (como o Databricks), você pode usar um script de extração para ajudar no processo de migração.

Scripts de extração

A Snowflake fornece scripts de extração disponíveis publicamente, que você pode encontrar na página do Snowflake Labs GitHub. Para migrações do Spark, esses scripts oferecem suporte a várias plataformas.

Databricks

Para notebooks Jupyter (.ipynb) ou Databricks (.dbc) que são executados no Databricks, você pode colocá-los diretamente em um diretório para análise no SMA sem nenhuma extração. Para saber como exportar seus arquivos de notebook do Databricks, visite a documentação do Databricks aqui: https://docs.databricks.com/en/notebooks/notebook-export-import.html#export-notebooks.

Para uma abordagem alternativa, você pode seguir as instruções e usar os scripts disponíveis na pasta Databricks do repositório SC.DDLExportScripts: https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main/Databricks

Informações adicionais sobre a extração de dados serão fornecidas em breve.