Snowpark Migration Accelerator : Glossaire

L’outil Snowpark Migration Accelerator (SMA) utilise des termes techniques qui ne vous sont peut-être pas familiers. Veuillez vous référer à notre page de glossaire pour en savoir plus sur ces termes.

Snowpark Migration Accelerator (SMA)

Cette documentation logicielle explique comment convertir automatiquement le code Spark API écrit en Scala ou en Python en code Snowflake Snowpark équivalent. Le processus de conversion est sécurisé et maintient la fonctionnalité de votre code d’origine.

L’outil Snowpark Migration Accelerator (SMA) était auparavant connu sous les noms de SnowConvert et SnowConvert pour Spark. Veuillez noter que SnowConvert (SC) reste disponible en tant qu’outil pour les conversions SQL.

Score de préparation

Le score de préparation vous aide à comprendre dans quelle mesure votre code est prêt pour la migration vers Snowpark. Il calcule le pourcentage de références Spark API qui peuvent être converties en Snowpark API. Par exemple, si 3 413 des 3 748 références Spark API peuvent être converties, le score de préparation sera de 91 %.

Cependant, il est important de noter que ce score :

  • Ne prend en compte que les références Spark API

  • N’évalue pas les bibliothèques tierces

  • Il doit être utilisé comme une évaluation initiale et non comme un facteur de décision finale

Bien qu’un score plus élevé indique une meilleure compatibilité avec Snowpark, vous devez également évaluer d’autres facteurs, tels que les dépendances de bibliothèques tierces, avant de procéder à la migration.

Catégories de référence Spark

L’outil Snowpark Migration Accelerator (SMA) classe les composants Spark en fonction de leur correspondance avec les fonctionnalités de Snowpark. Pour chaque référence Spark, SMA fournit :

  • Une catégorisation de la façon dont la conversion se fait en Snowpark

  • Une description détaillée

  • Exemple de code

  • Des informations sur la capacité de conversion automatique

  • Des détails sur la prise en charge Snowpark

Vous trouverez le guide de référence complet sur cette page.

Outil de qualification SnowConvert

Le mode d’évaluation SnowConvert pour Spark analyse votre base de code pour détecter et identifier automatiquement toutes les instances de code Apache Spark Python.

Inventaire des fichiers

Une liste complète de tous les fichiers trouvés dans le répertoire d’entrée de l’outil, quel que soit leur type. L’inventaire fournit une répartition détaillée organisée par type de fichier, notamment :

  • La technologie ou la plateforme d’origine

  • Le nombre de lignes de code

  • Le nombre de lignes de commentaires

  • La taille des fichiers sources

Nombre de mots-clé

Un résumé des occurrences des mots-clés organisé par type de technologie. Par exemple, lors de l’analyse d’un fichier .py contenant du code PySpark, le système suit et compte chaque mot-clé PySpark. Le rapport indique le nombre total de mots-clés trouvés pour chaque extension de fichier.

Inventaire de référence Spark

Après avoir analysé votre code, vous recevrez une liste complète de toutes les références Spark API trouvées dans votre code Python.

Score de préparation

Les références du code Spark vous aideront à déterminer la part de votre base de code qui peut être convertie automatiquement.

Score de conversion

Le score de conversion est calculé en divisant le nombre d’opérations Spark converties automatiquement par le nombre total de références Spark détectées dans le code.

Règle de conversion/transformation

Règles qui définissent la manière dont SnowConvert transforme le code source dans le format de code cible souhaité.

Analyser

La phase d’analyse est la première étape au cours de laquelle SnowConvert analyse le code source et crée une structure de données interne. Cette structure est ensuite utilisée pour appliquer des règles de conversion au cours du processus de migration.