Snowpark Migration Accelerator : Glossaire¶
L’outil Snowpark Migration Accelerator (SMA) utilise des termes techniques qui ne vous sont peut-être pas familiers. Veuillez vous référer à notre page de glossaire pour en savoir plus sur ces termes.
Snowpark Migration Accelerator (SMA)¶
Cette documentation logicielle explique comment convertir automatiquement le code Spark API écrit en Scala ou en Python en code Snowflake Snowpark équivalent. Le processus de conversion est sécurisé et maintient la fonctionnalité de votre code d’origine.
L’outil Snowpark Migration Accelerator (SMA) était auparavant connu sous les noms de SnowConvert et SnowConvert pour Spark. Veuillez noter que SnowConvert (SC) reste disponible en tant qu’outil pour les conversions SQL.
Score de préparation¶
Le score de préparation vous aide à comprendre dans quelle mesure votre code est prêt pour la migration vers Snowpark. Il calcule le pourcentage de références Spark API qui peuvent être converties en Snowpark API. Par exemple, si 3 413 des 3 748 références Spark API peuvent être converties, le score de préparation sera de 91 %.
Cependant, il est important de noter que ce score :
Ne prend en compte que les références Spark API
N’évalue pas les bibliothèques tierces
Il doit être utilisé comme une évaluation initiale et non comme un facteur de décision finale
Bien qu’un score plus élevé indique une meilleure compatibilité avec Snowpark, vous devez également évaluer d’autres facteurs, tels que les dépendances de bibliothèques tierces, avant de procéder à la migration.
Catégories de référence Spark¶
L’outil Snowpark Migration Accelerator (SMA) classe les composants Spark en fonction de leur correspondance avec les fonctionnalités de Snowpark. Pour chaque référence Spark, SMA fournit :
Une catégorisation de la façon dont la conversion se fait en Snowpark
Une description détaillée
Exemple de code
Des informations sur la capacité de conversion automatique
Des détails sur la prise en charge Snowpark
Vous trouverez le guide de référence complet sur cette page.
Outil de qualification SnowConvert¶
Le mode d’évaluation SnowConvert pour Spark analyse votre base de code pour détecter et identifier automatiquement toutes les instances de code Apache Spark Python.
Inventaire des fichiers¶
Une liste complète de tous les fichiers trouvés dans le répertoire d’entrée de l’outil, quel que soit leur type. L’inventaire fournit une répartition détaillée organisée par type de fichier, notamment :
La technologie ou la plateforme d’origine
Le nombre de lignes de code
Le nombre de lignes de commentaires
La taille des fichiers sources
Nombre de mots-clé¶
Un résumé des occurrences des mots-clés organisé par type de technologie. Par exemple, lors de l’analyse d’un fichier .py contenant du code PySpark, le système suit et compte chaque mot-clé PySpark. Le rapport indique le nombre total de mots-clés trouvés pour chaque extension de fichier.
Inventaire de référence Spark¶
Après avoir analysé votre code, vous recevrez une liste complète de toutes les références Spark API trouvées dans votre code Python.
Score de préparation¶
Les références du code Spark vous aideront à déterminer la part de votre base de code qui peut être convertie automatiquement.
Score de conversion¶
Le score de conversion est calculé en divisant le nombre d’opérations Spark converties automatiquement par le nombre total de références Spark détectées dans le code.
Règle de conversion/transformation¶
Règles qui définissent la manière dont SnowConvert transforme le code source dans le format de code cible souhaité.
Analyser¶
La phase d’analyse est la première étape au cours de laquelle SnowConvert analyse le code source et crée une structure de données interne. Cette structure est ensuite utilisée pour appliquer des règles de conversion au cours du processus de migration.