Snowpark Migration Accelerator : Code intégré SQL¶
Note
Currently, SMA only supports the *pyspark.sql* function.
SMA peut transformer le code SQL intégré dans des fichiers Python ou Scala. Il traite le code SQL intégré dans les extensions de fichiers suivantes :
Fichiers de code source Python (avec l’extension .py)
Fichiers de code source Scala (avec l’extension .scala)
Fichiers Jupyter Notebooks (avec l’extension .ipynb)
Fichiers source Databricks (avec les extensions .python ou .scala)
Fichiers d’archive de notebooks Databricks (avec l’extension .dbc)
Exemples de transformation de code SQL intégré¶
Cas pris en charge¶
Using the *spark.sql* function in Python to execute SQL queries:
Cas non pris en charge¶
When SMA encounters code that it cannot convert, it generates an Error, Warning, and Issue (EWI) message in the output code. For more details about these messages, see EWI.
Les scénarios suivants ne sont pas pris en charge actuellement :
Lorsque vous travaillez avec du code SQL, vous pouvez intégrer des variables de chaîne de la manière suivante :
Combinaison de chaînes pour construire le code SQL à l’aide d’une simple concaténation :
Utilisation de l’interpolation de chaînes pour générer dynamiquement des instructions SQL :
Utilisation de fonctions qui génèrent dynamiquement des requêtes SQL :
Cas non pris en charge et messages EWI¶
Lors de l’analyse du code Scala, le code d’erreur SPRKSCL1173 indique des instructions SQL intégrées non prises en charge.
Lorsque le code Python contient des instructions SQL intégrées non prises en charge, le code d’erreur SPRKPY1077 s’affiche.