Connecteur Snowflake pour Spark

Le connecteur Snowflake pour Spark (« connecteur Spark ») intègre Snowflake dans l’écosystème Spark, permettant à Apache Spark de lire et d’écrire des données sur Snowflake. Du point de vue de Spark, Snowflake ressemble aux autres sources de données Spark (PostgreSQL, HDFS, S3, etc.).

Note

Comme alternative à l’utilisation de Spark, envisagez d’écrire votre code pour utiliser API Snowpark à la place. Snowpark vous permet d’effectuer tout votre travail dans Snowflake (plutôt que dans un cluster de calcul Spark séparé). Snowpark prend également en charge le pushdown de toutes les opérations, y compris les UDFs Snowflake.

Snowflake prend en charge trois versions de Spark : Spark 3.2, Spark 3.3 et Spark 3.4. Il existe une version distincte du connecteur Snowflake pour Spark pour chaque version de Spark. Utilisez la bonne version du connecteur pour votre version de Spark.

Le connecteur fonctionne en tant que plug-in Spark et est fourni sous forme de pack Spark (spark-snowflake).

Chapitres suivants :