Notes de version de Snowpark Connect for Spark pour 2026¶
Snowflake utilise la version sémantique pour les mises à jour Snowpark Connect for Spark.
Pour la documentation, voir Exécuter les charges de travail Apache Spark™ sur Snowflake avec Snowpark Connect for Spark et Soumission d’applications Spark.
1.17.0 (13 mars 2026)¶
Snowpark Connect for Spark¶
Corrections de bogues¶
Inférence de compression JSON etCSV.
Correction pour
coalescequi générait un seul fichier.Réorganisation de la lecture JSON pour utiliser
COPY INTOlors de la lecture d’un seul fichier et ajouter l’inférence de schémaVariantType.Autoriser le chargement JSON sans schéma explicite.
Correction de
multi_linedans JSON.Correction du schéma d’inférence JSON pour éviter d’analyser des fichiers entiers.
Gérer correctement la conversion vers l’horodatage
ltz.Limitation de la valeur de hachage renvoyée.
Correction de
repartitionavecpartitionBy.Correction pour utiliser l’en-tête de section
[connections.spark-connect]dansconfig.toml.Conversion des jetons Java au format
date/timestampen équivalents Snowflake pour les lectures de fichiers CSV.Calcul du schéma des fonctions
pivot.Correction des UDTFs dans les jointures latérales avec aliasing.
Alignement du résultat de la commande SQL
SET.Correction du type de retour pour les fonctions
CEILetFLOOR.Amélioration de la génération de requêtes dans
unbase64v2.Correction de certaines des options du mappage Snowflake pour CSV.
Correction de la sérialisation pour
POJO.Amélioration des messages d’erreur d’en-tête CSV.
Amélioration de la logique de détection
mapTypeavec:code:try_castpour les lectures de fichiers Parquet.
Nouvelles fonctionnalités¶
Prise en charge de
reduceGroupsAPI.Prise en charge de la spécification du nom de connexion dans
init_spark_session.Ajout d’un paramètre de configuration pour utiliser UDF pour
unbase64.
1.16.0 (12 mars 2026)¶
Snowpark Connect for Spark¶
Corrections de bogues¶
Optimisation de la génération SQL dans la fonction
unbase64.Correction de la régression
from_jsonCorrection concernant les enregistrements qui s’étendent sur plusieurs limites de blocs de compression BZ2
Correction du mappage de nullabilité dans un attribut non résolu
Initialisation d’une session
spark-connectavec une connexion quelconque, et non uniquement avec une connexion nomméespark-connectAjout de la validation d’options XML
Suppression de l’option CSV ESCAPE lorsqu’elle correspond au caractère guillemet pour éviter les erreurs de compilation
Correction de la conversion incorrecte des tuples nommés dans
productEncoderVérifier que
mergeSchemapour CSV et JSON n’est pas pris en chargeCorrection de l’aller-retour de type complexe Parquet (écriture + lecture)
Correction du schéma pour
pivot/unpivotCorrection du type de retour pour les fonctions
MODetPMODCorrection de l’extraction d’en-têtes CSV pour les fichiers dont les lignes d’en-tête sont vides
Vérifier correctement les fuseaux horaires et remplacer la sérialisation des dates et heures sous forme de chaînes de caractères par une sérialisation basée sur l’époque
Mise à jour de la vérification de la version Java pour Windows
Aplatir les appels
withColumnimbriquésModifier la logique pour
Literal _IntegralTypedans les opérations d’addition et de soustractionRetour de
LongTypepour les fonctionsCOUNTLecture JSON : test de compression = bz2/bzip2/aucun
Amélioration des performances de
to_varchar/to_charAméliorer la comparaison lors des tests d’E/S
Définir
multi_linesurFalsepar défaut pour la copie JSON
Snowpark Submit¶
Corrections de bogues¶
Lancer une erreur sur un pool de calcul non spécifié.
1.15.0 (6 Mars 2026)¶
Snowpark Connect for Spark¶
Corrections de bogues¶
Suppression de l’analyse des résultats lors de l’appel de
df.count()S’assurer que le schéma d’inférence s’exécute sur des lignes limitées lors de la lecture JSON
Correction de
createDataFramepour les types d’intervalleModification de la logique de
Literal _IntegralTypedans les opérations de multiplication et de divisionÉlargir et imposer le type pour les opérations
SetCorrection de la prise en charge des étiquettes multiples
neo4jModification des métadonnées JAR afin que Grype ne détecte pas la vulnérabilité de Netty
Renvoi du type correct pour la fonction
ANY_VALUERenvoi du type élargi pour la séquence
Ajout de la prise en charge de la configuration
spark.sql.parquet.inferTimestampNTZ.enabledRenommage/conversion de colonnes par lots en
_validate_schema_and_get_writerBlocage de JDBC lors de requêtes partitionnées avec une taille de récupération spécifiée
Renvoi d’un message d’exception tronqué lorsqu’il dépasse les limites de l’en-tête HTTP
Correction de
map_type_to_snowflake_typepourBigDecimalCorrection de la précision décimale littérale et de l’échelle
Amélioration de la génération aléatoire de chaînes
Faire en sorte que le chargement des fichiers JSON compressés au format BZ2 ignore les enregistrements corrompus
Nouvelles fonctionnalités¶
Utiliser des fichiers en zone de préparation issus de la configuration des UDFs Scala
Utiliser
TRY_CASTpermissif lors de la lecture JSONRendre le nombre de threads du serveur configurable
Snowpark Submit¶
Corrections de bogues¶
Réintégrer
init_spark_session()dans les testsMettre à jour la sortie de ligne de commande
snowpark-submitpour clarifiersnowflake-connection-nameest nécessaire.
1.14.0 (19 février 2026)¶
Snowpark Connect for Spark¶
Corrections de bogues¶
Mise en cache du type de table lors de l’exécution de
saveAsTableOptimisation de l’entrée littérale pour la sous-chaîne et le casting de type pour
coalesceGestion du débordement décimal dans
avg/meanet correction de la coercition du type décimalIceberg - Préservation des autorisations en cas de réécriture
Normalisation du mode SQL intermédiaire
Optimisation de
from_utc_timestamp/to_utc_timestamppour le fuseau horaire littéralGestion des valeurs JSON nulles dans les types structurés pour correspondre à la sémantique Spark
Émulation des types intégraux lors de la création de tables à partir de SQL
Correction d’un cas périphérique lors du mappage de lignes imbriquées dans les UDFs Scala
Correction de la façon dont Parquet gère la lecture et l’écriture de types de données structurés complexes
Prise en charge de l’enregistrement de l’argument ignoré pour les fichiers Parquet
Ajout de la prise en charge du dépôt d’artefacts
Correction de la nullabilité des tableaux dans les UDxF Scala
Correction de
log1ppour les arguments de la plage (-1, 0)Correction de
first_valueetlast_valuedans le contexte agrégéCorrection de la lecture de
DayTimeIntervalTypepour le client Scala
Nouvelles fonctionnalités¶
Gestion correcte des fuseaux horaires dans les UDFs Scala
Prise en charge de Java 11 et 17 sans aucune configuration
Mises à jour de Snowpark Submit¶
Nouvelles fonctionnalités¶
Prise en charge de
snowpark-submitpour Python 3.9Amélioration de
init_spark_sessionpour le rendre utilisable dans le flux de travailsnowpark-submit
1.13.0 (13 février 2026)¶
Snowpark Connect for Spark¶
Corrections de bogues¶
Correction d’un problème lié à la fonction
splitMise à niveau de la dépendance snowflake-snowpark-python vers la version 1.44
Correction de la correspondance des dialectes
Neo4jpour améliorer la traduction SQLCorrection de l’ID d’opération renvoyé dans les réponses d’exécution à des fins de cohérence
Correction du traitement des métadonnées
gRPCpour les connexions de canaux TCP
Nouvelles fonctionnalités¶
Ajout de la prise en charge de
partition_hintdans les opérationsmapPartitionsAjout de la prise en charge du lecteur XML pour les scénarios avec des schémas définis par l’utilisateur
1.11.0 (28 janvier 2026)¶
Snowpark Connect for Spark¶
Corrections de bogues¶
Préservation des colonnes masquées après divers opérateurs DataFrame
Correction de problèmes pour les types d’entrée udf scala (
byte,binary,scala.math.BigDecimal)
Autres mises à jour¶
Ajout des arguments définis par l’utilisateur
snowpark-submità des fins de commentaire
1.10.0 (22 janvier 2026)¶
Snowpark Connect for Spark¶
Corrections de bogues¶
Correction d’une erreur non définie pour la configuration de session.
Utilisation de la copie pour charger des fichiers CSV en parallèle.
Correction des écritures pour les DataFrames en utilisant des jointures externes.
Gestion des valeurs nulles dans les UDFs Scala.
Optimisation de la génération de requêtes CTE avec la protection des paramètres.
Conversion bloquée des arguments de
DATEDIFF.Correction de l’ajout de fichiers partitionnés et la lecture de partitions nulles.
Amélioration des performances par 10 pour la conversion entre les bases 10 et 16 à l’aide de SQL.
Nouvelles fonctionnalités¶
Remplacement uniquement des partitions modifiées pour les fichiers Parquet.
Autres mises à jour¶
Logique mise à jour pour détecter si Snowpark Connect for Spark est exécuté sur XP.
Prise en charge de l’écriture dans une table avec un type de données VARIANT dans Snowflake.
Suppression des journaux d’informations inutiles.
Déplacement des tests Java de la tâche de tests Scala vers une tâche distincte.
Mise à jour de la version de la dépendance pour gcsfs.
Snowpark Submit¶
Aucun.
1.9.0 (14 janvier 2026)¶
Snowpark Connect for Spark¶
Corrections de bogues¶
Correction de la sérialisation des tuples Scala.
Correction du chargement de JSON fichiers volumineux.
Implémentation de petits correctifs pour les problèmes des clients.
Implémentation des corrections pour les comparaisons de structures.
Ajout du traitement des DataFrames pour la colonne 0.
Correction du chemin de chargement des fichiers.
Correction de
Upload_files_if_neededne s’exécutant pas en parallèle.Amélioration de l’inférence de type d’entrée lorsque les types d’entrée UDF ne sont pas définis dans le proto.
Correction des cas Edge NA.
Nouvelles fonctionnalités¶
Prise en charge de la lecture d’un fichier JSON BZ2.
Prise en charge des UDFs Scala dans Snowpark Connect for Spark côté serveur.
Implémentation d’une conversion entre la chaîne et
daytime.Ajout de la prise en charge des UDFs Scala dans
group_map.
Snowpark Submit¶
Corrections de bogues¶
Réduction des noms de charge de travail générés.
1.8.0 (07 janvier 2026)¶
Snowpark Connect for Spark¶
Corrections de bogues¶
Correction du traitement JAVA_HOME pour Windows.
Nouvelles fonctionnalités¶
Prise en charge de la source de données
neo4jvia JDBC.
Snowpark Submit¶
Aucun.