Notes de version de Snowpark Connect for Spark pour 2025¶
Snowflake utilise la version sémantique pour les mises à jour Snowpark Connect for Spark.
For documentation, see Exécuter les charges de travail Apache Spark™ sur Snowflake avec Snowpark Connect for Spark and Exécuter des charges de travail Spark par lots à partir de Snowpark Submit.
Version 1.6.0 (December 12, 2025)¶
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Support any type as output or input type in the Scala
mapandflatmapfunctions.Support
joinWith.Support any return type in Scala UDFs.
Support
registerJavaFunction.
Corrections de bogues¶
Fix JSON schema inference issue for JSON reads from Scala.
Change return types of functions returning incorrect integral types.
Fix update fields bug with
structtype.Fix unbounded input decoder.
Fix
structfunction when the argument isunresolved_star.Fix column name for Scala UDFs when the proto contains no function name.
Add support for PATTERN in Parquet format.
Handle
erroranderrorIfExistswrite modes.
Améliorations¶
Aucun.
Version 1.5.0 (December 04, 2025)¶
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Bump snowflake-connector-python to <4.2.0.
Add basic support for single-column map and
flatMapoperations on Scala datasets.Iceberg writing support
TargetFileSizeandPartitionBy.
Corrections de bogues¶
Make SAS server initialization synchronous.
Use
snowpark-connect-deps-1==3.56.3.Fix
saveAsTablewithinput_filenamecolumns.Remove duplicated reading of the cache in Scala UDFs.
Increase recursion limit.
Fix
format_number.Fix infer schema when query is provided in JDBC read.
Only lock dict operation in
cache.pyto improve performance.Fix grouped data tests.
Throw more detailed errors on table and read/write operations.
Améliorations¶
Aucun.
Version 1.4.0 (November 25, 2025)¶
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Introduce reduce function for Scala.
Améliorations¶
Aucun.
Corrections de bogues¶
Fix failing array insert for nullable elements.
Throw correct error on non-numeric args in covariance.
Version 1.3.0 (November 19, 2025)¶
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Support
filteron a simple (single column)Dataset.Support Azure scheme URL parsing and special character file name.
Corrections de bogues¶
Fix « Dataframe has no attribute dataframe » error in Scala catalog API.
Fix aliases in subquery, document not working subqueries.
Fix
plan_idresolution after joins.Fix
meta.yamlfor multi-py versions.Enable
use_vectorized_scanneras map type from parquet file was error.CSV reading
inferSchemaoption specify datatype.Fix
substrfunction handling of negative length.Use cached file formats in
read_parquet.Improve local relation performance.
Generate summary _common_metadata for parquet files.
Remove repetitive
setSchema,setRole, etc, for Snowflake pushdown.
Améliorations¶
Aucun.
Version 1.2.0 (November 17, 2025)¶
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Relax version requirements for grpcio and aiobotocore.
Améliorations¶
Specify dependencies version in
meta.yaml.Build compiled and architecture-specific conda package.
Ensure all
CloudPickleSerializer.loadsare not done in TCM.Include OSS SQL tests that start with the WITH clause.
Do not upload Spark jars when running the server for pyt.
Update internal queries count.
Corrections de bogues¶
Fix tests for tcm.
Fix CSV column name discrepancy from Spark.
Use type cache for empty frames.
Resolve Windows OSS runner general issues.
Snowpark Submit¶
Améliorations¶
Generate unique workload names.
Bug Fixes¶
Fix staged file reading.
Version 1.0.1 (3 novembre 2025)¶
Note
Avec la sortie de cette version, la version 0.24 et les versions précédentes sont obsolètes.
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Ajout d’un paramètre pour les stratégies de création de vues.
Prise en charge de la chaîne <-> pour l’intervalle année-mois.
Prise en charge de plusieurs colonnes pivot et alias pour les valeurs pivot dans Spark SQL.
Intégration des intervalles et des traces OpenTelemetry.
Améliorations¶
Aucun.
Corrections de bogues¶
Ajout d’une barre oblique de fin pour la commande de suppression.
Problème GROUP BY non valide avec la fonction d’agrégation et les fonctions nilaires.
Le notebook dépasse la taille maximale de message gRPC.
Correction de la création de vues temporaires avec des noms conflictuels.
array_sizeavec un argument null.Correction de l’accès aux tableaux
$.0JSON dans la fonctionget_json_object.Correction des auto-jointures ANTI et SEMI LEFT.
Gestion de différents types dans la plage de fonctions SQL.
Correction de la description des vues temporaires.
Version 1.0.0 (28 octobre 2025)¶
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Ajout de
rowToInferSchemapour la lecture CSV.Prise en charge de INSERT INTO avec la commande SQL CTE.
Modifications des E/S pour ajouter la génération de fichiers _SUCCESS et le filtrage des fichiers de métadonnées.
update(submit): Support installing Snowpark Connect for Spark in the Snowpark Submit client container.
Améliorations¶
Aucun.
Corrections de bogues¶
Correction de la mise à jour du chemin _SUCCESS.
Renvoi d’une erreur en cas d’échec de la mise à jour lors de la suppression.
Fonction de séquence prenant en charge les entrées de types intégrés.
Correction des types dans
CreateTempViewUsingvide.Correction du repartitionnement des fichiers Parquet en écriture.
Résolution correcte des alias dans la clause ORDER BY.
Suppression du paramètre de session temporaire de la portée.
Correction de plusieurs auto-jointures avec condition de jointure.
Correction de la résolution des noms de colonnes dans le pivot.
Analyseur SQL tenant compte du fuseau horaire de la session.
Coercition du type intervalle avec d’autres types.
Correction de problèmes liés aux CTEs imbriquées.
Amélioration de la résolution des noms qualifiés dans Spark.
Version 0.33.0 (10 octobre 2025)¶
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Ajout d’un script à exécuter sur la sortie de l’action Git pour la fusion des SQLs.
Ajout d’un paramètre
--rebuild-whlà l’exécuteur de tests des notebooks.Ajout de la prise en charge des deux qualificatifs après la jointure.
Améliorations¶
Aucun.
Corrections de bogues¶
Prise en charge du paramètre d’échappement dans les commandes SQL LIKE.
Bug de réécriture dans les partitions.
Validation du nombre de colonnes sur INSERT.
Incompatibilité de pow avec NAN.
JOIN croisée avec condition.
Logique d’attribution des colonnes dans les requêtes imbriquées.
Mise à jour du message d’erreur pour le test d’intervalle.
Coercition du type chaîne dans l’opération d’ensemble UNION et EXCEPT. Coercition de NUMERIC, DATE, DATETIME en STRING.
Résolution correcte des colonnes Snowpark après une auto-JOIN externe complète.
L’expression dans la fonction d’agrégation peut ne présenter aucune amélioration.
Mise à jour : Annulation de la « coercition du type chaîne dans l’opération d’ensemble [SCOS GA BUG] »
L’union DataFrame des colonnes de type décimal est désormais élargie selon les besoins.
Coercition du type chaîne dans l’opération d’ensemble UNION et EXCEPT. Coercition de NUMERIC, DATE, DATETIME en STRING (part1).
Problème d’objet inexistant dans TCM.
Correction de
to_binary(x, 'hex')oùxcomporte un nombre impair de lettres et de chiffres.Correction des jointures avec des tables vides.
Correction de la clause HAVING pour donner la priorité aux colonnes de regroupement sur les alias agrégés portant le même nom.
Version 0.32.0 (17 octobre 2025)¶
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Prise en charge pour
RepairTableFaites de
jdk4pyune dépendance facultative de Snowpark Connect for Spark pour simplifier la configuration de l’accueil Java pour les utilisateurs finaux.Prise en charge d’un plus grand nombre de cas de type intervalle.
Améliorations¶
Aucun.
Corrections de bogues¶
Correction des problèmes
Joinen refactorisant les qualificatifsCorrection de
percentile_contpour autoriser les expressions de filtrage et d’ordre de tri.Correction de
histogram_numericUDAF.Correction de la fonction
COUNTlorsqu’elle est appelée avec plusieurs arguments.
Version 0.31.0 (9 octobre 2025)¶
Snowpark Connect for Spark¶
Nouvelles fonctionnalités¶
Ajout de la prise en charge des expressions dans la clause GROUP BY lorsque la clause est explicitement sélectionnée.
Ajout des codes d’erreur aux messages d’erreur pour une meilleur résolution des problèmes.
Améliorations¶
Aucun.
Corrections de bogues¶
Correction du problème de conversion non prise en charge de la fonction de fenêtre.