Snowpark Connect for Spark-Versionshinweise 2025¶
Snowflake verwendet semantische Versionierung für Snowpark Connect for Spark-Aktualisierungen.
For documentation, see Apache Spark™-Workloads auf Snowflake mit Snowpark Connect for Spark ausführen and Ausführen von Spark-Batch-Workloads über Snowpark Submit.
Version 1.2.0 (November 17, 2025)¶
Snowpark Connect for Spark¶
Neue Features¶
Relax version requirements for grpcio and aiobotocore.
Verbesserungen¶
Specify dependencies version in
meta.yaml.Build compiled and architecture-specific conda package.
Ensure all
CloudPickleSerializer.loadsare not done in TCM.Include OSS SQL tests that start with the WITH clause.
Do not upload Spark jars when running the server for pyt.
Update internal queries count.
Fehlerkorrekturen¶
Fix tests for tcm.
Fix CSV column name discrepancy from Spark.
Use type cache for empty frames.
Resolve Windows OSS runner general issues.
Snowpark Submit¶
Verbesserungen¶
Generate unique workload names.
Bug Fixes¶
Fix staged file reading.
Version 1.0.1 (November 3, 2025)¶
Bemerkung
With the release of this version, version 0.24 and previous versions are deprecated.
Snowpark Connect for Spark¶
Neue Features¶
Add parameter for view creation strategies.
Support string <-> year month interval.
Support multiple pivot columns and aliases for pivot values in Spark SQL.
Integrate OpenTelemetry span and traces.
Verbesserungen¶
Keine.
Fehlerkorrekturen¶
Add a trailing slash for remove command.
Invalid GROUP BY issue with aggregation function and nilary functions.
Notebook exceeds gRPC maximum message size.
Fix temporary view creation with colliding names.
array_sizewith null argument.Fix for
$.0JSON array access inget_json_objectfunction.Fix self ANTI and SEMI LEFT joins.
Handle different types in SQL function range.
Fixed temporary view describe.
Version 1.0.0 (October 28, 2025)¶
Snowpark Connect for Spark¶
Neue Features¶
Add
rowToInferSchemafor CSV reading.Support INSERT INTO with CTE SQL command.
I/O changes to add _SUCCESS file generation and metadata file filtering.
update(submit): Support installing Snowpark Connect for Spark in the Snowpark Submit client container.
Verbesserungen¶
Keine.
Fehlerkorrekturen¶
Fix _SUCCESS path update.
Throw error on remove failure update.
Sequence function supporting integral types inputs.
Fix types in empty
CreateTempViewUsing.Fix Parquet file repartitioning on write.
Resolve aliases in ORDER BY clause correctly.
Remove scope temp session parameter.
Fixed multiple self joins with join condition.
Fix column name resolution in pivot.
SQL parser aware of session timezone.
Interval type coercion with other types.
Fix having with nested CTEs.
Improve qualified name resolution in Spark.
Version 0.33.0 (October 10, 2025)¶
Snowpark Connect for Spark¶
Neue Features¶
Add script to run on the output from Git action for merging SQLs.
Add
--rebuild-whlparameter to notebook test runner.Add support for both qualifiers after join.
Verbesserungen¶
Keine.
Fehlerkorrekturen¶
Support escape parameter in SQL LIKE commands.
Overwrite bug in partitions.
Validate column count on INSERT.
Incompatibility for pow with NAN.
Cross JOIN with condition.
Column attribution logic in nested queries.
Update error message for interval test.
String type coercion in set operation UNION and EXCEPT, coerce NUMERIC, DATE, DATETIME to STRING.
Correctly resolve Snowpark columns after a full outer self JOIN.
Expression in aggregate function might be zero improvement.
Update: Revert „[SCOS GA BUG] string type coercion in set opera“
DataFrame union of decimal type columns now widen as necessary.
String type coercion in set operation UNION and EXCEPT, coerce NUMERIC, DATE, DATETIME to STRING (part1).
Object not existed issue in TCM.
Fix
to_binary(x, 'hex')wherexhas odd number of letters and digits.Fix joins with empty tables.
Fix HAVING clause to prioritize grouping columns over aggregate aliases with same name.
Version 0.32.0 (17. Oktober 2025)¶
Snowpark Connect for Spark¶
Neue Features¶
Unterstützung für
RepairTablejdk4pywird zur optionalen Abhängigkeit von Snowpark Connect for Spark zur Vereinfachung der Konfiguration von Java Home für Endbenutzende.Unterstützung für zusätzliche Fälle von Intervalltypen.
Verbesserungen¶
Keine.
Fehlerkorrekturen¶
Problem mit
Joinwurde durch Überarbeitung von Qualifizierern behobenProblem mit
percentile_contwurde so korrigiert, dass Ausdrücke für Filter und die Sortierreihenfolge unterstützt werden.histogram_numericUDAF wurde korrigiert.Das Problem mit der
COUNT-Funktion beim Aufruf mit mehreren Argumenten wurde behoben.
Version 0.31.0 (9. Oktober 2025)¶
Snowpark Connect for Spark¶
Neue Features¶
Es wurde Unterstützung für Ausdrücke in der GROUP BY-Klausel (bei expliziter Auswahl der Klausel) hinzugefügt.
Fehlermeldungen wurden um Fehlercodes ergänzt, um die Suche zu erleichtern.
Verbesserungen¶
Keine.
Fehlerkorrekturen¶
Problem mit der nicht unterstützten Umwandlung der Fensterfunktion wurde behoben.