Snowpark Connect for Spark-Versionshinweise 2025

Snowflake verwendet semantische Versionierung für Snowpark Connect for Spark-Aktualisierungen.

For documentation, see Apache Spark™-Workloads auf Snowflake mit Snowpark Connect for Spark ausführen and Ausführen von Spark-Batch-Workloads über Snowpark Submit.

Version 1.2.0 (November 17, 2025)

Snowpark Connect for Spark

Neue Features

  • Relax version requirements for grpcio and aiobotocore.

Verbesserungen

  • Specify dependencies version in meta.yaml.

  • Build compiled and architecture-specific conda package.

  • Ensure all CloudPickleSerializer.loads are not done in TCM.

  • Include OSS SQL tests that start with the WITH clause.

  • Do not upload Spark jars when running the server for pyt.

  • Update internal queries count.

Fehlerkorrekturen

  • Fix tests for tcm.

  • Fix CSV column name discrepancy from Spark.

  • Use type cache for empty frames.

  • Resolve Windows OSS runner general issues.

Snowpark Submit

Verbesserungen

  • Generate unique workload names.

Bug Fixes

  • Fix staged file reading.

Version 1.0.1 (November 3, 2025)

Bemerkung

With the release of this version, version 0.24 and previous versions are deprecated.

Snowpark Connect for Spark

Neue Features

  • Add parameter for view creation strategies.

  • Support string <-> year month interval.

  • Support multiple pivot columns and aliases for pivot values in Spark SQL.

  • Integrate OpenTelemetry span and traces.

Verbesserungen

Keine.

Fehlerkorrekturen

  • Add a trailing slash for remove command.

  • Invalid GROUP BY issue with aggregation function and nilary functions.

  • Notebook exceeds gRPC maximum message size.

  • Fix temporary view creation with colliding names.

  • array_size with null argument.

  • Fix for $.0 JSON array access in get_json_object function.

  • Fix self ANTI and SEMI LEFT joins.

  • Handle different types in SQL function range.

  • Fixed temporary view describe.

Version 1.0.0 (October 28, 2025)

Snowpark Connect for Spark

Neue Features

  • Add rowToInferSchema for CSV reading.

  • Support INSERT INTO with CTE SQL command.

  • I/O changes to add _SUCCESS file generation and metadata file filtering.

  • update(submit): Support installing Snowpark Connect for Spark in the Snowpark Submit client container.

Verbesserungen

Keine.

Fehlerkorrekturen

  • Fix _SUCCESS path update.

  • Throw error on remove failure update.

  • Sequence function supporting integral types inputs.

  • Fix types in empty CreateTempViewUsing.

  • Fix Parquet file repartitioning on write.

  • Resolve aliases in ORDER BY clause correctly.

  • Remove scope temp session parameter.

  • Fixed multiple self joins with join condition.

  • Fix column name resolution in pivot.

  • SQL parser aware of session timezone.

  • Interval type coercion with other types.

  • Fix having with nested CTEs.

  • Improve qualified name resolution in Spark.

Version 0.33.0 (October 10, 2025)

Snowpark Connect for Spark

Neue Features

  • Add script to run on the output from Git action for merging SQLs.

  • Add --rebuild-whl parameter to notebook test runner.

  • Add support for both qualifiers after join.

Verbesserungen

Keine.

Fehlerkorrekturen

  • Support escape parameter in SQL LIKE commands.

  • Overwrite bug in partitions.

  • Validate column count on INSERT.

  • Incompatibility for pow with NAN.

  • Cross JOIN with condition.

  • Column attribution logic in nested queries.

  • Update error message for interval test.

  • String type coercion in set operation UNION and EXCEPT, coerce NUMERIC, DATE, DATETIME to STRING.

  • Correctly resolve Snowpark columns after a full outer self JOIN.

  • Expression in aggregate function might be zero improvement.

  • Update: Revert „[SCOS GA BUG] string type coercion in set opera“

  • DataFrame union of decimal type columns now widen as necessary.

  • String type coercion in set operation UNION and EXCEPT, coerce NUMERIC, DATE, DATETIME to STRING (part1).

  • Object not existed issue in TCM.

  • Fix to_binary(x, 'hex') where x has odd number of letters and digits.

  • Fix joins with empty tables.

  • Fix HAVING clause to prioritize grouping columns over aggregate aliases with same name.

Version 0.32.0 (17. Oktober 2025)

Snowpark Connect for Spark

Neue Features

  • Unterstützung für RepairTable

  • jdk4py wird zur optionalen Abhängigkeit von Snowpark Connect for Spark zur Vereinfachung der Konfiguration von Java Home für Endbenutzende.

  • Unterstützung für zusätzliche Fälle von Intervalltypen.

Verbesserungen

Keine.

Fehlerkorrekturen

  • Problem mit Join wurde durch Überarbeitung von Qualifizierern behoben

  • Problem mit percentile_cont wurde so korrigiert, dass Ausdrücke für Filter und die Sortierreihenfolge unterstützt werden.

  • histogram_numeric UDAF wurde korrigiert.

  • Das Problem mit der COUNT-Funktion beim Aufruf mit mehreren Argumenten wurde behoben.

Version 0.31.0 (9. Oktober 2025)

Snowpark Connect for Spark

Neue Features

  • Es wurde Unterstützung für Ausdrücke in der GROUP BY-Klausel (bei expliziter Auswahl der Klausel) hinzugefügt.

  • Fehlermeldungen wurden um Fehlercodes ergänzt, um die Suche zu erleichtern.

Verbesserungen

Keine.

Fehlerkorrekturen

  • Problem mit der nicht unterstützten Umwandlung der Fensterfunktion wurde behoben.