Notas de lançamento de Snowpark Connect for Spark para 2025¶
Snowflake usa controle de versão semântico para atualizações de Snowpark Connect for Spark.
For documentation, see Execução de cargas de trabalho do Apache Spark™ no Snowflake com Snowpark Connect for Spark and Execução de cargas de trabalho em lote do Spark de Snowpark Submit.
Version 1.7.0 (December 18, 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
Add support for Spark integral types.
Suporte adicionado para Scala 2.13.
Suporte incluído para estouro de tipos integrais por trás da configuração
snowpark.connect.handleIntegralOverflow.Configuração adicionada para usar arquivos JAR personalizados em UDFs.
Suporte a UDFs do Scala se
UDFPacketnão tem metadados de tipos de entrada.Permissão de classes case como tipos de entrada e saída na função
reduce.
Correções de bugs¶
Correção do tratamento dos tipos lógicos Parquet (TIMESTAMP, DATE, DECIMAL). Antes, os arquivos Parquet eram lidos usando apenas tipos físicos (como
LongTypepara carimbos de data/hora). Os tipos lógicos agora podem ser interpretados retornando tipos adequados comoTimestampType,DateTypeeDecimalType. Você pode habilitar esse recurso definindo a configuração do Sparksnowpark.connect.parquet.useLogicalTypecomotrue.Uso do esquema de saída ao converter
Rowdo Spark emVariant.Tratamento de
JAVA_HOMEvazio.Correção da função
from_jsonparaMapType.Suporte da configuração
spark.sql.parquet.outputTimestampTypepara o fuso horárioNTZ.
Melhorias¶
Nenhum.
Snowpark Submit¶
New Features¶
Suporte adicionado para Scala 2.13.
Add support for
--filesargument.
Bug Fixes¶
Suporte adicionado para
--jarspara carga de trabalho pyspark.Correção de bug na autenticação com Snowpark Submit JWT.
Version 1.6.0 (December 12, 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
Suporte a qualquer tipo de entrada ou de saída nas funções
mapeflatmapdo Scala.Support
joinWith.Suporte a qualquer tipo de retorno nas UDFs do Scala.
Support
registerJavaFunction.
Correções de bugs¶
Correção do problema de inferência de esquemas JSON para leitura de JSON do Scala.
Alteração dos tipos de retorno das funções que retornam tipos integrais incorretos.
Correção do bug nos campos de atualização com tipo
struct.Correção do decodificador de entrada ilimitada.
Correção da função
structquando o argumento éunresolved_star.Correção do nome da coluna para UDFs do Scala quando o proto não contém nome de função.
Adição de suporte para PATTERN no formato Parquet.
Processamento dos modos de gravação
erroreerrorIfExists.
Melhorias¶
Nenhum.
Version 1.5.0 (December 04, 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
O snowflake-connector-python foi incrementado para <4.2.0.
Adição de suporte básico para mapa de coluna única e operações
flatMapem conjuntos de dados do Scala.Suporte de gravação em Iceberg para
TargetFileSizeePartitionBy.
Correções de bugs¶
Tornar a inicialização do servidor SAS síncrona.
Use
snowpark-connect-deps-1==3.56.3.Correção de
saveAsTablecom colunasinput_filename.Remoção da leitura duplicada do cache em UDFs do Scala.
Aumento do limite de recursão.
Fix
format_number.Correção do esquema de inferência quando a consulta é fornecida como leitura JDBC.
Bloqueio da operação dict somente em
cache.pypara melhorar o desempenho.Correção de testes de dados agrupados.
Emissão de erros mais detalhados nas operações de tabela e de leitura/gravação.
Melhorias¶
Nenhum.
Version 1.4.0 (November 25, 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
Introdução da função «reduzir» para o Scala.
Melhorias¶
Nenhum.
Correções de bugs¶
Correção da falha na inserção de matriz para elementos que permitem valores nulos.
Emissão do erro correto em argumentos não numéricos na covariância.
Version 1.3.0 (November 19, 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
Suporte a
filterem umDatasetsimples (coluna única).Suporte para análise de URL de esquema do Azure e nome de arquivo de caracteres especiais.
Correções de bugs¶
Correção do erro «Dataframe has no attribute dataframe» na API de catálogo do Scala.
Correção de aliases em subconsulta; subconsultas de documentos que não funcionavam.
Correção da resolução
plan_idapós junções.Correção do
meta.yamlpara versões multi-py.Habilitação de
use_vectorized_scannercomo tipo de mapa do arquivo parquet que causava erro.CSV para leitura do tipo de dados de especificação da opção
inferSchema.Correção do processamento da função
substrde comprimento negativo.Uso dos formatos de arquivos em cache no
read_parquet.Melhoria no desempenho da relação local.
Geração de resumo de _common_metadata para arquivos parquet.
Remoção de
setSchema,setRoleetc. repetitivos para pushdown do Snowflake.
Melhorias¶
Nenhum.
Version 1.2.0 (November 17, 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
Flexibilização dos requisitos de versão para grpcio e aiobotocore.
Melhorias¶
Especificação de versão de dependências no
meta.yaml.Criação de pacote conda compilado e específico da arquitetura.
Garantia de que todos os
CloudPickleSerializer.loadsnão são feitos no TCM.Inclusão de testes SQL OSS que começam com a cláusula WITH.
Não carregar jars do Spark durante a execução do servidor para pyt.
Atualização da contagem de consultas internas.
Correções de bugs¶
Correção de testes para tcm.
Correção da discrepância de nomes de coluna CSV do Spark.
Uso do tipo cache para quadros vazios.
Resolução de problemas gerais do executor Windows OSS.
Envio do Snowpark¶
Melhorias¶
Geração de nomes de carga de trabalho exclusivos.
Bug Fixes¶
Corrigida a leitura de arquivos preparados.
Versão 1.0.1 (3 de novembro de 2025)¶
Nota
Com o lançamento desta versão, a versão 0.24 e as versões anteriores estão obsoletas.
Snowpark Connect for Spark¶
Novos recursos¶
Adicionar parâmetro para estratégias de criação de exibição.
Suporte a intervalo de ano e mês <-> com cadeia de caracteres.
Suporte a várias colunas dinâmicas e aliases para valores dinâmicos no Spark SQL.
Integração de span e rastreamentos de OpenTelemetry.
Melhorias¶
Nenhum.
Correções de bugs¶
Adição de uma barra final ao comando de remoção.
Problema de GROUP BY inválido com função de agregação e funções nilary.
Notebook excede o tamanho máximo de mensagem gRPC.
Corrigida a criação de exibição temporária com nomes conflitantes.
array_sizecom argumento nulo.Correção do acesso à matriz JSON
$.0na funçãoget_json_object.Correção das junções automáticas ANTI e SEMI LEFT.
Processamento de tipos diferentes no intervalo de funções SQL.
Descrição da exibição temporária corrigida.
Versão 1.0.0 (28 de outubro de 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
Adição de
rowToInferSchemapara leitura de CSV.Suporte a INSERT INTO com o comando CTE SQL.
Alterações de E/S para adicionar geração de arquivos e filtragem de arquivos de metadados _SUCCESS.
update(submit): Support installing Snowpark Connect for Spark in the Snowpark Submit client container.
Melhorias¶
Nenhum.
Correções de bugs¶
Correção da atualização de caminho _SUCCESS.
Lançamento de um erro na atualização de falha de remoção.
Função de sequência com suporte para entradas de tipos integrais.
Correção de tipos em
CreateTempViewUsingvazio.Correção do reparticionamento de arquivo Parquet na gravação.
Resolução correta de aliases na cláusula ORDER BY.
Remoção do parâmetro de sessão temporário de escopo.
Correção de várias junções automáticas com a condição de junção.
Correção da resolução de nomes de colunas em tabelas dinâmicas.
O analisador SQL reconhece o fuso horário da sessão.
Coerção do tipo de intervalo com outros tipos.
Correção do aninhamento de CTEs.
Melhoria na resolução de nomes qualificados no Spark.
Versão 0.33.0 (10 de outubro de 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
Adição de script para execução na saída da ação Git para mesclagem de SQLs.
Adição do parâmetro
--rebuild-whlao executor de teste do notebook.Suporte incluído para ambos os qualificadores após a junção.
Melhorias¶
Nenhum.
Correções de bugs¶
Suporte ao parâmetro de escape em comandos SQL LIKE.
Bug de substituição em partições.
Validação da contagem de colunas em INSERT.
Incompatibilidade do pow com NAN.
JOIN cruzado com condição.
Lógica de atribuição de colunas em consultas aninhadas.
Atualização da mensagem de erro do teste de intervalo.
Coerção do tipo de cadeia de caracteres na operação do conjunto UNION e EXCEPT, coerção de NUMERIC, DATE, DATETIME para STRING.
Resolução correta das colunas do Snowpark após uma JOIN automática externa completa.
Expressão na função de agregação pode ser sem melhoria.
Atualização: reversão de «[SCOS GA BUG] string type coercion in set opera»
A união DataFrame de colunas do tipo decimal agora é ampliada conforme necessário.
Coerção do tipo de cadeia de caracteres na operação do conjunto UNION e EXCEPT, coerção de NUMERIC, DATE, DATETIME para STRING (parte 1).
Problema de objeto não existente em TCM.
Correção de
to_binary(x, 'hex')quandoxtem um número ímpar de letras e dígitos.Correção de junções com tabelas vazias.
Correção da cláusula HAVING para priorizar o agrupamento de colunas sobre os aliases de agregação com o mesmo nome.
Versão 0.32.0 (17 de outubro de 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
Suporte para
RepairTableTorne
jdk4pyuma dependência opcional de Snowpark Connect for Spark para simplificar a configuração da página inicial do Java para usuários finais.Suporte a mais casos de tipo intervalo.
Melhorias¶
Nenhum.
Correções de bugs¶
Corrigir problemas de
Joinao refatorar qualificadoresCorrija
percentile_contpara permitir expressões de filtro e ordem de classificação.Corrija
histogram_numericUDAF.Corrija a função
COUNTquando chamada com vários argumentos.
Versão 0.31.0 (9 de outubro de 2025)¶
Snowpark Connect for Spark¶
Novos recursos¶
Adicione suporte para expressões na cláusula GROUP BY quando a cláusula é explicitamente selecionada.
Adicione códigos de erro às mensagens de erro do para uma melhor solução de problemas.
Melhorias¶
Nenhum.
Correções de bugs¶
Correção do problema de conversão da função de janela sem suporte.