Notas de lançamento do Snowpark Connect for Spark para 2026¶
Snowflake usa controle de versão semântico para atualizações de Snowpark Connect for Spark.
Para ver a documentação, consulte Execução de cargas de trabalho do Apache Spark™ no Snowflake com Snowpark Connect for Spark e Enviando aplicativos Spark.
1.17.0 (13 de março de 2026)¶
Snowpark Connect for Spark¶
Correções de bugs¶
Inferência de compressão em JSON e CSV.
Correção do
coalesceque cria um único arquivo.Refatoração de leitura JSON para usar
COPY INTOnas leituras de arquivo único e adição da inferência de esquemaVariantType.Permitir o carregamento JSON sem esquema explícito.
Correção de
multi_lineem JSON.Correção do esquema de inferência JSON para evitar a verificação de arquivos inteiros.
Tratamento correto da conversão em carimbo de data/hora
ltz.Valor retornado do hash de limitação.
Correção de
repartitioncompartitionBy.Correção para usar o cabeçalho da seção
[connections.spark-connect]emconfig.toml.Conversão de tokens do formato Java
date/timestampem equivalentes do Snowflake para leituras CSV.Calcular esquema para funções
pivot.Correção de UDTFs em junção lateral com alias.
Alinhamento do resultado para o comando SQL
SET.Correção do tipo de retorno para as funções
CEILeFLOOR.Melhoria na geração de consultas no
unbase64v2.Correção de algumas opções para mapeamento do Snowflake para CSV.
Correção de serialização para
POJO.Melhoria nas mensagens de erro CSV com cabeçalho.
Melhoria na lógica de detecção
mapTypecomtry_castpara leituras do Parquet.
Novos recursos¶
Suporte para
reduceGroupsAPI.Suporte para especificação do nome da conexão em
init_spark_session.Adição do parâmetro de configuração para usar UDF para
unbase64.
1.16.0 (12 de março de 2026)¶
Snowpark Connect for Spark¶
Correções de bugs¶
Otimização da geração de SQL na função
unbase64.Correção da regressão
from_jsonCorreção dos registros que abrangem vários limites de bloco de compactação BZ2
Correção do mapeamento de nulidade no atributo não resolvido
Inicialização da sessão
spark-connectcom qualquer conexão, não apenas aquela chamadaspark-connectAdição da validação de opções XML
Opção de descarte de ESCAPE CSV quando corresponde ao caractere de aspas para impedir erro de compilação
Correção da conversão incorreta de tuplas nomeadas em
productEncoderNão há suporte para verificar
mergeSchemapara CSV e JSONCorreção do tipo complexo de ida e volta Parquet (gravação + leitura)
Correção do esquema para
pivot/unpivotCorreção do tipo de retorno para as funções
MODePMODCorreção da extração de cabeçalho de CSV para arquivos com linhas em branco iniciais
Testar os fusos horários corretamente e substituir a serialização de data/hora baseada em cadeia de caracteres por baseada em época
Atualização da verificação de versão do Java para Windows
Nivelamento de chamadas
withColumnaninhadasAlteração da lógica para
Literal _IntegralTypeem operações de adição/subtraçãoRetorno de
LongTypepara funçõesCOUNTLeitura de JSON: teste de compactação = bz2/bzip2/nenhum
Melhoria no desempenho de
to_varchar/to_charMelhoria na comparação em testes de E/S
Definir
multi_linecomoFalsepor padrão para cópia JSON
Snowpark Submit¶
Correções de bugs¶
Gerar um erro em caso de pool de computação não especificado.
1.15.0 (6 de março de 2026)¶
Snowpark Connect for Spark¶
Correções de bugs¶
Remoção da verificação de resultados ao chamar
df.count()Garantir que o esquema de inferência seja executado em linhas limitadas para leitura JSON
Correção de
createDataFramepara tipos de intervaloAlteração da lógica para
Literal _IntegralTypeem operações de multiplicação e divisãoTipo mais amplo e de coerção para operações
SetCorreção do suporte para várias rótulos de
neo4jModificação dos metadados JAR para que o Grype não detecte a vulnerabilidade do Netty
Retornar o tipo correto para a função
ANY_VALUERetornar o tipo ampliado para sequência
Adição de suporte para a configuração
spark.sql.parquet.inferTimestampNTZ.enabledRenomeação/conversão de coluna em lote em
_validate_schema_and_get_writerJDBC trava quando consultas particionadas são fornecidas com tamanho de busca
Retornar uma mensagem de exceção excluída quando ela excede os limites de cabeçalho HTTP
Correção de
map_type_to_snowflake_typeparaBigDecimalCorreção da precisão e escala decimais literais
Melhoria na geração de cadeias de caracteres aleatórias
Fazer com que o carregamento JSON compactado do BZ2ignore registros corrompidos
Novos recursos¶
Uso de arquivos preparados da configuração em UDFs do Scala
Uso de
TRY_CASTpermissivo em leitura JSONTornar o número de threads de servidor configurável
Snowpark Submit¶
Correções de bugs¶
Readicionar
init_spark_session()para testesÉ obrigatório atualizar a saída da linha de comando
snowpark-submitpara esclarecer osnowflake-connection-name.
1.14.0 (19 de fevereiro de 2026)¶
Snowpark Connect for Spark¶
Correções de bugs¶
Tipo de tabela de cache ao executar
saveAsTableOtimizar entrada literal para conversão de subcadeia de caracteres e tipo para
coalesceTratamento do estouro decimal em
avg/meane correção da coerção do tipo decimalIceberg: preservar concessões ao substituir
Padronizar modo de passagem SQL
Otimizar
from_utc_timestamp/to_utc_timestamppara fuso horário literalManipular valores nulos JSON em tipos estruturados para corresponder à semântica do Spark
Emular tipos integrais na criação de tabelas com base em SQL
Corrigir caso de borda com mapeamento de linhas aninhadas em UDFs Scala
Corrigir como o Parquet lida com leitura e gravação de tipos de dados estruturados complexos
Oferecer suporte ao argumento “save ignore” para arquivos Parquet
Adicionar suporte para repositório de artefatos
Corrigir nulidade de matriz em UDxF Scala
Corrigir
log1ppara argumentos da faixa (-1, 0)Corrigir
first_valueelast_valueem contexto agregadoCorrigir a leitura:code:
DayTimeIntervalTypepara cliente Scala
Novos recursos¶
Manusear fusos horários corretamente em UDFs Scala
Oferecer suporte a Java 11 e 17 sem nenhuma configuração
Atualizações de envio do Snowpark¶
Novos recursos¶
Oferecer suporte a
snowpark-submitpara Python 3.9Aprimorar
init_spark_sessionpara ser usado no fluxo de trabalho desnowpark-submit
1.13.0 (13 de fevereiro de 2026)¶
Snowpark Connect for Spark¶
Correções de bugs¶
Corrigido o problema da função
splitRealizado o downgrade da dependência snowflake-snowpark-python para a versão 1.44
Corrigido o dialeto
Neo4jcorrespondente para melhorar a tradução de SQLCorrigido o ID da operação retornado em respostas de execução para manter a consistência
Corrigido o tratamento de metadados do
gRPCpara conexões de canal TCP
Novos recursos¶
Adicionado suporte para
partition_hintem operaçõesmapPartitionsAdicionado suporte do leitor XML para cenários com esquemas definidos pelo usuário
1.11.0 (28 de janeiro de 2026)¶
Snowpark Connect for Spark¶
Correções de bugs¶
Preservar colunas ocultas após vários operadores DataFrame
Corrigir problemas de tipos de entrada udf Scala (
byte,binary,scala.math.BigDecimal)
Outras atualizações¶
Adicionar argumentos
snowpark-submitdefinidos pelo usuário para comentar
1.10.0 (22 de janeiro de 2026)¶
Snowpark Connect for Spark¶
Correções de bugs¶
Corrigido o erro do comando config unset na configuração de sessão.
Uso de «copiar em» para carregar arquivos CSV em paralelo.
Correção das gravações de DataFrames usando junções externas.
Tratamento de nulos em UDFs do Scala.
Otimização da geração de consultas CTE com proteção de parâmetros.
Evitar converter argumentos de
DATEDIFF.Corrigida a anexação de arquivos particionados e a leitura de partições nulas.
Melhoria feita no desempenho em 10 vezes para conversão entre base 10 e 16 usando SQL.
Novos recursos¶
Substituição somente de partições modificadas para arquivos parquet.
Outras atualizações¶
Lógica atualizada para detectar se o Snowpark Connect for Spark está em execução no XP.
Suporte à gravação em tabela com tipo de dados «variante» no Snowflake.
Remoção de logs de informação desnecessários.
Os testes do Java foram movidos do trabalho de testes do Scala para um trabalho separado.
Atualização da versão de dependência para gcsfs.
Snowpark Submit¶
Nenhum.
1.9.0 (14 de janeiro de 2026)¶
Snowpark Connect for Spark¶
Correções de bugs¶
Correção da serialização de tuplas do Scala.
Correção do carregamento de arquivos JSON enormes.
Implementação de pequenas correções de problemas de clientes.
Implementação de correções para comparações com struct (estrutura).
Adição de tratamento para DataFrames de coluna 0.
Caminho correto do arquivo de carregamento.
Correção de
Upload_files_if_neededque não era executado em paralelo.Melhoria na inferência de tipo de entrada quando tipos de entrada de UDF não são definidos no proto.
Correção de casos de borda NA.
Novos recursos¶
Suporte à leitura de único arquivo JSON BZ2.
Suporte a UDFs do Scala no Snowpark Connect for Spark do lado do servidor.
Implementação de conversão entre cadeia de caracteres e
daytime.Suporte adicionado para UDFs do Scala em
group_map.
Snowpark Submit¶
Correções de bugs¶
Redução dos nomes gerados de carga de trabalho.
1.8.0 (7 de janeiro de 2026)¶
Snowpark Connect for Spark¶
Correções de bugs¶
Tratamento de JAVA_HOME corrigido para Windows.
Novos recursos¶
Suporte para fonte de dados
neo4jvia JDBC.
Snowpark Submit¶
Nenhum.