Notes de version de Snowflake Connector for Kafka pour 2025

Cet article contient les notes de version Snowflake Connector for Kafka, y compris les éléments suivants, le cas échéant :

  • Changements de comportement

  • Nouvelles fonctionnalités

  • Corrections de bogues pour les clients

Snowflake utilise la version sémantique pour les mises à jour Snowflake Connector for Kafka.

Voir Connecteur Snowflake pour Kafka pour la documentation.

Version 3.5.0 (Dec 15, 2025)

Nouvelles fonctionnalités

  • Le connecteur gère désormais automatiquement la redirection du client pendant le basculement, ce qui élimine la nécessité de redémarrer manuellement le connecteur après une modification du déploiement principal.

  • Ajout de la prise en charge du basculement automatique pour Snowpipe Streaming.

  • Ajout d’une journalisation granulaire pour l’évolution des schémas afin d’améliorer le dépannage.

  • Mise à niveau de Snowflake Ingest SDK vers la version 4.4.0.

Version 3.4.0 (November 5, 2025)

Changements de comportement

  • Modification de la valeur par défaut de la propriété:code:enable.streaming.channel.offset.migration vers false. Cette propriété n’a été utilisée que lorsque le canal Snowflake Streaming a été utilisé pour la première fois après la migration de la version 2.1.0 ou 2.1.1 du connecteur Kafka : elle permettait la migration des décalages des canaux créés par ces versions (qui incluait le nom du connecteur dans le nom du canal : [connectorName]_[topic]_[partition]) au format de nom de canal utilisé par toutes les autres versions ([topic]_[partition]).

Nouvelles fonctionnalités

  • Ajout de la propriété snowflake.streaming.channel.name.include.connector.name. Lorsqu’elle est définie sur true, cela inclut le nom du connecteur dans les noms des canaux de Snowpipe Streaming ([connectorName]_[topic]_[partition]). Définition de cette propriété sur true nécessite de définir enable.streaming.channel.offset.migration sur false. Cela permet aux utilisateurs des versions 2.1.0 et 2.1.1 du connecteur Kafka de se mettre à niveau sans perdre de données.

    Avertissement

    Les utilisateurs qui procèdent à la niveau à partir de versions autres que 2.1.0 et 2.1.1 qui définissent snowflake.streaming.channel.name.include.connector.name sur true subiront une duplication des données ; il n’y a pas de logique de migration de décalage pour les autres versions.

  • Mise à niveau Snowflake Ingest SDK vers la version 4.3.2.

Corrections de bogues

Sans objet.

Version 3.3.1 (Oct 23, 2025)

Nouvelles fonctionnalités

  • Mise à niveau du pilote JDBC Snowflake vers la version 3.26.1.

Corrections de bogues

  • Les URLs OAuth prennent désormais en charge les points et les traits d’union.

Version 3.3.0 (26 août 2025)

Changements de comportement

Non applicable

Nouvelles fonctionnalités

  • Le Snowflake Connector pour Kafka prend désormais en charge le type long avec le type logique timestamp dans les tables Apache Iceberg™.

    Pour une liste complète des types de support, consultez Types de données des tables Apache Iceberg™.

Corrections de bogues

Sans objet.

Version 3.2.4 (31 juillet 2025)

Mises à jour uniquement internes.

Version 3.2.3 (14 juillet 2025)

Mises à jour uniquement internes.

Version 3.2.2 (26 juin 2025)

Changements de comportement

Non applicable

Nouvelles fonctionnalités

  • Utilise les paquets Confluent version 7.9.2.

Corrections de bogues

Non applicable

Version 3.2.1 (2 juin 2025)

Changements de comportement

Non applicable

Nouvelles fonctionnalités

  • Utilise la version JDBC 3.24.2.

Corrections de bogues

Non applicable

Version 3.2.0 (28 avril 2025)

Changements de comportement

Non applicable

Nouvelles fonctionnalités

  • Suppression de la prise en charge de la version à double tampon pour le type d’ingestion SNOWPIPE_STREAMING.

    Le réglage snowflake.streaming.enable.single.buffer n’a aucun effet.

Corrections de bogues

  • Le connecteur ne supprime plus les lignes de table dont les décalages sont manquants.

  • Lors de l’évolution du schéma, au moment du changement de schéma, certains enregistrements uniques ne sont plus supprimés.

Version 3.1.3 (7 mai 2025)

Changements de comportement

  • Snowpipe Streaming avec double tampon est maintenant obsolète. Seul un tampon unique sera pris en charge dans les prochaines versions.

Nouvelles fonctionnalités et améliorations

  • Mise à jour du connecteur pour utiliser la version 3.9.0 de Kafka.

  • Mise à jour du connecteur pour utiliser la version 2.0.17 de slf4j-api.

  • Prise en charge de JDBC version 3.23.2.

Corrections de bogues

  • snowflake-jdbc ne génère plus NullPointerException dans certaines situations.

Version 3.1.2 (18 mars 2025)

Changements de comportement

Non applicable

Nouvelles fonctionnalités

  • Prise en charge de l’utilisation de valeurs -Infinity dans un nombre à virgule flottante.

  • Mise à jour du connecteur pour utiliser les paquets Confluent version 7.9.0.

  • Prise en charge de JDBC version 3.21.1.

Corrections de bogues

Sans objet.

Version 3.1.1 (26 février 2025)

Changements de comportement

Nouvelles fonctionnalités

Non applicable

Corrections de bogues

Sans objet.

Version 3.1.0 / 21, 2025 (21 janvier 2025)

Important

Si le paramètre snowflake.topic2table.map est configuré, Snowflake recommande d’utiliser cette version. Nous vous recommandons vivement de mettre à jour le connecteur si vous utilisez les versions antérieures 2.x, 1.9.x et 1.8.x.

Changements de comportement

Non applicable

Nouvelles fonctionnalités

  • Le Snowflake Connector pour Kafka prend maintenant en charge l’authentification External OAuth.

  • Le Snowflake Connector pour Kafka utilise maintenant la version de Confluent 7.8.0.

Corrections de bogues

  • Le connecteur n’envoie plus le message IndexOutOfBoundException lorsque les décalages ne sont pas continus au cours de l’évolution du schéma.

  • Pour la méthode d’ingestion Snowpipe, lorsque le paramètre snowflake.topic2table.map est configuré pour mapper plusieurs sujets à une seule table, le connecteur ajoute le sel du topic hashCode aux préfixes du fichier de zone de préparation pour éviter les collisions et charger les données de tous les sujets spécifiés.