Snowflake High Performance connector for Kafka: Install and configure¶
This topic describes the steps to install and configure the Snowflake High Performance connector for Kafka.
Installation du connecteur Kafka¶
Le connecteur Kafka est fourni sous forme de fichier JAR (exécutable Java).
Snowflake fournit deux versions du connecteur :
Une version pour l’installation Confluent Kafka.
A version for the open source software (OSS) Apache Kafka https://mvnrepository.com/artifact/com.snowflake/snowflake-kafka-connector/ ecosystem.
Les instructions de ce chapitre spécifient les étapes qui ne s’appliquent qu’à l’une ou l’autre version du connecteur.
Conditions préalables à l’installation¶
The Kafka connector supports the following package versions:
Paquet
Snowflake Kafka Connector Version
Prise en charge des paquets (testé par Snowflake)
Apache Kafka
2.0.0 (ou versions ultérieures)
Apache Kafka 2.8.2, 3.7.2
Confluent
2.0.0 (ou versions ultérieures)
Confluent 6.2.15, 7.8.2
Le connecteur Kafka est conçu pour être utilisé avec l’API Kafka Connect 3.9.0. Les versions ultérieures de l’API Kafka Connect ne sont pas testés. Les versions antérieures à la version 3.9.0 sont compatibles avec le connecteur. Pour plus d’informations, voir Compatibilité Kafka.
Lorsque vous avez à la fois le connecteur Kafka et les fichiers jar du pilote JDBC dans votre environnement, assurez-vous que votre version de JDBC correspond à la version de
snowflake-jdbcspécifiée dans le fichierpom.xmlde la version du connecteur Kafka attendue. Vous pouvez accéder à la version du connecteur Kafka de votre choix, par exemple v4.0.0-rc4. Parcourez ensuite le fichierpom.xmlpour connaître la version desnowflake-jdbc.Si vous utilisez le format Avro pour l’ingestion de données :
Utilisez l’analyseur Avro, version 1.8.2 (ou supérieure), disponible à l’adresse https://mvnrepository.com/artifact/org.apache.avro.
Si vous utilisez la fonction de registre de schéma avec Avro, utilisez la version 5.0.0 (ou supérieure) du convertisseur Kafka Connect Avro disponible à l’adresse https://mvnrepository.com/artifact/io.confluent.
Notez que la fonction de registre de schéma n’est pas disponible dans le paquet OSS Apache Kafka.
Configurez Kafka avec la durée de conservation des données ou la limite de stockage de votre choix.
Install and configure the Kafka Connect cluster.
Chaque nœud de cluster Kafka Connect doit inclure suffisamment de RAM pour le connecteur Kafka. La quantité minimale recommandée est de 5 MB par partition Kafka. Cela s’ajoute aux RAM requises pour toute autre tâche effectuée par Kafka Connect.
Nous recommandons d’utiliser les mêmes versions sur Kafka Broker et Kafka Connect Runtime.
Nous vous recommandons vivement d’exécuter votre instance Kafka Connect dans la même région du fournisseur de cloud que votre compte Snowflake. Cela n’est pas strictement nécessaire, mais améliore généralement le débit.
Pour obtenir la liste des systèmes d’exploitation pris en charge par les clients Snowflake, voir Prise en charge par les systèmes d’exploitation.
Installing the connector¶
Cette section fournit des instructions pour l’installation et la configuration du connecteur Kafka pour Confluent. Le tableau suivant décrit les versions prises en charge et les informations relatives aux candidats à la pré-version et à la version.
Série de versions |
Statut |
Remarques |
|---|---|---|
4.x.x |
Aperçu public |
Accès anticipé. Prise en charge Snowpipe Streaming High Performance Architecture https://docs.snowflake.com/en/user-guide/snowpipe-streaming/snowpipe-streaming-high-performance-overview Actuellement, la migration entre les versions 3.x et 2.x doit être effectuée manuellement. Elle ne peut pas être utilisée en remplacement des versions antérieures. Elle possède un ensemble de fonctionnalités différentes de celles des versions 3.x, 2.x, 1.x |
3.x.x |
Officiellement pris en charge |
Pas de prise en charge Snowpipe Streaming High Performance Architecture https://docs.snowflake.com/en/user-guide/snowpipe-streaming/snowpipe-streaming-high-performance-overview. |
2.x.x |
Officiellement pris en charge |
Mise à niveau recommandée. Pas de prise en charge Snowpipe Streaming High Performance Architecture https://docs.snowflake.com/en/user-guide/snowpipe-streaming/snowpipe-streaming-high-performance-overview. |
1.x.x |
Non pris en charge |
N’utilisez pas cette série de versions. |
Installing the connector for Confluent¶
Download the Kafka connector files¶
Téléchargez le fichier JAR du connecteur Kafka à l’un des emplacements suivants :
- Hub Confluent:
-
Le paquet inclut toutes les dépendances requises pour utiliser une clé privée chiffrée ou non chiffrée pour l’authentification par paire de clés. Pour plus d’informations, voir Utilisation de l’authentification par paire de clés et rotation de clés plus loin dans cette rubrique.
- Maven Central Repository:
https://mvnrepository.com/artifact/com.snowflake
Lorsque vous utilisez cette version, vous devez télécharger les bibliothèques de cryptographie Bouncy Castle (fichiers JAR) :
Téléchargez ces fichiers dans le même dossier local que le fichier JAR du connecteur Kafka.
Le code source du connecteur est disponible sur https://github.com/snowflakedb/snowflake-kafka-connector.
Install the Kafka connector¶
Installez le connecteur Kafka en suivant les instructions fournies pour installer d’autres connecteurs :
Installation du connecteur pour Apache Kafka open source¶
Cette section fournit des instructions pour l’installation et la configuration du connecteur Kafka pour Apache Kafka Open Source.
Install Apache Kafka¶
Téléchargez le paquet Kafka à partir du site officiel de Kafka.
Dans une fenêtre de terminal, accédez au répertoire dans lequel vous avez téléchargé le fichier de paquet.
Exécutez la commande suivante pour décompresser le fichier
kafka_<scala_version>-<kafka_version>.tgz:tar xzvf kafka_<scala_version>-<kafka_version>.tgz
Installer le JDK¶
Installez et configurez le kit de développement Java (JDK) version 11 ou supérieure. Snowflake teste avec l’édition standard (SE) de JDK. L’édition entreprise (EE) devrait être compatible mais n’a pas été testée.
Si vous avez déjà installé le JDK, vous pouvez ignorer cette section.
Téléchargez le JDK du site web Oracle JDK.
Installez ou décompressez le JDK.
En suivant les instructions pour votre système d’exploitation, définissez la variable d’environnement JAVA_HOME pour qu’elle pointe vers le répertoire contenant le JDK.
Download the Kafka connector JAR files¶
Téléchargez le fichier JAR du connecteur Kafka à partir du référentiel central Maven :
Téléchargez les fichiers jar de la bibliothèque de cryptographie Bouncy Castle :
Si vos données Kafka sont diffusées au format Apache Avro, téléchargez le fichier JAR (1.11.4) :
Le code source du connecteur est disponible sur https://github.com/snowflakedb/snowflake-kafka-connector.
Install the Kafka connector¶
Copiez les fichiers JAR que vous avez téléchargés dans Installation du connecteur pour Apache Kafka open source dans le dossier <kafka_dir>/libs.
Configuring the Kafka connector¶
Lorsqu’il est déployé en mode autonome, le connecteur est configuré en créant un fichier spécifiant des paramètres tels que les identifiants de connexion Snowflake, les noms des sujets, les noms des tables Snowflake, etc. Lorsqu’il est déployé en mode distribué, le connecteur est configuré en appelant le point de terminaison de l’API REST du cluster Kafka Connect.
Important
The Kafka Connect framework broadcasts the configuration settings for the Kafka connector from the master node to worker nodes. Configuration settings include sensitive information, specifically, the Snowflake username and private key. Make sure to secure the communication channel between Kafka Connect nodes. For more information, see the documentation for your Apache Kafka software.
Each configuration specifies the topics and corresponding tables for one database and one schema in that database. Note that a connector can ingest messages from any number of topics, but the corresponding tables must all be stored in a single database and schema.
Cette section fournit des instructions pour les modes distribué et autonome.
Pour une description des champs de configuration, voir Propriétés de configuration du connecteur.
Important
Comme le fichier de configuration contient généralement des informations relatives à la sécurité, telles que la clé privée, définissez les privilèges de lecture / écriture de manière appropriée sur le fichier pour limiter l’accès.
In addition, consider storing the configuration file in a secure external location or a key management service. For more information, see Externalizing Secrets (in this topic).
Mode distribué¶
Créez le fichier de configuration Kafka, par exemple <path>/<config_file>.json. Remplissez le fichier avec toutes les informations de configuration du connecteur. Le fichier doit être au format JSON.
Sample configuration file
{
"name":"XYZCompanySensorData",
"config":{
"connector.class": "com.snowflake.kafka.connector.SnowflakeStreamingSinkConnector",
"tasks.max": "1",
"snowflake.topic2table.map": "topic1:table_1,topic2:table_2",
"snowflake.url.name": "myorganization-myaccount.snowflakecomputing.com:443",
"snowflake.warehouse.name": "WH",
"snowflake.private.key": "-----BEGIN PRIVATE KEY-----\n .... \n-----END PRIVATE KEY-----\n",
"snowflake.schema.name": "MY_SCHEMA",
"snowflake.database.name": "MY_DATABASE",
"snowflake.role.name": "MY_ROLE",
"snowflake.user.name": "MY_USER",
"value.converter": "org.apache.kafka.connect.json.JsonConverter",
"key.converter": "org.apache.kafka.connect.storage.StringConverter",
"errors.log.enable": "true",
"topics": "topic1,topic2",
"value.converter.schemas.enable": "false",
"errors.tolerance": "none"
}
}
Mode autonome¶
Créez un fichier de configuration, par exemple <kafka_dir>/config/SF_connect.properties. Remplissez le fichier avec toutes les informations de configuration du connecteur.
Sample configuration file
connector.class=com.snowflake.kafka.connector.SnowflakeStreamingSinkConnector
tasks.max=1
snowflake.topic2table.map=topic1:table_1,topic2:table_2
snowflake.url.name=myorganization-myaccount.snowflakecomputing.com:443
snowflake.warehouse.name=WH
snowflake.private.key=-----BEGIN PRIVATE KEY-----\n .... \n-----END PRIVATE KEY-----\n
snowflake.schema.name=MY_SCHEMA
snowflake.database.name=MY_DATABASE
snowflake.role.name=MY_ROLE
snowflake.user.name=MY_USER
value.converter=org.apache.kafka.connect.json.JsonConverter
key.converter=org.apache.kafka.connect.storage.StringConverter
errors.log.enable=true
topics=topic1,topic2
name=XYZCompanySensorData
value.converter.schemas.enable=false
errors.tolerance=none
Considérations relatives au cache pour les tests et le prototypage¶
Le connecteur met en cache les contrôles de recherche des tables et des canaux pour améliorer les performances lors des rééquilibrages des partitions. Cependant, lors des tests et du prototypage, ce comportement de mise en cache peut empêcher le connecteur de détecter immédiatement les tables ou les canaux créés manuellement.
Problème : lorsque vous créez manuellement une table ou un canal pendant que le connecteur est en cours d’exécution, le connecteur peut continuer à utiliser les résultats de la vérification de l’existence en cache (qui peuvent indiquer que l’objet n’existe pas) pendant 5 minutes par défaut. Cela peut conduire à des erreurs ou à des comportements inattendus pendant le test.
Recommandation pour les tests : pour éviter les problèmes liés au cache lors des tests et du prototypage, configurez les deux paramètres d’expiration du cache à leur valeur minimale de 1 milliseconde ou désactivez la mise en cache :
snowflake.cache.table.exists.expire.ms=1
snowflake.cache.pipe.exists.expire.ms=1
Cette configuration garantit que le connecteur effectue de nouveaux contrôles d’existence à chaque rééquilibrage de partition, ce qui vous permet de voir immédiatement les effets des tables et des canaux créés manuellement.
Important
Ces paramètres de cache minimaux sont recommandés uniquement pour les tests et le prototypage. Dans les environnements de production, utilisez les valeurs d’expiration du cache par défaut (5 minutes ou plus) pour réduire les requêtes de métadonnées vers Snowflake et améliorer les performances de rééquilibrage, surtout si vous gérez de nombreuses partitions.
Propriétés de configuration du connecteur¶
Propriétés requises¶
nameNom de l’application. Cela doit être unique pour tous les connecteurs Kafka utilisés par le client. Ce nom doit être un identificateur non délimité Snowflake et valide. Pour plus d’informations sur les identificateurs valides, voir Exigences relatives à l’identificateur.
connector.classcom.snowflake.kafka.connector.SnowflakeStreamingSinkConnectortopicsListe de sujets séparés par des virgules. Par défaut, Snowflake suppose que le nom de la table est identique à celui du sujet. Si le nom de la table est différent du nom du sujet, utilisez le paramètre facultatif
topic2table.map(ci-dessous) pour spécifier le mappage entre le nom du sujet et le nom de la table. Ce nom de table doit être un identificateur non spécifié Snowflake et valide. Pour plus d’informations sur les noms de table valides, voir Exigences relatives à l’identificateur.Note
:emph:``
topicsoutopics.regexest requis ; pas les deux.topics.regexIl s’agit d’une expression régulière (« regex ») qui spécifie les sujets contenant les messages à charger dans les tables Snowflake. Le connecteur charge les données de tout nom de sujet correspondant à l’expression régulière. L’expression régulière doit respecter les règles applicables aux expressions régulières Java (c.-à-d. être compatible avec java.util.regex.Pattern). Le fichier de configuration doit contenir
topicsoutopics.regex, pas les deux.snowflake.url.nameL’URL pour accéder à votre compte Snowflake. Cette URL doit inclure votre identificateur de compte. Notez que le protocole (
https://) et le numéro de port sont facultatifs.snowflake.user.nameNom de connexion de l’utilisateur pour le compte Snowflake.
snowflake.role.nameNom du rôle que le connecteur utilisera pour insérer des données dans la table.
snowflake.private.keyClé privée pour authentifier l’utilisateur. Incluez uniquement la clé, pas l’en-tête ni le pied de page. Si la clé est divisée sur plusieurs lignes, supprimez les sauts de ligne. Vous pouvez fournir une clé non chiffrée ou une clé chiffrée et fournir le paramètre
snowflake.private.key.passphrasepour permettre à Snowflake de déchiffrer la clé. Utilisez ce paramètre si et seulement si la valeur du paramètresnowflake.private.keyest chiffrée. Celui-ci déchiffre les clés privées qui ont été chiffrées conformément aux instructions fournies dans la section Authentification par paire de clés et rotation de paires de clés.Note
Consultez également
snowflake.private.key.passphrasedans les Propriétés facultatives.snowflake.database.nameNom de la base de données contenant la table dans laquelle insérer des lignes.
snowflake.schema.nameNom du schéma contenant la table dans laquelle insérer des lignes.
header.converterObligatoire uniquement si les enregistrements sont formatés en Avro et incluent un en-tête. La valeur par défaut est
"org.apache.kafka.connect.storage.StringConverter".key.converterIl s’agit du convertisseur de clé de l’enregistrement Kafka, (par exemple
"org.apache.kafka.connect.storage.StringConverter"). Ce connecteur n’est pas utilisé par le connecteur Kafka, mais il est requis par la plate-forme Kafka Connect.Voir Limitations du connecteur Kafka pour les limitations actuelles.
value.converterLe connecteur prend en charge les convertisseurs communautaires Kafka standard. Choisissez le convertisseur approprié en fonction de votre format de données :
Pour les enregistrements JSON :
"org.apache.kafka.connect.json.JsonConverter"Pour les enregistrements Avro avec le registre de schéma :
"io.confluent.connect.avro.AvroConverter"
Voir Limitations du connecteur Kafka pour les limitations actuelles.
Propriétés facultatives¶
snowflake.private.key.passphraseSi la valeur de ce paramètre n’est pas vide, le connecteur utilise cette expression pour tenter de déchiffrer la clé privée.
tasks.maxNombre de tâches, généralement égal au nombre de cœurs CPU sur les nœuds de travail du cluster Kafka Connect. Pour obtenir les meilleures performances, Snowflake recommande de définir un nombre de tâches égal au nombre total de partitions Kafka, sans dépasser le nombre de cœurs de CPU. Un nombre élevé de tâches peut entraîner une consommation accrue de mémoire et des rééquilibrages fréquents.
snowflake.topic2table.mapCe paramètre facultatif permet à un utilisateur de spécifier quelles rubriques doivent être mappées à quelles tables. Chaque sujet et son nom de table doivent être séparés par le signe deux-points (voir exemple ci-dessous). Ce nom de table doit être un identificateur non spécifié Snowflake et valide. Pour plus d’informations sur les noms de table valides, voir Exigences relatives à l’identificateur. La configuration de la rubrique sujet permet l’utilisation d’expressions régulières pour définir des rubriques, tout comme l’utilisation de
topics.regex. Les expressions régulières ne peuvent pas être ambiguës. Toute rubrique correspondante doit correspondre à une seule table cible.Exemple :
topics="topic1,topic2,topic5,topic6" snowflake.topic2table.map="topic1:low_range,topic2:low_range,topic5:high_range,topic6:high_range"
peut s’écrire ainsi :
topics.regex="topic[0-9]" snowflake.topic2table.map="topic[0-4]:low_range,topic[5-9]:high_range"
value.converter.schema.registry.urlSi le format est Avro et que vous utilisez un service de registre de schéma, il doit s’agir de l’URL du service de registre de schéma. Sinon, ce champ devrait être vide.
value.converter.break.on.schema.registry.errorSi vous chargez des données Avro à partir du service de registre de schéma, cette propriété détermine si le connecteur Kafka doit cesser de consommer des enregistrements s’il rencontre une erreur lors de la récupération de l’ID de schéma. La valeur par défaut est
false. Définissez la valeur surtruepour activer ce comportement.jvm.proxy.hostPour permettre au connecteur Snowflake Kafka d’accéder à Snowflake via un serveur proxy, définissez ce paramètre pour spécifier l’hôte de ce serveur proxy.
jvm.proxy.portPour permettre au connecteur Snowflake Kafka d’accéder à Snowflake via un serveur proxy, définissez ce paramètre pour spécifier le port de ce serveur proxy.
snowflake.streaming.max.client.lagSpecifies how often the connector flushes the data to Snowflake, in seconds.
- Valeurs:
Minimum :
1secondeMaximum :
600secondes
- Par défaut:
:code:`1`seconde
jvm.proxy.usernameNom d’utilisateur qui s’authentifie auprès du serveur proxy.
jvm.proxy.passwordMot de passe du nom d’utilisateur qui s’authentifie auprès du serveur proxy.
snowflake.jdbc.mapExemple :
"snowflake.jdbc.map": "networkTimeout:20,tracing:WARNING"Les propriétés JDBC supplémentaires (voir Référence Paramètre de connexion pilote JDBC) ne sont pas validées. Ces propriétés supplémentaires ne sont pas validées et ne doivent pas remplacer ni être utilisées à la place des propriétés obligatoires telles que :
jvm.proxy.xxx,snowflake.user.name,snowflake.private.key,snowflake.schema.nameetc.- Spécification de l’une des combinaisons suivantes :
Propriété
tracingavec variable d’environnementJDBC_TRACEPropriété
databaseavecsnowflake.database.name
Cela entraînera un comportement ambigu et le comportement sera déterminé par le pilote JDBC.
value.converter.basic.auth.credentials.sourceSi vous utilisez le format de données Avro et avez besoin d’un accès sécurisé au registre de schémas Kafka, définissez ce paramètre sur la chaîne « USER_INFO », puis définissez le paramètre
value.converter.basic.auth.user.infodécrit ci-dessous. Sinon, omettez ce paramètre.value.converter.basic.auth.user.infoSi vous utilisez le format de données Avro et avez besoin d’un accès sécurisé au registre de schémas Kafka, définissez ce paramètre sur la chaîne « <ID_utilisateur>:<motdepasse> », puis définissez le paramètre value.converter.basic.auth.credentials.source décrit ci-dessus. Sinon, omettez ce paramètre.
snowflake.metadata.createtimeSi la valeur est définie sur FALSE, la valeur de la propriété
CreateTimeest omise des métadonnées dans la colonne RECORD_METADATA. La valeur par défaut est TRUE.snowflake.metadata.topicSi la valeur est définie sur FALSE, la valeur de la propriété
topicest omise des métadonnées dans la colonne RECORD_METADATA. La valeur par défaut est TRUE.snowflake.metadata.offset.and.partitionSi la valeur est définie sur FALSE, les valeurs de propriété
OffsetetPartitionsont omises des métadonnées de la colonne RECORD_METADATA. La valeur par défaut est TRUE.snowflake.metadata.allSi la valeur est définie sur FALSE, les métadonnées de la colonne RECORD_METADATA sont complètement vides. La valeur par défaut est TRUE.
transformsSpécifier pour ignorer les enregistrements tombstone rencontrés par le connecteur Kafka et ne pas les charger dans la table cible. Un enregistrement de type tombstone est défini comme un enregistrement dont le champ de valeur est entièrement nul.
Définir la valeur de la propriété sur
"tombstoneHandlerExample".Note
Utilisez cette propriété uniquement avec les convertisseurs de communauté Kafka (c’est-à-dire la valeur de la propriété
value.converter) (par exempleorg.apache.kafka.connect.json.JsonConverterouorg.apache.kafka.connect.json.AvroConverter). Pour gérer le traitement des enregistrements tombstone avec les convertisseurs Snowflake, utilisez plutôt la propriétébehavior.on.null.values.transforms.tombstoneHandlerExample.typeRequis lors de la définition de la propriété
transforms.Définissez la valeur de la propriété sur
"io.confluent.connect.transforms.TombstoneHandler"behavior.on.null.valuesSpécifiez comment le connecteur Kafka doit traiter les enregistrements tombstone. Un enregistrement de type tombstone est défini comme un enregistrement dont le champ de valeur est entièrement nul. Pour Snowpipe, cette propriété est prise en charge par le connecteur Kafka version 1.5.5 et ultérieure. Pour Snowpipe Streaming, cette propriété est prise en charge par le connecteur Kafka à partir de la version 2.1.0.
Cette propriété prend en charge les valeurs suivantes :
DEFAULTLorsque le connecteur Kafka rencontre un enregistrement tombstone, il insère une chaîne JSON vide dans la colonne de contenu.
IGNORELe connecteur Kafka ignore les enregistrements tombstone et n’insère pas de lignes pour ces enregistrements.
La valeur par défaut est
DEFAULT.Note
L’ingestion des enregistrements tombstone varie selon les méthodes d’ingestion :
Pour Snowpipe, le connecteur Kafka utilise uniquement les convertisseurs Snowflake. Pour gérer le traitement des enregistrements tombstone avec les convertisseurs communautaires Kafka, utilisez plutôt les propriétés
transformettransforms.tombstoneHandlerExample.type.Pour Snowpipe Streaming, le connecteur Kafka utilise uniquement des convertisseurs communautaires.
Les enregistrements envoyés aux courtiers Kafka ne doivent pas être NULL, car ces enregistrements seront abandonnés par le connecteur Kafka, ce qui entraînera des décalages manquants. Les décalages manquants interrompront le connecteur Kafka dans des cas d’utilisation spécifiques. Il est recommandé d’utiliser les enregistrements tombstone plutôt que les enregistrements NULL.
Utilisation de l’authentification par paire de clés et rotation de clés¶
Le connecteur Kafka repose sur l’authentification par paire de clés au lieu de l’authentification par nom d’utilisateur et mot de passe. Cette méthode d’authentification nécessite une paire de clés de 2048 bits (minimum) RSA. Générez la paire de clés publiques-privées via OpenSSL. La clé publique est attribuée à l’utilisateur Snowflake défini dans le fichier de configuration.
Après avoir terminé les tâches d’authentification par paire de clés sur cette page et les tâches pour la rotation de paires de clés, évaluez la recommandation pour Externaliser les secrets, plus loin dans cette rubrique.
Pour configurer la paire de clés publiques/privées :
Depuis la ligne de commande d’une fenêtre de terminal, générez une clé privée.
Vous pouvez générer une version chiffrée ou non chiffrée de la clé privée.
Note
Le connecteur Kafka prend en charge des algorithmes de chiffrement validés pour répondre aux exigences de la norme Federal Information Processing Standard (140-2) (FIPS 140-2). Pour plus d’informations, voir FIPS 140-2.
Pour générer une version non chiffrée, utilisez la commande suivante :
$ openssl genrsa -out rsa_key.pem 2048
Pour générer une version chiffrée, utilisez la commande suivante :
$ openssl genrsa 2048 | openssl pkcs8 -topk8 -v2 <algorithm> -inform PEM -out rsa_key.p8
Où
<algorithme>est un algorithme de chiffrement conforme à FIPS 140-2.Par exemple, pour spécifier AES 256 comme algorithme de chiffrement :
$ openssl genrsa 2048 | openssl pkcs8 -topk8 -v2 aes256 -inform PEM -out rsa_key.p8
Si vous générez une version chiffrée de la clé privée, enregistrez la phrase secrète. Plus tard, vous spécifierez la phrase secrète dans la propriété
snowflake.private.key.passphrasedu fichier de configuration de Kafka.Exemple de clé privée PEM
-----BEGIN ENCRYPTED PRIVATE KEY----- MIIE6TAbBgkqhkiG9w0BBQMwDgQILYPyCppzOwECAggABIIEyLiGSpeeGSe3xHP1 wHLjfCYycUPennlX2bd8yX8xOxGSGfvB+99+PmSlex0FmY9ov1J8H1H9Y3lMWXbL ... -----END ENCRYPTED PRIVATE KEY-----
Depuis la ligne de commande, générez la clé publique en faisant référence à la clé privée :
En supposant que la clé privée soit chiffrée et contenue dans le fichier nommé
rsa_key.p8, utilisez la commande suivante :$ openssl rsa -in rsa_key.p8 -pubout -out rsa_key.pub
Exemple de clé publique PEM
-----BEGIN PUBLIC KEY----- MIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIBCgKCAQEAy+Fw2qv4Roud3l6tjPH4 zxybHjmZ5rhtCz9jppCV8UTWvEXxa88IGRIHbJ/PwKW/mR8LXdfI7l/9vCMXX4mk ... -----END PUBLIC KEY-----
Copiez les fichiers de clés publiques et privées dans un répertoire local en vue de leur stockage. Notez le chemin d’accès aux fichiers. La clé privée est stockée au format PKCS#8 (Public Key Cryptography Standards) et est chiffrée à l’aide de la phrase secrète que vous avez spécifiée à l’étape précédente ; toutefois, le fichier doit toujours être protégé contre tout accès non autorisé au moyen du mécanisme d’autorisation de fichier fourni par votre système d’exploitation. Il est de la responsabilité de l’utilisateur de sécuriser le fichier lorsqu’il n’est pas utilisé.
Connectez-vous à Snowflake. Attribuez la clé publique à l’utilisateur Snowflake en utilisant ALTER USER.
For example:
ALTER USER jsmith SET RSA_PUBLIC_KEY='MIIBIjANBgkqh...';
Note
Seuls les administrateurs de sécurité (c’est-à-dire les utilisateurs ayant le rôle SECURITYADMIN) ou ayant un rôle supérieur peuvent modifier un utilisateur.
Excluez l’en-tête et le pied de page de la clé publique dans l’instruction SQL.
Vérifiez l’empreinte de la clé publique de l’utilisateur en utilisant DESCRIBE USER :
DESC USER jsmith; +-------------------------------+-----------------------------------------------------+---------+-------------------------------------------------------------------------------+ | property | value | default | description | |-------------------------------+-----------------------------------------------------+---------+-------------------------------------------------------------------------------| | NAME | JSMITH | null | Name | ... ... | RSA_PUBLIC_KEY_FP | SHA256:nvnONUsfiuycCLMXIEWG4eTp4FjhVUZQUQbNpbSHXiA= | null | Fingerprint of user's RSA public key. | | RSA_PUBLIC_KEY_2_FP | null | null | Fingerprint of user's second RSA public key. | +-------------------------------+-----------------------------------------------------+---------+-------------------------------------------------------------------------------+
Note
La propriété
RSA_PUBLIC_KEY_2_FPest décrite dans Configuration de la rotation de paires de clés.Copiez et collez la clé privée complète dans le champ
snowflake.private.keydu fichier de configuration. Sauvegardez le fichier.
Externaliser les secrets¶
Snowflake recommande fortement d’externaliser des secrets tels que la clé privée et de les stocker sous une forme chiffrée ou dans un service de gestion de clés tel que AWS Key Management Service (KMS), Microsoft Azure Key Vault, ou HashiCorp Vault. Pour ce faire, utilisez une implémentation ConfigProvider sur votre cluster Kafka Connect.
Pour plus d’informations, voir la description de ce service par Confluent.
Starting the connector¶
Démarrez Kafka en suivant les instructions fournies dans la documentation tierce Confluent ou Apache Kafka. Vous pouvez démarrer le connecteur Kafka en mode distribué ou en mode autonome. Les instructions pour chacun sont indiquées ci-dessous :
Mode distribué¶
À partir d’une fenêtre de terminal, exécutez la commande suivante :
curl -X POST -H "Content-Type: application/json" --data @<path>/<config_file>.json http://localhost:8083/connectors
Mode autonome¶
À partir d’une fenêtre de terminal, exécutez la commande suivante :
<kafka_dir>/bin/connect-standalone.sh <kafka_dir>/<path>/connect-standalone.properties <kafka_dir>/config/SF_connect.properties
Note
(Une installation par défaut d’Apache Kafka ou de Confluent Kafka devrait déjà comprendre le fichier connect-standalone.properties).