Paramétrer le connecteur Openflow pour Microsoft Dataverse

Note

Le connecteur est soumis aux conditions d’utilisation du connecteur.

Cette rubrique décrit les paramètres de l’ensemble du connecteur Openflow pour Microsoft Dataverse.

Conditions préalables

  1. Assurez-vous d’avoir consulté À propos de Openflow Connector for Microsoft Dataverse.

  2. Assurez-vous d’avoir Configuration d’Openflow - BYOC ou Configuration d’Openflow - Déploiement Snowflake - Vue d’ensemble des tâches.

Obtenir les identifiants de connexion

En tant qu’administrateur Microsoft Dataverse, effectuez les étapes suivantes :

  1. Assurez-vous que vous disposez d’un environnement Dataverse avec lequel travailler et que vous avez accès à cet environnement via https://admin.powerplatform.microsoft.com/.

  2. Assurez-vous d’avoir une application enregistrée dans Microsoft Entra ID sur portail.azure.com. Cette application doit avoir accès au client pour lequel notre environnement Dataverse est disponible. Pour enregistrer l’application, suivez ce guide.

  3. Générer et stocker l’ClientID et le secret du client dans cette application.

  4. Accédez au Centre d’administration de Power Apps et configurez votre environnement Dataverse pour qu’il soit accessible via des applications enregistrées au préalable. Pour ce faire, accédez à Manage » Environments et sélectionnez l’environnement à configurer. Rendez-vous ensuite dans Settings » Users & permissions » Application users. Les applications précédemment créées doivent être ajoutées et se voir accorder les privilèges nécessaires pour lire les données de Microsoft Dataverse.

  5. Copiez et enregistrez l’URL de l’environnement Dataverse sélectionné à partir de https://admin.powerplatform.microsoft.com/.

Paramétrage du compte Snowflake

En tant qu’administrateur de compte Snowflake, effectuez les tâches suivantes :

  1. Créez un utilisateur Snowflake avec le type SERVICE.

    Créez une base de données et un schéma pour stocker les données répliquées et définissez les privilèges de l’utilisateur du service pour créer des tables dans le schéma de destination en accordant les privilèges USAGE et CREATE TABLE.

    CREATE DATABASE <destination_database>;
    CREATE SCHEMA <destination_database>.<destination_schema>;
    CREATE USER <openflow_user> TYPE=SERVICE COMMENT='Service user for automated access of Openflow';
    CREATE ROLE <openflow_role>;
    GRANT ROLE <openflow_role> TO USER <openflow_user>;
    GRANT USAGE ON DATABASE <destination_database> TO ROLE <openflow_role>;
    GRANT USAGE ON SCHEMA <destination_database>.<destination_schema> TO ROLE <openflow_role>;
    GRANT CREATE TABLE ON SCHEMA <destination_database>.<destination_schema> TO ROLE <openflow_role>;
    CREATE WAREHOUSE <openflow_warehouse>
         WITH
             WAREHOUSE_SIZE = 'SMALL'
             AUTO_SUSPEND = 300
             AUTO_RESUME = TRUE;
    GRANT USAGE, OPERATE ON WAREHOUSE <openflow_warehouse> TO ROLE <openflow_role>;
    
    Copy
    1. Créez une paire de clés sécurisées (publique et privée). Stockez la clé privée de l’utilisateur dans un fichier à fournir à la configuration du connecteur. Attribuez la clé publique à l’utilisateur du service Snowflake :

      ALTER USER <openflow_user> SET RSA_PUBLIC_KEY = 'thekey';
      
      Copy

      Pour plus d’informations, voir paire de clés.

  2. Snowflake recommande vivement cette étape. Configurez un gestionnaire de secrets pris en charge par Openflow, par exemple AWS, Azure et Hashicorp, et stockez les clés publiques et privées dans le magasin de secrets.

    Note

    Si, pour une raison quelconque, vous ne souhaitez pas utiliser un gestionnaire de secrets, il vous incombe de protéger les fichiers de clés publiques et privées utilisés pour l’authentification par paires de clés conformément aux politiques de sécurité de votre organisation.

    1. Une fois le gestionnaire de secrets configuré, déterminez comment vous vous y authentifierez. Sur AWS, il est recommandé d’utiliser le rôle de l’instance EC2 associée à Openflow, car de cette manière, aucun autre secret ne doit être conservé.

    2. Dans Openflow, configurez un fournisseur de paramètres associé à ce gestionnaire de secrets, à partir du menu hamburger en haut à droite. Naviguez jusqu’à Controller Settings » Parameter Provider, puis récupérez vos valeurs de paramètres.

    3. À ce stade, tous les identifiants peuvent être référencés avec les chemins de paramètres associés et aucune valeur sensible ne doit être conservée dans Openflow.

  3. Si d’autres utilisateurs de Snowflake ont besoin d’accéder aux documents bruts ingérés et aux tables ingérées par le connecteur (par exemple, pour un traitement personnalisé dans Snowflake), accordez à ces utilisateurs le rôle créé à l’étape 1.

  4. Désignez un entrepôt à utiliser par le connecteur. Accordez le privilège USAGE pour l’entrepôt au rôle créé précédemment. Commencez par la taille d’entrepôt la plus petite, puis faites des essais en fonction du nombre de tables répliquées et de la quantité de données transférées. Les tables de grande taille s’adaptent généralement mieux aux entrepôts multi-clusters, plutôt qu’aux entrepôts de grande taille.

Définir le connecteur

En tant qu’ingénieur des données, effectuez les tâches suivantes pour installer et configurer le connecteur :

Installer le connecteur

  1. Naviguez jusqu’à la page d’aperçu d’Openflow. Dans la section Featured connectors, sélectionnez View more connectors.

  2. Sur la page des connecteurs Openflow, trouvez le connecteur et sélectionnez Add to runtime.

  3. Dans la boîte de dialogue Select runtime, sélectionnez votre environnement d’exécution dans la liste déroulante Available runtimes.

  4. Sélectionnez Add.

    Note

    Avant d’installer le connecteur, assurez-vous que vous avez créé une base de données et un schéma dans Snowflake pour que le connecteur puisse stocker les données ingérées.

  5. Authentifiez-vous au déploiement avec les identifiants de votre compte Snowflake et sélectionnez Allow lorsque vous êtes invité à autoriser l’application d’exécution à accéder à votre compte Snowflake. Le processus d’installation du connecteur prend quelques minutes.

  6. Authentifiez-vous auprès de l’environnement d’exécution avec les identifiants de votre compte Snowflake.

Le canevas Openflow apparaît avec le groupe de processus du connecteur ajouté.

Configuration du connecteur

  1. Cliquez avec le bouton droit de la souris sur le groupe de processus importé et sélectionnez Parameters.

  2. Renseignez les valeurs des paramètres requis comme décrit dans Paramètres de débit.

Paramètres de débit

Cette section décrit les paramètres de flux que vous pouvez configurer en fonction des contextes de paramètres suivants :

Paramètres de la source Dataverse

Paramètre

Description

URL d’environnement source Dataverse

L’identificateur principal d’un système source pour la recherche de données. L’URL indique un espace de noms dans lequel des tables Dataverse existent. Elle vous permet également de créer un paramètre de champ d’application pour OAuth.

ID du client source

ID du client Microsoft Azure. Utilisé pour créer des URLs OAuth. L’environnement Microsoft Dataverse doit appartenir à ce client.

ID client source OAuth

ID du client Microsoft Azure utilisé pour accéder à l’API Microsoft Dataverse. L’API Microsoft Dataverse Web utilise l’authentificationOAuth pour un accès sécurisé, et le connecteur utilise le flux d’identifiants de connexion du client. Pour en savoir plus sur l’ID client et comment le trouver dans Microsoft Entra, voir ` ID d’application (ID client) <https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application#application-id-client-id>`_.

OAuth source secret du client

Secret client Microsoft Azure utilisée pour accéder à l’API Microsoft Dataverse . L’API Microsoft Dataverse Web utilise l’authentification OAuth pour un accès sécurisé, et le connecteur utilise le flux d’identifiants de connexion du client. Pour en savoir plus sur le secret client et sur la façon de le trouver dans Microsoft Entra, voir Certificats et secrets.

Paramètres de destination du Dataverse

Paramètre

Description

Obligatoire

Base de données de destination

La base de données dans laquelle les données seront conservées. Elle doit déjà exister dans Snowflake. Le nom est sensible à la casse. Pour les identificateurs sans guillemets, indiquez le nom en majuscules.

Oui

Schéma de destination

Le schéma dans lequel les données seront conservées, qui doit déjà exister dans Snowflake. Le nom est sensible à la casse. Pour les identificateurs sans guillemets, indiquez le nom en majuscules.

Voir l’exemple suivant :

  • CREATE SCHEMA SCHEMA_NAME ou CREATE SCHEMA schema_name : utilisez SCHEMA_NAME.

  • CREATE SCHEMA "schema_name" ou CREATE SCHEMA "SCHEMA_NAME" : utilisez schema_name ou SCHEMA_NAME, respectivement.

Oui

Identificateur de compte Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : doit être vide.

  • KEY_PAIR : nom du compte Snowflake au format [nom-organisation]-[nom-compte] où les données seront conservées.

Oui

Stratégie d’authentification Snowflake

Lorsque vous utilisez :

  • Déploiement Snowflake Openflow : Utilisez SNOWFLAKE_SESSION_TOKEN. Ce jeton est géré automatiquement par Snowflake.

  • BYOC : utilisez KEY_PAIR comme valeur pour la stratégie d’authentification.

Oui

Clé privée de Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : doit être vide.

  • KEY_PAIR : Doit correspondre à la clé privée RSA utilisée pour l’authentification.

    La clé RSA doit être formatée conformément aux normes PKCS8 et posséder des en-têtes et des pieds de page PEM standards. Notez que le fichier de la clé privée Snowflake ou que la clé privée Snowflake doit être défini.

Non

Fichier de clé privée de Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : Le fichier de la clé privée doit être vide.

  • KEY_PAIR : Chargez le fichier qui contient la clé privée RSA utilisée pour l’authentification auprès de Snowflake, formatée conformément aux normes PKCS8 et possédant des en-têtes et des pieds de page PEM standards. La ligne d’en-tête commence par -----BEGIN PRIVATE. Pour charger le fichier de la clé privée, cochez la case Reference asset.

Non

Mot de passe de la clé privée de Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : doit être vide.

  • KEY_PAIR : fournissez le mot de passe associé au fichier de la clé privée Snowflake.

Non

Rôle Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : Utilisez votre rôle d’exécution. Vous pouvez trouver votre rôle d’exécution dans l’UI d’Openflow, en naviguant jusqu’à View Details pour votre exécution.

  • Stratégie d’authentification KEY_PAIR : Utilisez un rôle valide configuré pour votre utilisateur de service.

Oui

Nom d’utilisateur Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : doit être vide.

  • KEY_PAIR : indiquez le nom d’utilisateur utilisé pour vous connecter à l’instance Snowflake.

Oui

Entrepôt Snowflake

Entrepôt Snowflake utilisé pour exécuter des requêtes.

Oui

Paramètres d’ingestion Dataverse

Paramètre

Description

Intervalle de planification

Intervalle à utiliser comme intervalle déclencheur pour le processeur qui doit récupérer la liste des tables et lancer l’ingestion.

Stratégie de filtrage des tables sources

Stratégie de filtrage des tables à ingérer. Il peut s’agir de l’un desREGEXP et LIST.

Valeur de filtrage des tables sources

Valeur du filtre des tables. Lorsque la stratégie de filtrage des tables sources est paramétrée sur REGEXP, il s’agit de l’expression régulière qui doit correspondre aux tables sélectionnées. Si LIST est fourni, il s’agit d’une liste de noms de tables séparés par des virgules.

Exécutez le flux

  1. Cliquez avec le bouton droit de la souris sur l’avion et sélectionnez Enable all Controller Services.

  2. Cliquez avec le bouton droit de la souris sur le groupe de processus importé et sélectionnez Start. Le connecteur démarre l’ingestion des données.