Paramétrez Openflow Connector for LinkedIn Ads

Note

Le connecteur est soumis aux conditions d’utilisation du connecteur.

Cette rubrique décrit les étapes pour paramétrer Openflow Connector for LinkedIn Ads.

Conditions préalables

  1. Assurez-vous d’avoir consulté À propos de Openflow Connector for LinkedIn Ads.

  2. Assurez-vous d’avoir Configuration d’Openflow - BYOC ou Configuration d’Openflow - Déploiement Snowflake - Vue d’ensemble des tâches.

Obtenir les identifiants de connexion

  1. En tant qu’utilisateur de LinkedIn Ads, effectuez les tâches suivantes :

    1. Facultatif : si vous n’avez pas de compte publicitaire pour exécuter et gérer des campagnes, vous devez en créer un.

    2. Assurez-vous que le compte utilisateur https://www.linkedin.com/help/lms/answer/a417905?trk=hc-articlePage-peopleAlsoViewed a au moins un rôle VIEWER sur le compte publicitaire.

    3. Utilisez le compte utilisateur pour demander l’accès à l’API Advertising. Pour plus d’informations, consultez Microsoft quick start.

    4. Obtenez un jeton d’actualisation https://learn.microsoft.com/en-us/linkedin/shared/authentication/developer-portal-tools?context=linkedin%2Fcontext#generate-a-token-in-the-developer-portal. Utilisez 3-legged oAuth et le champ d’application r_ads_reporting.

    5. Obtenez l’ID client et le secret client dans le Portail du développeur LinkedIn. Ces identifiants de connexion sont disponibles dans l’onglet Auth dans Détails de l’application.

Paramétrage du compte Snowflake

En tant qu’administrateur de compte Snowflake, effectuez les tâches suivantes :

  1. Créez un nouveau rôle ou utilisez un rôle existant.

  2. Créez un nouvel utilisateur du service Snowflake avec le type SERVICE.

  3. Autorisez l’utilisateur du service Snowflake le rôle que vous avez créé dans les étapes précédentes.

  4. Configurez avec l’authentification par paire de clés pour l’utilisateur de Snowflake SERVICE de l’étape 2.

  5. Snowflake recommande vivement cette étape. Configurez un gestionnaire de secrets pris en charge par Openflow, par exemple AWS, Azure et Hashicorp, et stockez les clés publiques et privées dans le magasin de secrets.

    Note

    Si, pour une raison quelconque, vous ne souhaitez pas utiliser un gestionnaire de secrets, il vous incombe de protéger les fichiers de clés publiques et privées utilisés pour l’authentification par paires de clés conformément aux politiques de sécurité de votre organisation.

  6. Une fois le gestionnaire de secrets configuré, déterminez comment vous vous y authentifierez. Sur AWS, il est recommandé d’utiliser le rôle de l’instance EC2 associée à Openflow, car de cette manière, aucun autre secret ne doit être conservé.

  7. Dans Openflow, configurez un fournisseur de paramètres associé à ce gestionnaire de secrets, à partir du menu hamburger en haut à droite. Naviguez jusqu’à Controller Settings » Parameter Provider, puis récupérez vos valeurs de paramètres.

  8. À ce stade, tous les identifiants peuvent être référencés avec les chemins de paramètres associés et aucune valeur sensible ne doit être conservée dans Openflow.

  9. Si d’autres utilisateurs de Snowflake ont besoin d’accéder aux documents bruts ingérés et aux tables ingérées par le connecteur (par exemple, pour un traitement personnalisé dans Snowflake), accordez à ces utilisateurs le rôle créé à l’étape 1.

  10. Créez une base de données et un schéma dans Snowflake pour que le connecteur puisse stocker les données ingérées. Accordez les Privilèges de base de données requis au rôle créé lors de la première étape. Remplacez l’espace réservé au rôle par la valeur réelle et utilisez les commandes SQL suivantes :

    CREATE DATABASE linkedin_destination_db;
    CREATE SCHEMA linkedin_destination_db.linkedin_destination_schema;
    GRANT USAGE ON DATABASE linkedin_destination_db TO ROLE <linkedin_connector_role>;
    GRANT USAGE ON SCHEMA linkedin_destination_db.linkedin_destination_schema TO ROLE <linkedin_connector_role>;
    GRANT CREATE TABLE ON SCHEMA linkedin_destination_db.linkedin_destination_schema TO ROLE <linkedin_connector_role>;
    
    Copy
  11. Créez un entrepôt qui sera utilisé par le connecteur ou utilisez un entrepôt existant. Commencez par la taille d’entrepôt la plus petite, puis faites des essais en fonction du nombre de tables répliquées et de la quantité de données transférées. Les tables de grande taille s’adaptent généralement mieux aux entrepôts multi-clusters, plutôt qu’aux entrepôts de grande taille.

  12. Assurez-vous que l’utilisateur dont le rôle est utilisé par le connecteur dispose des privilèges requis pour utiliser l’entrepôt. Si ce n’est pas le cas, accordez les privilèges requis au rôle.

    CREATE WAREHOUSE linkedin_connector_warehouse WITH WAREHOUSE_SIZE = 'X-Small';
    GRANT USAGE ON WAREHOUSE linkedin_connector_warehouse TO ROLE <linkedin_connector_role>;
    
    Copy

Définir le connecteur

En tant qu’ingénieur des données, effectuez les tâches suivantes pour installer et configurer le connecteur :

Installer le connecteur

  1. Créez une base de données et un schéma dans Snowflake pour que le connecteur puisse stocker les données ingérées. Accordez les Privilèges de base de données requis au rôle créé lors de la première étape. Remplacez l’espace réservé au rôle par la valeur réelle et utilisez les commandes SQL suivantes :

    CREATE DATABASE DESTINATION_DB;
    CREATE SCHEMA DESTINATION_DB.DESTINATION_SCHEMA;
    GRANT USAGE ON DATABASE DESTINATION_DB TO ROLE <CONNECTOR_ROLE>;
    GRANT USAGE ON SCHEMA DESTINATION_DB.DESTINATION_SCHEMA TO ROLE <CONNECTOR_ROLE>;
    GRANT CREATE TABLE, CREATE PIPE ON SCHEMA DESTINATION_DB.DESTINATION_SCHEMA TO ROLE <CONNECTOR_ROLE>;
    
    Copy
  1. Naviguez jusqu’à la page d’aperçu d’Openflow. Dans la section Featured connectors, sélectionnez View more connectors.

  2. Sur la page des connecteurs Openflow, trouvez le connecteur et sélectionnez Add to runtime.

  3. Dans la boîte de dialogue Select runtime, sélectionnez votre environnement d’exécution dans la liste déroulante Available runtimes.

  4. Sélectionnez Add.

    Note

    Avant d’installer le connecteur, assurez-vous que vous avez créé une base de données et un schéma dans Snowflake pour que le connecteur puisse stocker les données ingérées.

  5. Authentifiez-vous au déploiement avec les identifiants de votre compte Snowflake et sélectionnez Allow lorsque vous êtes invité à autoriser l’application d’exécution à accéder à votre compte Snowflake. Le processus d’installation du connecteur prend quelques minutes.

  6. Authentifiez-vous auprès de l’environnement d’exécution avec les identifiants de votre compte Snowflake.

Le canevas Openflow apparaît avec le groupe de processus du connecteur ajouté.

Configuration du connecteur

Note

Chaque groupe de processus est chargé de récupérer les données pour une seule configuration de rapport. Pour utiliser plusieurs configurations selon une planification régulière, créez un groupe de processus distinct pour chaque configuration de rapport.

  1. Cliquez avec le bouton droit de la souris sur le groupe de processus importé et sélectionnez Parameters.

  2. Renseignez les valeurs des paramètres requis comme décrit dans Paramètres de débit.

Paramètres de débit

Cette section décrit les paramètres de flux que vous pouvez configurer en fonction des contextes de paramètres suivants :

Paramètres de la source Linkedin Ads

Paramètre

Description

ID de client

L’ID client d’une application enregistrée sur LinkedIn

Secret du client

Le secret du client lié à l’ID du client

Jeton d’actualisation

Un utilisateur obtient le jeton d’actualisation après le processus d’enregistrement de l’app. Il l’utilise avec l’ID et le secret du client pour obtenir un jeton d’accès.

Point de terminaison du jeton

Le point de terminaison du jeton est obtenu par un utilisateur au cours du processus d’enregistrement de l’app

Paramètres de destination Linkedin Ads

Paramètre

Description

Obligatoire

Base de données de destination

La base de données dans laquelle les données seront conservées. Elle doit déjà exister dans Snowflake. Le nom est sensible à la casse. Pour les identificateurs sans guillemets, indiquez le nom en majuscules.

Oui

Schéma de destination

Le schéma dans lequel les données seront conservées, qui doit déjà exister dans Snowflake. Le nom est sensible à la casse. Pour les identificateurs sans guillemets, indiquez le nom en majuscules.

Voir l’exemple suivant :

  • CREATE SCHEMA SCHEMA_NAME ou CREATE SCHEMA schema_name : utilisez SCHEMA_NAME.

  • CREATE SCHEMA "schema_name" ou CREATE SCHEMA "SCHEMA_NAME" : utilisez schema_name ou SCHEMA_NAME, respectivement.

Oui

Identificateur de compte Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : doit être vide.

  • KEY_PAIR : nom du compte Snowflake au format [nom-organisation]-[nom-compte] où les données seront conservées.

Oui

Stratégie d’authentification Snowflake

Lorsque vous utilisez :

  • Déploiement Snowflake Openflow : Utilisez SNOWFLAKE_SESSION_TOKEN. Ce jeton est géré automatiquement par Snowflake.

  • BYOC : utilisez KEY_PAIR comme valeur pour la stratégie d’authentification.

Oui

Clé privée de Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : doit être vide.

  • KEY_PAIR : Doit correspondre à la clé privée RSA utilisée pour l’authentification.

    La clé RSA doit être formatée conformément aux normes PKCS8 et posséder des en-têtes et des pieds de page PEM standards. Notez que le fichier de la clé privée Snowflake ou que la clé privée Snowflake doit être défini.

Non

Fichier de clé privée de Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : Le fichier de la clé privée doit être vide.

  • KEY_PAIR : Chargez le fichier qui contient la clé privée RSA utilisée pour l’authentification auprès de Snowflake, formatée conformément aux normes PKCS8 et possédant des en-têtes et des pieds de page PEM standards. La ligne d’en-tête commence par -----BEGIN PRIVATE. Pour charger le fichier de la clé privée, cochez la case Reference asset.

Non

Mot de passe de la clé privée de Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : doit être vide.

  • KEY_PAIR : fournissez le mot de passe associé au fichier de la clé privée Snowflake.

Non

Rôle Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : Utilisez votre rôle d’exécution. Vous pouvez trouver votre rôle d’exécution dans l’UI d’Openflow, en naviguant jusqu’à View Details pour votre exécution.

  • Stratégie d’authentification KEY_PAIR : Utilisez un rôle valide configuré pour votre utilisateur de service.

Oui

Nom d’utilisateur Snowflake

Lorsque vous utilisez :

  • Stratégie d’authentification par jeton de session : doit être vide.

  • KEY_PAIR : indiquez le nom d’utilisateur utilisé pour vous connecter à l’instance Snowflake.

Oui

Entrepôt Snowflake

Entrepôt Snowflake utilisé pour exécuter des requêtes.

Oui

Paramètres d’ingestion de Linkedin Ads

La table suivante dresse la liste des paramètres qui ne sont pas hérités des autres contextes de paramètres :

Paramètre

Description

Report Name

Le nom unique du rapport. Il est en majuscules et utilisé comme nom de la table de destination.

Date de début

Date à partir de laquelle l’ingestion doit commencer. Doit se trouver dans le format aaaa-MM-jj.

Granularité temporelle

Granularité temporelle des résultats. Valeurs possibles :

  • ALL: Résultats regroupés en un seul résultat sur l’ensemble de la plage temporelle du rapport.

  • DAILY: Résultats regroupés par jour.

  • MONTHLY: Résultats regroupés par mois.

  • YEARLY: Résultats regroupés par année.

Fenêtre de conversion

Délai pendant lequel les données sont actualisées lors d’un chargement incrémentiel lorsque la granularité temporelle DAILY est choisie. Par exemple, si la fenêtre de conversion https://www.linkedin.com/help/lms/answer/a426359 est égale à 30 jours, lors du chargement INCREMENTAL, l’ingestion commence à la date de la dernière ingestion réussie moins 30 jours.

Requis lorsque la granularité temporelle DAILY est spécifiée. Pour d’autres granularités temporelles possibles, telles que ALL, MONTHLY et YEARLY, la stratégie d’ingestion SNAPSHOT est utilisée. Les données de la date de début à la date actuelle sont toujours téléchargées, de sorte qu’il n’est pas nécessaire d’utiliser une fenêtre de conversion.

La fenêtre de conversion peut être un nombre quelconque compris entre 1 et 365.

Métriques

Liste de métriques séparées par des virgules. Les métriques sont sensibles à la casse. Pour plus d’informations, voir. Rapports.

Les mesures pivotValues et dateRange sont obligatoires et sont automatiquement incluses par le connecteur.

Vous pouvez spécifier jusqu’à 20 mesures, y compris les mesures obligatoires.

Pivots

Liste de pivots séparés par des virgules. Les pivots disponibles sont les suivants :

Le connecteur utilise l’outil de recherche analytique lorsque zéro ou un pivot est spécifié, et passe à l’outil de recherche statistique lorsque deux ou trois pivots sont sélectionnés. Vous pouvez utiliser trois pivots au maximum.

Partages

Liste d’IDs de partage séparés par des virgules. Ce paramètre peut être utilisé pour filtrer les résultats par ID de partage.

Campagnes

Liste d’IDs de campagne séparés par des virgules. Ce paramètre peut être utilisé pour filtrer les résultats par ID de campagne.

Groupes de campagne

Liste d’IDs de groupe de campagne séparés par des virgules. Ce paramètre peut être utilisé pour filtrer les résultats par ID de groupe de campagne.

Comptes

Liste d’IDs de compte séparés par des virgules. Ce paramètre peut être utilisé pour filtrer les résultats par ID de compte.

Entreprises

Liste d’IDs d’entreprise séparés par des virgules. Ce paramètre peut être utilisé pour filtrer les résultats par ID d’entreprise.

Note

Vous devez spécifier au moins un des filtres, à savoir les actions, les campagnes, les groupes de campagnes, les comptes ou les entreprises.

Exécutez le flux

  1. Cliquez avec le bouton droit de la souris sur l’avion et sélectionnez Enable all Controller Services.

  2. Cliquez avec le bouton droit de la souris sur le groupe de processus importé et sélectionnez Start.

    Le connecteur démarre l’ingestion des données.