CLI de Cortex Code¶
Cette rubrique vous aide à démarrer avec la CLI de Cortex Code, y compris l’installation, la configuration des connexions et la validation.
Avant de commencer, assurez-vous d’avoir un compte Snowflake avec accès aux modèles de Cortex requis. Voir Conditions préalables pour obtenir tous les détails.
Note
Si vous n’avez pas de compte Snowflake, vous pouvez `vous inscrire à une version d’essai gratuite de la CLI de Cortex Code<https://signup.snowflake.com/cortex-code>`_.
Installer la CLI de Cortex Code¶
La CLI Cortex Code est disponible pour Linux, macOS et Windows (via WSL et en version native). Utilisez les instructions ci-dessous pour installer la CLI Cortex Code sur votre plateforme.
Linux (y compris WSL) et macOS¶
Pour installer la CLI Cortex Code sous Linux, macOS ou WSL, exécutez la commande suivante dans un shell :
Cette commande télécharge et exécute le script d’installation, qui installe la dernière version de la CLI de Cortex Code. L’exécutable cortex est installé dans ~/.local/bin par défaut. Le script d’installation ajoute ce répertoire à votre PATH en modifiant le profil de votre shell.
Version native Windows¶
Pour installer la CLI Cortex Code sous Windows, exécutez la commande suivante dans PowerShell :
Cette commande télécharge et exécute le script d’installation, qui installe la dernière version de la CLI de Cortex Code. L’exécutable cortex est installé dans %LOCALAPPDATA%\cortex par défaut. Le script d’installation ajoute ce répertoire à votre PATH.
Après l’installation, appelez la CLI Cortex Code depuis la boîte de dialogue Exécuter (Win+R), Invite de commande (cmd.exe) ou PowerShell.
Se connecter à Snowflake¶
Après avoir installé la CLI de Cortex Code, exécutez la commande cortex. Un assistant de configuration vous aide à effectuer la configuration initiale, notamment à choisir ou configurer une connexion à Snowflake.
La première invite vous demande de choisir une connexion parmi les connexions existantes dans le fichier ~/.snowflake/connections.toml ou pour créer une nouvelle connexion.
Pour utiliser une connexion existante, sélectionnez la connexion dans la liste à l’aide des touches fléchées vers le haut et le bas, puis appuyez sur Entrée.
Pour créer une nouvelle connexion, choisissez More options* en appuyant sur la touche fléchée vers le bas jusqu’à ce qu’elle soit mise en surbrillance, puis appuyez sur la touche Entrée. Suivez les invites indiquant comment saisir les détails de votre compte Snowflake.
Note
Le fichier connections.toml est également utilisé par la CLI de Snowflake (commande snow). Si vous avez déjà configuré une connexion pour une utilisation avec la CLI de Snowflake, vous pouvez utiliser cette connexion avec la CLI de Cortex Code.
Commencer à utiliser Cortex Code¶
Une fois connecté, essayez votre première requête :
Requêtes de type langage naturel (telles que « trouver des tables avec les balises PII » ou « générer une application Streamlit pour SALES_MART.REVENUE« ») et Cortex Code tente de répondre à la demande en orchestrant les compétences natives de Snowflake et les outils MCP que vous avez configurés. Pour plus d’informations sur la configuration des outils MCP, voir Protocole de contexte de modèle (MCP).
Pendant qu’elle traite votre requête, la CLI de Cortex Code affiche ses étapes de raisonnement et ses actions dans le terminal. De temps à autre, elle peut vous demander des informations dont elle a besoin. Si vous êtes en mode plan, elle vous demandera de confirmer chaque action.
Exemples de requêtes¶
Découvrir votre catalogue¶
Générer et exécuter des commandes SQL¶
Créer des applications¶
Travailler avec Cortex Analyst¶
Conditions préalables¶
Pour utiliser la CLI de Cortex Code, vous avez besoin des éléments suivants :
Un compte d’utilisateur Snowflake avec les autorisations nécessaires pour accéder aux données que vous avez l’intention d’utiliser avec la CLI de Cortex Code et pour effectuer des opérations sur celles-ci. Cet utilisateur doit également disposer du rôle de base de données SNOWFLAKE.CORTEX_USER. (Au départ, tous les utilisateurs disposent du rôle SNOWFLAKE.CORTEX_USER par l’intermédiaire du rôle PUBLIC, mais votre organisation peut l’avoir explicitement révoqué pour mettre en œuvre un contrôle d’accès plus strict).
Accès réseau à votre serveur Snowflake.
La CLI Snowflake installée sur votre poste de travail.
L’une des plateformes prises en charge suivantes :
macOS sur Apple Silicon ou Intel
Linux sur Intel
Sous-système Windows pour Linux (WSL) sur Intel
Version native Windows sur Intel (en avant-première)
Note
Snowflake peut ajouter la prise en charge d’autres plateformes de temps à autre. Veuillez contacter votre représentant Snowflake si vous avez une exigence spécifique en matière de plateforme.
Accès du terminal local au shell
bash,zshoufishsur votre plateforme.
Pour plus d’options de configuration, et en savoir plus sur le dépannage et la configuration avancée, voir Référence CLI Cortex Code.
Plateformes et modèles pris en charge¶
Plateformes prises en charge¶
La CLI Cortex Code prend actuellement en charge les plateformes suivantes :
Plateforme |
Architecture |
|---|---|
macOS |
arm64, x64 |
Linux |
x64, arm64 |
Windows |
WSL sur x64/amd64
Version native sur x64 (en avant-première)
|
Note
Snowflake peut ajouter la prise en charge d’autres plateformes de temps à autre. Veuillez contacter votre représentant Snowflake si vous avez une exigence spécifique en matière de plateforme.
Modèles pris en charge¶
La CLI Cortex Code prend en charge les modèles suivants. Au moins l’un de ces modèles doit être disponible pour votre compte (par exemple, en étant inclus dans la liste d’autorisation de votre compte, CORTEX_MODELS_ALLOWLIST). Pour plus d’informations, voir Contrôle de l’accès au modèle.
Snowflake recommande de spécifier auto pour le modèle. Cortex sélectionne automatiquement le modèle de la plus haute qualité disponible sur votre compte. Lorsqu’un nouveau modèle, plus performant, est disponible, auto fait alors référence à ce modèle.
Pour choisir un modèle différent, utilisez la commande /model dans une session de la CLI de Cortex Code.
Modèle |
Identificateur |
|---|---|
Automatique |
|
Claude Opus 4.6 |
|
Claude Sonnet 4.6 |
|
Claude Opus 4.5 |
|
Claude Sonnet 4.5 |
|
Claude Sonnet 4.0 |
|
OpenAI GPT 5.2 |
|
La qualité et les capacités des modèles varient ; choisissez donc un modèle en fonction de vos besoins.
Régions Cloud¶
Si un modèle que vous souhaitez utiliser n’est pas disponible dans votre région, vous pouvez utiliser l’inférence interrégionale Cortex pour accéder au modèle dans une autre région où il est disponible. Pour plus d’informations sur la configuration de l’inférence interrégionale, voir Inférence interrégionale.
Cortex Code nécessite un ACCOUNTADMIN pour configurer CORTEX_ENABLED_CROSS_REGION à l’une des valeurs suivantes :
Le tableau suivant montre les modèles disponibles pour chaque paramètre d’inférence interrégionale :
Modèle
|
Inter-Cloud
(N’importe quelle région)
|
AWS US
(Inter-région)
|
AWS EU
(Inter-région)
|
AWS APJ
(Inter-région)
|
Azure US
(Inter-région)
|
Azure EU
(Inter-région)
|
|---|---|---|---|---|---|---|
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
✔ |
||
|
* |
* |
* Indique un modèle en avant-première. Les modèles de prévisualisation ne conviennent pas aux charges de travail de production.
Pour activer l’inférence interrégionale, un ACCOUNTADMIN doit exécuter :
Remplacez AWS_US par l’identificateur de région approprié.
Important
L’inférence interrégionale est nécessaire lorsque le modèle sélectionné n’est pas disponible dans votre région. Nous vous recommandons les paramètres suivants en fonction de vos besoins :
AWS_US : recommandé pour une expérience optimale avec les modèles Claude Opus 4.x.
AWS_EU : accès aux modèles Claude depuis l’EU.
AWS_APJ : accès aux modèles Claude depuis APJ (peut être limité à Claude Sonnet 4.0).
ANY_REGION : accès à tous les modèles disponibles (routage global optimisé selon la disponibilité).
AZURE_US : Accès OpenAI GPT 5.2.
Votre organisation peut restreindre l’accès aux modèles ; il est donc possible que vous n’ayez pas accès à tous les modèles. Voir Contrôle de l’accès au modèle pour plus de détails.
Avis juridiques¶
Lorsque votre configuration de Cortex Code utilise un modèle fourni conformément aux Conditions de répercussion relatives aux modèles et aux services, votre utilisation de ce modèle est en outre soumise aux conditions de ce modèle sur cette page.
La classification des données d’entrées et de sorties est présentée dans la table suivante.
Classification des données d’entrée |
Classification des données de sortie |
Désignation |
|---|---|---|
Usage Data |
Données sur les clients |
Fonctionnalités AI couvertes [1] |
Pour plus d’informations, reportez-vous à Snowflake AI et ML.
