CLI de Cortex Code

Cette rubrique vous aide à démarrer avec la CLI de Cortex Code, y compris l’installation, la configuration des connexions et la validation.

Avant de commencer, assurez-vous d’avoir un compte Snowflake avec accès aux modèles de Cortex requis. Voir Conditions préalables pour obtenir tous les détails.

Installer la CLI de Cortex Code

La CLI Cortex Code est disponible pour Linux, macOS et Windows (via WSL et en version native). Utilisez les instructions ci-dessous pour installer la CLI Cortex Code sur votre plateforme.

Linux (y compris WSL) et macOS

Pour installer la CLI Cortex Code sous Linux, macOS ou WSL, exécutez la commande suivante dans un shell :

curl -LsS https://ai.snowflake.com/static/cc-scripts/install.sh | sh

Cette commande télécharge et exécute le script d’installation, qui installe la dernière version de la CLI de Cortex Code. L’exécutable cortex est installé dans ~/.local/bin par défaut. Le script d’installation ajoute ce répertoire à votre PATH en modifiant le profil de votre shell.

Version native Windows

Pour installer la CLI Cortex Code sous Windows, exécutez la commande suivante dans PowerShell :

irm https://ai.snowflake.com/static/cc-scripts/install.ps1 | iex

Cette commande télécharge et exécute le script d’installation, qui installe la dernière version de la CLI de Cortex Code. L’exécutable cortex est installé dans %LOCALAPPDATA%\cortex par défaut. Le script d’installation ajoute ce répertoire à votre PATH.

Après l’installation, appelez la CLI Cortex Code depuis la boîte de dialogue Exécuter (Win+R), Invite de commande (cmd.exe) ou PowerShell.

Se connecter à Snowflake

Après avoir installé la CLI de Cortex Code, exécutez la commande cortex. Un assistant de configuration vous aide à effectuer la configuration initiale, notamment à choisir ou configurer une connexion à Snowflake.

La première invite vous demande de choisir une connexion parmi les connexions existantes dans le fichier ~/.snowflake/connections.toml ou pour créer une nouvelle connexion.

  • Pour utiliser une connexion existante, sélectionnez la connexion dans la liste à l’aide des touches fléchées vers le haut et le bas, puis appuyez sur Entrée.

  • Pour créer une nouvelle connexion, choisissez More options* en appuyant sur la touche fléchée vers le bas jusqu’à ce qu’elle soit mise en surbrillance, puis appuyez sur la touche Entrée. Suivez les invites indiquant comment saisir les détails de votre compte Snowflake.

Note

Le fichier connections.toml est également utilisé par la CLI de Snowflake (commande snow). Si vous avez déjà configuré une connexion pour une utilisation avec la CLI de Snowflake, vous pouvez utiliser cette connexion avec la CLI de Cortex Code.

Commencer à utiliser Cortex Code

Une fois connecté, essayez votre première requête :

What can I do with Cortex Code?

Requêtes de type langage naturel (telles que « trouver des tables avec les balises PII » ou « générer une application Streamlit pour SALES_MART.REVENUE« ») et Cortex Code tente de répondre à la demande en orchestrant les compétences natives de Snowflake et les outils MCP que vous avez configurés. Pour plus d’informations sur la configuration des outils MCP, voir Protocole de contexte de modèle (MCP).

Pendant qu’elle traite votre requête, la CLI de Cortex Code affiche ses étapes de raisonnement et ses actions dans le terminal. De temps à autre, elle peut vous demander des informations dont elle a besoin. Si vous êtes en mode plan, elle vous demandera de confirmer chaque action.

Exemples de requêtes

Découvrir votre catalogue

What databases do I have access to?
List every table tagged PII = TRUE in ANALYTICS_DB
Show the lineage from RAW_DB.ORDERS to downstream dashboards

Générer et exécuter des commandes SQL

Write a query for top 10 customers by revenue
Add a 7-day moving average and show me the results
Explain why this query is slow and optimize it

Créer des applications

Build a Streamlit dashboard on SALES_MART.REVENUE with filters for date and region
Create a dbt project to transform raw sales data

Travailler avec Cortex Analyst

Use the @models/revenue.yaml semantic model to answer "What was revenue last month?"
Debug my semantic model at @models/revenue.yaml

Conditions préalables

Pour utiliser la CLI de Cortex Code, vous avez besoin des éléments suivants :

  • Un compte d’utilisateur Snowflake avec les autorisations nécessaires pour accéder aux données que vous avez l’intention d’utiliser avec la CLI de Cortex Code et pour effectuer des opérations sur celles-ci. Cet utilisateur doit également disposer du rôle de base de données SNOWFLAKE.CORTEX_USER. (Au départ, tous les utilisateurs disposent du rôle SNOWFLAKE.CORTEX_USER par l’intermédiaire du rôle PUBLIC, mais votre organisation peut l’avoir explicitement révoqué pour mettre en œuvre un contrôle d’accès plus strict).

  • Accès réseau à votre serveur Snowflake.

  • La CLI Snowflake installée sur votre poste de travail.

  • L’une des plateformes prises en charge suivantes :

    • macOS sur Apple Silicon ou Intel

    • Linux sur Intel

    • Sous-système Windows pour Linux (WSL) sur Intel

    • Version native Windows sur Intel (en avant-première)

    Note

    Snowflake peut ajouter la prise en charge d’autres plateformes de temps à autre. Veuillez contacter votre représentant Snowflake si vous avez une exigence spécifique en matière de plateforme.

  • Accès du terminal local au shell bash, zsh ou fish sur votre plateforme.

Pour plus d’options de configuration, et en savoir plus sur le dépannage et la configuration avancée, voir Référence CLI Cortex Code.

Plateformes et modèles pris en charge

Plateformes prises en charge

La CLI Cortex Code prend actuellement en charge les plateformes suivantes :

Plateforme

Architecture

macOS

arm64, x64

Linux

x64, arm64

Windows

WSL sur x64/amd64
Version native sur x64 (en avant-première)

Note

Snowflake peut ajouter la prise en charge d’autres plateformes de temps à autre. Veuillez contacter votre représentant Snowflake si vous avez une exigence spécifique en matière de plateforme.

Modèles pris en charge

La CLI Cortex Code prend en charge les modèles suivants. Au moins l’un de ces modèles doit être disponible pour votre compte (par exemple, en étant inclus dans la liste d’autorisation de votre compte, CORTEX_MODELS_ALLOWLIST). Pour plus d’informations, voir Contrôle de l’accès au modèle.

Snowflake recommande de spécifier auto pour le modèle. Cortex sélectionne automatiquement le modèle de la plus haute qualité disponible sur votre compte. Lorsqu’un nouveau modèle, plus performant, est disponible, auto fait alors référence à ce modèle.

Pour choisir un modèle différent, utilisez la commande /model dans une session de la CLI de Cortex Code.

Modèle

Identificateur

Automatique

auto

Claude Opus 4.6

claude-opus-4-6

Claude Sonnet 4.6

claude-sonnet-4-6

Claude Opus 4.5

claude-opus-4-5

Claude Sonnet 4.5

claude-sonnet-4-5

Claude Sonnet 4.0

claude-4-sonnet

OpenAI GPT 5.2

openai-gpt-5.2

La qualité et les capacités des modèles varient ; choisissez donc un modèle en fonction de vos besoins.

Régions Cloud

Si un modèle que vous souhaitez utiliser n’est pas disponible dans votre région, vous pouvez utiliser l’inférence interrégionale Cortex pour accéder au modèle dans une autre région où il est disponible. Pour plus d’informations sur la configuration de l’inférence interrégionale, voir Inférence interrégionale.

Cortex Code nécessite un ACCOUNTADMIN pour configurer CORTEX_ENABLED_CROSS_REGION à l’une des valeurs suivantes :

Le tableau suivant montre les modèles disponibles pour chaque paramètre d’inférence interrégionale :

Modèle
Inter-Cloud
(N’importe quelle région)
AWS US
(Inter-région)
AWS EU
(Inter-région)
AWS APJ
(Inter-région)
Azure US
(Inter-région)
Azure EU
(Inter-région)

claude-opus-4-6

claude-sonnet-4-6

claude-opus-4-5

claude-sonnet-4-5

claude-4-sonnet

openai-gpt-5.2

*

*

* Indique un modèle en avant-première. Les modèles de prévisualisation ne conviennent pas aux charges de travail de production.

Pour activer l’inférence interrégionale, un ACCOUNTADMIN doit exécuter :

ALTER ACCOUNT SET CORTEX_ENABLED_CROSS_REGION = 'AWS_US';

Remplacez AWS_US par l’identificateur de région approprié.

Important

L’inférence interrégionale est nécessaire lorsque le modèle sélectionné n’est pas disponible dans votre région. Nous vous recommandons les paramètres suivants en fonction de vos besoins :

  • AWS_US : recommandé pour une expérience optimale avec les modèles Claude Opus 4.x.

  • AWS_EU : accès aux modèles Claude depuis l’EU.

  • AWS_APJ : accès aux modèles Claude depuis APJ (peut être limité à Claude Sonnet 4.0).

  • ANY_REGION : accès à tous les modèles disponibles (routage global optimisé selon la disponibilité).

  • AZURE_US : Accès OpenAI GPT 5.2.

Votre organisation peut restreindre l’accès aux modèles ; il est donc possible que vous n’ayez pas accès à tous les modèles. Voir Contrôle de l’accès au modèle pour plus de détails.