CLI de Cortex Code

Cette rubrique vous aide à démarrer avec la CLI de Cortex Code, y compris l’installation, la configuration des connexions et la validation.

Avant de commencer, assurez-vous d’avoir un compte Snowflake avec accès aux modèles de Cortex requis. Voir Conditions préalables pour obtenir tous les détails.

Installer la CLI de Cortex Code

Pour installer la CLI de Cortex Code, exécutez la commande suivante dans votre terminal :

curl -LsS https://ai.snowflake.com/static/cc-scripts/install.sh | sh
Copy

Cette commande télécharge et exécute le script d’installation, qui installe la dernière version de la CLI de Cortex Code. L’exécutable cortex est installé dans ~/.local/bin par défaut.

Se connecter à Snowflake

Après avoir installé la CLI de Cortex Code, exécutez la commande cortex. Un assistant de configuration vous aide à effectuer la configuration initiale, notamment à choisir ou configurer une connexion à Snowflake.

La première invite vous demande de choisir une connexion parmi les connexions existantes dans le fichier ~/.snowflake/connections.toml ou pour créer une nouvelle connexion.

  • Pour utiliser une connexion existante, sélectionnez la connexion dans la liste à l’aide des touches fléchées vers le haut et le bas, puis appuyez sur Entrée.

  • Pour créer une nouvelle connexion, choisissez More options* en appuyant sur la touche fléchée vers le bas jusqu’à ce qu’elle soit mise en surbrillance, puis appuyez sur la touche Entrée. Suivez les invites indiquant comment saisir les détails de votre compte Snowflake.

Note

Le fichier connections.toml est également utilisé par la CLI de Snowflake (commande snow). Si vous avez déjà configuré une connexion pour une utilisation avec la CLI de Snowflake, vous pouvez utiliser cette connexion avec la CLI de Cortex Code.

Commencer à utiliser Cortex Code

Une fois connecté, essayez votre première requête :

What can I do with Cortex Code?
Copy

Requêtes de type langage naturel (telles que « trouver des tables avec les balises PII » ou « générer une application Streamlit pour SALES_MART.REVENUE« ») et Cortex Code tente de répondre à la demande en orchestrant les compétences natives de Snowflake et les outils MCP que vous avez configurés. Pour plus d’informations sur la configuration des outils MCP, voir Protocole de contexte de modèle (MCP).

Pendant qu’elle traite votre requête, la CLI de Cortex Code affiche ses étapes de raisonnement et ses actions dans le terminal. De temps à autre, elle peut vous demander des informations dont elle a besoin. Si vous êtes en mode plan, elle vous demandera de confirmer chaque action.

Exemples de requêtes

Découvrir votre catalogue

What databases do I have access to?
List every table tagged PII = TRUE in ANALYTICS_DB
Show the lineage from RAW_DB.ORDERS to downstream dashboards
Copy

Générer et exécuter des commandes SQL

Write a query for top 10 customers by revenue
Add a 7-day moving average and show me the results
Explain why this query is slow and optimize it
Copy

Créer des applications

Build a Streamlit dashboard on SALES_MART.REVENUE with filters for date and region
Create a dbt project to transform raw sales data
Copy

Travailler avec Cortex Analyst

Use the @models/revenue.yaml semantic model to answer "What was revenue last month?"
Debug my semantic model at @models/revenue.yaml
Copy

Conditions préalables

Pour utiliser la CLI de Cortex Code, vous avez besoin des éléments suivants :

  • Un compte d’utilisateur Snowflake avec les autorisations nécessaires pour accéder aux données que vous avez l’intention d’utiliser avec la CLI de Cortex Code et pour effectuer des opérations sur celles-ci. Cet utilisateur doit également disposer du rôle de base de données SNOWFLAKE.CORTEX_USER.

  • Accès réseau à votre serveur Snowflake.

  • La CLI Snowflake installée sur votre poste de travail.

  • L’une des plateformes prises en charge suivantes :

    • macOS sur Apple Silicon ou Intel

    • Linux sur Intel

    • Sous-système Windows pour Linux (WSL) sur Intel

    Note

    Snowflake peut ajouter la prise en charge d’autres plateformes de temps à autre. Veuillez contacter votre représentant Snowflake si vous avez une exigence spécifique en matière de plateforme.

  • Accès du terminal local au shell bash, zsh ou fish sur votre plateforme.

Pour plus d’options de configuration, et en savoir plus sur le dépannage et la configuration avancée, voir Référence CLI Cortex Code.

Disponibilité des modèles et des plateformes

Disponibilité des plateformes

La CLI Cortex Code prend actuellement en charge les plateformes suivantes :

Plateforme

Architecture

macOS

arm64, x64

Linux

x64, arm64

Windows

WSL sur x64/amd64

Note

Snowflake peut ajouter la prise en charge d’autres plateformes de temps à autre. Veuillez contacter votre représentant Snowflake si vous avez une exigence spécifique en matière de plateforme.

Modèles pris en charge

La CLI Cortex Code prend en charge les modèles suivants. Au moins l’un de ces modèles doit être inclus dans la liste d’autorisation de votre compte (CORTEX_MODELS_ALLOWLIST) pour que Cortex Code fonctionne. Voir Contrôle de l’accès au modèle pour plus de détails.

Nous vous recommandons de spécifier auto pour le modèle. Cortex sélectionne automatiquement le modèle de la plus haute qualité disponible sur votre compte. Lorsqu’un nouveau modèle, plus performant, est disponible, auto fait référence à ce modèle.

Pour choisir un modèle différent, utilisez la commande /model dans une session de la CLI de Cortex Code.

Modèle

Identificateur

Automatique

auto

Claude Opus 4.6

claude-opus-4-6

Claude Sonnet 4.6

claude-sonnet-4-6

Claude Opus 4.5

claude-opus-4-5

Claude Sonnet 4.5

claude-sonnet-4-5

Claude Sonnet 4.0

claude-4-sonnet

La qualité et les capacités des modèles varient ; choisissez donc en fonction de vos besoins.

Régions Cloud

Si un modèle que vous souhaitez utiliser n’est pas disponible dans votre région, vous pouvez utiliser l’inférence interrégionale Cortex pour accéder au modèle dans une autre région où il est disponible. Pour plus d’informations sur la configuration de l’inférence interrégionale, voir Inférence interrégionale.

Cortex Code nécessite un ACCOUNTADMIN pour configurer CORTEX_ENABLED_CROSS_REGION à l’une des valeurs suivantes :

Le tableau suivant montre les modèles disponibles pour chaque paramètre d’inférence interrégionale :

Modèle
Inter-Cloud
(N’importe quelle région)
AWS US
(Inter-région)
AWS EU
(Inter-région)
AWS APJ
(Inter-région)
Azure US
(Inter-région)
Azure EU
(Inter-région)

claude-opus-4-6

claude-sonnet-4-6

claude-opus-4-5

claude-sonnet-4-5

claude-4-sonnet

* Indique un modèle en avant-première. Les modèles de prévisualisation ne conviennent pas aux charges de travail de production.

Pour activer l’inférence interrégionale, un ACCOUNTADMIN doit exécuter :

ALTER ACCOUNT SET CORTEX_ENABLED_CROSS_REGION = 'AWS_US';
Copy

Remplacez AWS_US par l’identificateur de région approprié.

Important

L’inférence interrégionale est nécessaire lorsque le modèle sélectionné n’est pas disponible dans votre région. Nous vous recommandons les paramètres suivants en fonction de vos besoins :

  • AWS_US – Recommandé pour une expérience optimale avec les modèles Claude Opus 4.x.

  • AWS_EU – Accès aux modèles Claude depuis l’EU.

  • AWS_APJ – Accès aux modèles Claude depuis APJ (peut être limité à Claude Sonnet 4.0).

  • ANY_REGION – Accès à tous les modèles (routage global optimisé selon la disponibilité).

Votre organisation peut restreindre l’accès aux modèles. Vous ne pouvez pas avoir accès à tous les modèles. Voir Contrôle de l’accès au modèle pour plus de détails.