Cortex Code-CLI

Dieses Thema hilft Ihnen beim Einstieg in Cortex Code-CLI, einschließlich Installation, Verbindungseinrichtung und Validierung.

Bevor Sie beginnen, vergewissern Sie sich, dass Sie über ein Snowflake-Konto mit Zugriff auf die erforderlichen Cortex-Modelle verfügen. Umfassende Informationen dazu finden Sie unter Voraussetzungen.

Bemerkung

Wenn Sie kein Snowflake-Konto haben, können Sie sich für eine kostenlose Testversion der Cortex Code-CLI anmelden.

Cortex Code-CLI installieren

Um die Cortex Code-CLI zu installieren, geben Sie den folgenden Befehl in Ihrem Terminal ein:

curl -LsS https://ai.snowflake.com/static/cc-scripts/install.sh | sh
Copy

Dieser Befehl lädt das Installationsskript herunter und führt es aus, wodurch die neueste Version der Cortex Code-CLIinstalliert wird. Die ausführbare cortex-Datei wird standardmäßig in ~/.local/bin installiert.

Mit Snowflake verbinden

Nach der Installation der Cortex Code-CLI führen Sie den cortex-Befehl aus. Ein Einrichtungsassistent führt Sie durch die ersten Konfigurationsschritte, einschließlich der Auswahl oder des Einrichtens einer Verbindung zu Snowflake.

Die erste Eingabeaufforderung fordert Sie auf, eine Verbindung aus den vorhandenen Verbindungen in der Datei ~/.snowflake/connections.toml auszuwählen, um eine neue Verbindung zu erstellen.

  • Um eine bestehende Verbindung zu verwenden, wählen Sie die Verbindung mithilfe der Nach-oben- und Nach-unten-Pfeiltasten aus der Liste aus und drücken Sie dann die Eingabetaste.

  • Um eine neue Verbindung zu erstellen, wählen Sie More options* aus. Dazu drücken Sie die Nach-unten-Pfeiltaste so lange, bis die Option hervorgehoben ist, und drücken dann die Eingabetaste. Folgen Sie den Aufforderungen, um Ihre Snowflake-Kontodaten einzugeben.

Bemerkung

Die Datei connections.toml wird auch von der Snowflake-CLI verwendet (snow-Befehl). Wenn Sie bereits eine Verbindung zur Verwendung mit der Snowflake-CLIeingerichtet haben, können Sie diese Verbindung mit der Cortex Code-CLI verwenden.

Mit der Verwendung von Cortex Code beginnen

Sobald die Verbindung hergestellt ist, versuchen Sie Ihre erste Anfrage:

What can I do with Cortex Code?
Copy

Geben Sie Anfragen in natürlicher Sprache ein (z. B. „finde Tabellen mit PII-Tags“ oder „generiere eine Streamlit-App für SALES_MART.REVENUE“) ein. Cortex Code versucht dann, die Anfrage zu erfüllen, indem Snowflake-native Fähigkeiten und beliebige, von Ihnen konfigurierte MCP-Tools orchestriert werden. Weitere Informationen zur Konfiguration von MCP-Tools finden Sie unter Model Context Protocol (MCP).

Während sie Ihre Anfrage verarbeitet, zeigt die Cortex Code-CLI ihre Argumentationsschritte und Aktionen im Terminal an. Von Zeit zu Zeit kann sie Sie um Informationen bitten, die sie benötigt. Wenn Sie sich im Planmodus befinden, werden Sie aufgefordert, jede Aktion zu bestätigen.

Beispielanfragen

Katalog entdecken

What databases do I have access to?
List every table tagged PII = TRUE in ANALYTICS_DB
Show the lineage from RAW_DB.ORDERS to downstream dashboards
Copy

SQL-Befehle generieren und ausführen

Write a query for top 10 customers by revenue
Add a 7-day moving average and show me the results
Explain why this query is slow and optimize it
Copy

Anwendungen erstellen

Build a Streamlit dashboard on SALES_MART.REVENUE with filters for date and region
Create a dbt project to transform raw sales data
Copy

Mit Cortex Analyst arbeiten

Use the @models/revenue.yaml semantic model to answer "What was revenue last month?"
Debug my semantic model at @models/revenue.yaml
Copy

Voraussetzungen

Um die Cortex Code-CLI nutzen zu können, benötigen Sie Folgendes:

  • Ein Snowflake-Benutzerkonto mit den erforderlichen Berechtigungen für den Zugriff auf die Daten, die Sie mit der Cortex Code-CLI verwenden möchten und um Operationen mit diesen Daten auszuführen. Der Benutzende muss auch über die SNOWFLAKE.CORTEX_USER-Datenbankrolle verfügen.

  • Netzwerkzugriff auf Ihren Snowflake-Server.

  • Snowflake-CLI auf Ihrer Workstation.

  • Eine der folgenden unterstützten Plattformen:

    • macOS auf Apple Silicon oder Intel

    • Linux auf Intel

    • Windows-Subsystem für Linux (WSL) auf Intel

    Bemerkung

    Snowflake behält sich vor, die Unterstützung für weitere Plattformen zu gegebener Zeit zu ergänzen Informieren Sie Ihre Snowflake-Kontaktperson, wenn Sie bestimmte Anforderungen an die Plattform haben.

  • Lokaler Terminalzugriff auf die bash-, zsh- oder fish-Shell auf Ihrer Plattform.

Weitere Konfigurationsoptionen sowie Informationen zur Problembehandlung und erweiterten Einrichtung finden Sie unter Referenz für die Cortex Code-CLI.

Modelle und Plattformverfügbarkeit

Plattformverfügbarkeit

Cortex -Code CLI unterstützt derzeit die folgenden Plattformen:

Plattform

Architektur

macOS

arm64, x64

Linux

x64, arm64

Windows

WSL auf x64/amd64

Bemerkung

Snowflake behält sich vor, die Unterstützung für weitere Plattformen zu gegebener Zeit zu ergänzen Informieren Sie Ihre Snowflake-Kontaktperson, wenn Sie bestimmte Anforderungen an die Plattform haben.

Unterstützte Modelle

Cortex Code CLI unterstützt die folgenden Modelle. Mindestens eines dieser Modelle muss in der Zulassungsliste Ihres Kontos (CORTEX_MODELS_ALLOWLIST) enthalten sein, damit Cortex Code funktioniert. Weitere Informationen finden Sie unter Zugriff auf das Modell kontrollieren.

Wir empfehlen, für dieses Modell auto festzulegen. Cortex wählt automatisch das beste Modell aus, das für Ihr Konto verfügbar ist. Wenn ein neues, leistungsfähigeres Modell verfügbar ist, bezieht sich auto auf dieses Modell.

Um ein anderes Modell zu wählen, verwenden Sie den Befehl /model innerhalb einer Cortex Code-CLI-Sitzung.

Modell

Bezeichner

Auto

auto

Claude Opus 4.6

claude-opus-4-6

Claude Sonnet 4.6

claude-sonnet-4-6

Claude Opus 4.5

claude-opus-4-5

Claude Sonnet 4.5

claude-sonnet-4-5

Claude Sonnet 4.0

claude-4-sonnet

Qualität und Leistungsfähigkeit der Modelle variieren, wählen Sie also je nach Ihren Anforderungen aus.

Cloudregionen

Wenn ein Modell, das Sie verwenden möchten, nicht in Ihrer Region verfügbar ist, können Sie die regionenübergreifende Cortex-Inferenz verwenden, um auf das Modell in einer anderen Region zuzugreifen, in der es verfügbar ist. Weitere Informationen zur Konfiguration der regionenübergreifenden Inferenz finden Sie unter Regionenübergreifende Inferenz.

Cortex Code erfordert, dass ein ACCOUNTADMIN CORTEX_ENABLED_CROSS_REGION auf einen der folgenden Werte festlegt.

Die folgende Tabelle zeigt die Modelle, die für jede regionsübergreifende Inferenzeinstellung verfügbar sind:

Modell
Cloudübergreifend
(Alle Regionen)
AWS-US
(Regionsübergreifend)
AWS-EU
(Regionsübergreifend)
AWS-APJ
(Regionsübergreifend)
Azure US
(Regionsübergreifend)
Azure EU
(Regionsübergreifend)

claude-opus-4-6

claude-sonnet-4-6

claude-opus-4-5

claude-sonnet-4-5

claude-4-sonnet

* Gibt an, dass es sich um ein Modell in der Vorschau handelt. Vorschau-Features sind nicht für Produktions-Workloads geeignet.

Um die regionenübergreifende Inferenz zu aktivieren, muss eine Person mit ACCOUNTADMIN-Berechtigungen Folgendes ausführen:

ALTER ACCOUNT SET CORTEX_ENABLED_CROSS_REGION = 'AWS_US';
Copy

Ersetzen Sie AWS_US durch den entsprechenden Regionsbezeichner.

Wichtig

Regionsübergreifende Inferenz ist erforderlich, wenn das ausgewählte Modell in Ihrer Region nicht verfügbar ist. Wir empfehlen die folgenden Einstellungen, je nach Ihren Bedürfnissen:

  • AWS_US – Empfohlen für eine optimale Erfahrung mit Claude Opus 4.x-Modellen.

  • AWS_EU – Zugriff auf Claude-Modelle aus der EU.

  • AWS_APJ – Zugriff auf Claude-Modelle aus APJ (kann auf Claude Sonnet 4.0 beschränkt sein).

  • ANY_REGION – Zugriff alle Modelle („Best-Effort Global Routing“).

Ihre Organisation kann den Zugriff auf Modelle beschränken. Möglicherweise haben Sie nicht Zugriff auf alle Modelle. Weitere Informationen dazu finden Sie unter Zugriff auf das Modell kontrollieren.