Cortex Code-CLI¶
Dieses Thema hilft Ihnen beim Einstieg in Cortex Code-CLI, einschließlich Installation, Verbindungseinrichtung und Validierung.
Bevor Sie beginnen, vergewissern Sie sich, dass Sie über ein Snowflake-Konto mit Zugriff auf die erforderlichen Cortex-Modelle verfügen. Umfassende Informationen dazu finden Sie unter Voraussetzungen.
Bemerkung
Wenn Sie kein Snowflake-Konto haben, können Sie sich für eine kostenlose Testversion der Cortex Code-CLI anmelden.
Cortex Code-CLI installieren¶
Die Cortex Code-CLI ist für Linux, macOS und Windows (beide WSL und nativ) verfügbar. Verwenden Sie die unten stehenden Anweisungen, um die Cortex Code-CLI auf Ihrer Plattform zu installieren.
Linux (einschließlichWSL) und macOS¶
Um die Cortex Code-CLI unter on Linux, macOS oder WSL zu installieren, geben Sie den folgenden Befehl in einer Shell ein:
Dieser Befehl lädt das Installationsskript herunter und führt es aus, wodurch die neueste Version der Cortex Code-CLIinstalliert wird. Die ausführbare cortex-Datei wird standardmäßig in ~/.local/bin installiert. Das Installationsskript fügt dieses Verzeichnis durch Ändern Ihres Shell-Profil zu Ihrer PATH-Umgebungsvariable hinzu.
Windows-nativ¶
Um die Cortex Code-CLI unter Windows zu installieren, geben Sie den folgenden Befehl in PowerShell ein:
Dieser Befehl lädt das Installationsskript herunter und führt es aus, wodurch die neueste Version der Cortex Code-CLIinstalliert wird. Die ausführbare cortex-Datei wird standardmäßig in %LOCALAPPDATA%\cortex installiert. Das Installationsskript fügt dieses Verzeichnis zu Ihrer PATH-Umgebungsvariable hinzu.
Rufen Sie nach der Installation die Cortex Code-CLI über das Dialogfeld „Run“ (Win+R), die Befehlszeile (cmd.exe) oder PowerShell auf.
Mit Snowflake verbinden¶
Nach der Installation der Cortex Code-CLI führen Sie den cortex-Befehl aus. Ein Einrichtungsassistent führt Sie durch die ersten Konfigurationsschritte, einschließlich der Auswahl oder des Einrichtens einer Verbindung zu Snowflake.
Die erste Eingabeaufforderung fordert Sie auf, eine Verbindung aus den vorhandenen Verbindungen in der Datei ~/.snowflake/connections.toml auszuwählen, um eine neue Verbindung zu erstellen.
Um eine bestehende Verbindung zu verwenden, wählen Sie die Verbindung mithilfe der Nach-oben- und Nach-unten-Pfeiltasten aus der Liste aus und drücken Sie dann die Eingabetaste.
Um eine neue Verbindung zu erstellen, wählen Sie More options* aus. Dazu drücken Sie die Nach-unten-Pfeiltaste so lange, bis die Option hervorgehoben ist, und drücken dann die Eingabetaste. Folgen Sie den Aufforderungen, um Ihre Snowflake-Kontodaten einzugeben.
Bemerkung
Die Datei connections.toml wird auch von der Snowflake-CLI verwendet (snow-Befehl). Wenn Sie bereits eine Verbindung zur Verwendung mit der Snowflake-CLIeingerichtet haben, können Sie diese Verbindung mit der Cortex Code-CLI verwenden.
Mit der Verwendung von Cortex Code beginnen¶
Sobald die Verbindung hergestellt ist, versuchen Sie Ihre erste Anfrage:
Geben Sie Anfragen in natürlicher Sprache ein (z. B. „finde Tabellen mit PII-Tags“ oder „generiere eine Streamlit-App für SALES_MART.REVENUE“) ein. Cortex Code versucht dann, die Anfrage zu erfüllen, indem Snowflake-native Fähigkeiten und beliebige, von Ihnen konfigurierte MCP-Tools orchestriert werden. Weitere Informationen zur Konfiguration von MCP-Tools finden Sie unter Model Context Protocol (MCP).
Während sie Ihre Anfrage verarbeitet, zeigt die Cortex Code-CLI ihre Argumentationsschritte und Aktionen im Terminal an. Von Zeit zu Zeit kann sie Sie um Informationen bitten, die sie benötigt. Wenn Sie sich im Planmodus befinden, werden Sie aufgefordert, jede Aktion zu bestätigen.
Beispielanfragen¶
Katalog entdecken¶
SQL-Befehle generieren und ausführen¶
Anwendungen erstellen¶
Mit Cortex Analyst arbeiten¶
Voraussetzungen¶
Um die Cortex Code-CLI nutzen zu können, benötigen Sie Folgendes:
Ein Snowflake-Benutzerkonto mit den erforderlichen Berechtigungen für den Zugriff auf die Daten, die Sie mit der Cortex Code-CLI verwenden möchten und um Operationen mit diesen Daten auszuführen. Dieser Benutzende muss auch über die Datenbankrolle SNOWFLAKE.CORTEX_USER verfügen. (Zuerst haben alle Benutzenden die Rolle SNOWFLAKE.CORTEX_USER über die Rolle PUBLIC, aber Ihre Organisation hat diese möglicherweise ausdrücklich widerrufen, um eine strengere Zugriffssteuerung zu implementieren).
Netzwerkzugriff auf Ihren Snowflake-Server.
Snowflake-CLI auf Ihrer Workstation.
Eine der folgenden unterstützten Plattformen:
macOS auf Apple Silicon oder Intel
Linux auf Intel
Windows-Subsystem für Linux (WSL) auf Intel
Windows-nativ auf Intel (in Vorschau)
Bemerkung
Snowflake behält sich vor, die Unterstützung für weitere Plattformen zu gegebener Zeit zu ergänzen Informieren Sie Ihre Snowflake-Kontaktperson, wenn Sie bestimmte Anforderungen an die Plattform haben.
Lokaler Terminalzugriff auf die
bash-,zsh- oderfish-Shell auf Ihrer Plattform.
Weitere Konfigurationsoptionen sowie Informationen zur Problembehandlung und erweiterten Einrichtung finden Sie unter Referenz für die Cortex Code-CLI.
Unterstützte Plattformen und Modelle¶
Unterstützte Plattformen¶
Cortex -Code CLI unterstützt derzeit die folgenden Plattformen:
Plattform |
Architektur |
|---|---|
macOS |
arm64, x64 |
Linux |
x64, arm64 |
Windows |
WSL auf x64/amd64
Nativ auf x64 (in Vorschau)
|
Bemerkung
Snowflake kann von Zeit zu Zeit Unterstützung für andere Plattformen hinzufügen. Wenden Sie sich an Ihre Snowflake-Vertretung, wenn Sie bestimmte Anforderungen an die Plattform haben.
Unterstützte Modelle¶
Die Cortex Code-CLI unterstützt die folgenden Modelle. Mindestens eines dieser Modelle muss für Ihr Konto verfügbar sein (z. B. indem es in die Zulassungsliste CORTEX_MODELS_ALLOWLIST Ihres Kontos aufgenommen wird). Weitere Informationen dazu finden Sie unter Zugriff auf das Modell kontrollieren.
Snowflake empfiehlt die Angabe von``auto`` für das Modell. Cortex wählt automatisch das beste Modell aus, das für Ihr Konto verfügbar ist. Wenn ein neues, leistungsfähigeres Modell verfügbar ist, bezieht sich auto auf dieses Modell.
Um ein anderes Modell zu wählen, verwenden Sie den Befehl /model innerhalb einer Cortex Code-CLI-Sitzung.
Modell |
Bezeichner |
|---|---|
Auto |
|
Claude Opus 4.6 |
|
Claude Sonnet 4.6 |
|
Claude Opus 4.5 |
|
Claude Sonnet 4.5 |
|
Claude Sonnet 4.0 |
|
OpenAI GPT 5.2 |
|
Qualität und Leistungsfähigkeit der Modelle variieren, wählen Sie also ein Modell je nach Ihren Anforderungen aus.
Cloudregionen¶
Wenn ein Modell, das Sie verwenden möchten, nicht in Ihrer Region verfügbar ist, können Sie die regionenübergreifende Cortex-Inferenz verwenden, um auf das Modell in einer anderen Region zuzugreifen, in der es verfügbar ist. Weitere Informationen zur Konfiguration der regionenübergreifenden Inferenz finden Sie unter Regionenübergreifende Inferenz.
Cortex Code erfordert, dass ein ACCOUNTADMIN CORTEX_ENABLED_CROSS_REGION auf einen der folgenden Werte festlegt.
Die folgende Tabelle zeigt die Modelle, die für jede regionsübergreifende Inferenzeinstellung verfügbar sind:
Modell
|
Cloudübergreifend
(Alle Regionen)
|
AWS-US
(Regionsübergreifend)
|
AWS-EU
(Regionsübergreifend)
|
AWS-APJ
(Regionsübergreifend)
|
Azure US
(Regionsübergreifend)
|
Azure EU
(Regionsübergreifend)
|
|---|---|---|---|---|---|---|
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
✔ |
||
|
* |
* |
* Gibt an, dass es sich um ein Modell in der Vorschau handelt. Vorschau-Features sind nicht für Produktions-Workloads geeignet.
Um die regionenübergreifende Inferenz zu aktivieren, muss eine Person mit ACCOUNTADMIN-Berechtigungen Folgendes ausführen:
Ersetzen Sie AWS_US durch den entsprechenden Regionsbezeichner.
Wichtig
Regionsübergreifende Inferenz ist erforderlich, wenn das ausgewählte Modell in Ihrer Region nicht verfügbar ist. Wir empfehlen die folgenden Einstellungen, je nach Ihren Bedürfnissen:
AWS_US: Empfohlen für eine optimale Erfahrung mit Claude Opus 4.x-Modellen.
AWS_EU: Zugriff auf Claude-Modelle aus der EU.
AWS_APJ: Zugriff auf Claude-Modelle aus APJ (kann auf Claude Sonnet 4.0 beschränkt sein).
ANY_REGION **: Zugriff auf **alle verfügbaren Modelle („Best-Effort Global Routing“).
AZURE_US: Zugriff auf OpenAI GPT 5.2.
Ihre Organisation kann den Zugriff auf Modelle beschränken, sodass Sie möglicherweise nicht auf alle Modelle zugreifen können. Weitere Informationen dazu finden Sie unter Zugriff auf das Modell kontrollieren.
Rechtliche Hinweise¶
Wenn Ihre Cortex Code-Konfiguration ein Modell verwendet, das im Rahmen der Modell- und Service-Pass-Through-Bedingungen bereitgestellt wurde, unterliegt Ihre Nutzung dieses Modells zusätzlich den Bedingungen für dieses Modell auf dieser Seite.
Die Datenklassifizierung der Eingaben und Ausgaben ist in der folgenden Tabelle aufgeführt.
Klassifizierung von Eingabedaten |
Klassifizierung von Ausgabedaten |
Benennung |
|---|---|---|
Usage Data |
Kundendaten |
Abgedeckte AI-Features [1] |
Weitere Informationen dazu finden Sie unter KI und ML in Snowflake.
