Cortex Code CLI

Este tópico ajuda você a começar a usar o Cortex Code CLI, incluindo a instalação, configuração de conexão e validação.

Antes de começar, certifique-se de ter uma conta Snowflake com acesso aos modelos necessários do Cortex. Consulte Pré-requisitos para obter todos os detalhes.

Nota

Se você não tem uma conta Snowflake, pode criar uma conta de avaliação gratuita do Cortex Code CLI.

Instalar o Cortex Code CLI

O Cortex Code CLI está disponível para Linux, macOS e Windows (tanto WSL quanto nativo). Use as instruções abaixo para instalar o Cortex Code CLI em sua plataforma.

Linux (incluindo WSL) e macOS

Para instalar o Cortex Code CLI no Linux, macOS ou WSL, execute o seguinte comando em um shell:

curl -LsS https://ai.snowflake.com/static/cc-scripts/install.sh | sh

Esse comando baixa e executa o script de instalação, que instala a versão mais recente do Cortex Code CLI. O executável cortex é instalado em ~/.local/bin por padrão. O script de instalação adiciona este diretório ao seu PATH modificando o perfil de shell.

Nativo para Windows

Para instalar o Cortex Code CLI no Windows, execute o seguinte comando no PowerShell:

irm https://ai.snowflake.com/static/cc-scripts/install.ps1 | iex

Esse comando baixa e executa o script de instalação, que instala a versão mais recente do Cortex Code CLI. O executável cortex é instalado em %LOCALAPPDATA%\cortex por padrão. O script de instalação adiciona esse diretório ao seu PATH.

Após a instalação, execute o Cortex Code CLI na caixa de diálogo Executar (Win+R), no prompt de comando (cmd.exe) ou no PowerShell.

Conexão com o Snowflake

Depois de instalar o Cortex Code CLI, emita o comando cortex. Um assistente de configuração orienta você nas etapas iniciais de configuração, incluindo a escolha ou configuração de uma conexão com o Snowflake.

O primeiro prompt solicita que você escolha uma conexão dentre as conexões existentes no arquivo ~/.snowflake/connections.toml ou a criação de uma nova conexão.

  • Para usar uma conexão existente, escolha a conexão na lista usando as teclas de seta para cima e para baixo e, em seguida, pressione Enter.

  • Para criar uma nova conexão, escolha More options* pressionando a tecla de seta para baixo até ficar destacada e, em seguida, pressione Enter. Siga os prompts para inserir os detalhes da sua conta Snowflake.

Nota

O connections.toml também é usado pelo Snowflake CLI (comando snow). Se você já configurou uma conexão para usar com o Snowflake CLI, pode usá-la com o Cortex Code CLI.

Começar a usar o Cortex Code

Após a conexão, tente sua primeira solicitação:

What can I do with Cortex Code?

Digite solicitações em linguagem natural (como «encontre tabelas com tags PII» ou «gere um app Streamlit para SALES_MART.REVENUE»), e o Cortex Code tenta processar a solicitação orquestrando as habilidades nativas do Snowflake e as ferramentas MCP que você configurou. Para obter mais informações sobre a configuração das ferramentas MCP, consulte Model Context Protocol (MCP).

Como esse recurso funciona com base em sua solicitação, o Cortex Code CLI exibe as etapas de raciocínio e as ações no terminal. De tempos em tempos, ele pode solicitar informações de que precisa. Se você estiver no modo de plano, ele solicitará que você confirme cada ação.

Exemplos de solicitações

Descobrir seu catálogo

What databases do I have access to?
List every table tagged PII = TRUE in ANALYTICS_DB
Show the lineage from RAW_DB.ORDERS to downstream dashboards

Gerar e executar comandos SQL

Write a query for top 10 customers by revenue
Add a 7-day moving average and show me the results
Explain why this query is slow and optimize it

Criar aplicativos

Build a Streamlit dashboard on SALES_MART.REVENUE with filters for date and region
Create a dbt project to transform raw sales data

Trabalhar com o Cortex Analyst

Use the @models/revenue.yaml semantic model to answer "What was revenue last month?"
Debug my semantic model at @models/revenue.yaml

Pré-requisitos

Para usar o Cortex Code CLI, você precisa do seguinte:

  • Uma conta de usuário Snowflake com as permissões necessárias para acessar os dados que você pretende usar com o Cortex Code CLI e para realizar operações com eles. Este usuário também deve ter a função de banco de dados SNOWFLAKE.CORTEX_USER (inicialmente, todos os usuários têm as funções SNOWFLAKE.CORTEX_USER até a função PUBLIC, mas sua organização pode tê-las revogado explicitamente para implementar um controle de acesso mais rigoroso).

  • Acesso de rede ao seu servidor Snowflake.

  • O Snowflake CLI instalado em sua estação de trabalho.

  • Uma das seguintes plataformas compatíveis:

    • macOS em Apple Silicon ou Intel

    • Linux em Intel

    • Subsistema Windows para Linux (WSL) em Intel

    • Nativo para Windows em Intel (em versão preliminar)

    Nota

    O Snowflake pode adicionar suporte para outras plataformas de tempos em tempos. Informe seu representante Snowflake se você tiver um requisito de plataforma específico.

  • Acesso de terminal local ao shell bash, zsh ou fish em sua plataforma.

Para opções adicionais de configuração, solução de problemas e configuração avançada, consulte Referência da Cortex Code CLI.

Plataformas e modelos compatíveis

Plataformas com suporte

A Cortex Code CLI é compatível com as seguintes plataformas:

Plataforma

Arquitetura

macOS

arm64, x64

Linux

x64, arm64

Windows

WSL em x64/amd64
Nativo em x64 (em versão preliminar)

Nota

O Snowflake pode adicionar suporte para outras plataformas de tempos em tempos. Entre em contato com seu representante da Snowflake se você tiver um requisito de plataforma específico.

Modelos compatíveis

O Cortex Code CLI é compatível com os seguintes modelos. Pelo menos um desses modelos deve estar disponível para sua conta (por exemplo, estando incluído na lista de permissões da sua conta, CORTEX_MODELS_ALLOWLIST). Consulte Controle o acesso ao modelo para obter mais informações.

A Snowflake recomenda especificar auto para o modelo. O Cortex seleciona automaticamente o modelo com a qualidade mais alta disponível para sua conta. Quando um novo modelo mais avançado estiver disponível, auto passará a se referir a ele.

Para escolher um modelo diferente, use o comando /model em uma sessão do Cortex Code CLI.

Modelo

Identificador

Auto

auto

Claude Opus 4.6

claude-opus-4-6

Claude Sonnet 4.6

claude-sonnet-4-6

Claude Opus 4.5

claude-opus-4-5

Claude Sonnet 4.5

claude-sonnet-4-5

Claude Sonnet 4.0

claude-4-sonnet

OpenAI GPT 5.2

openai-gpt-5.2

A qualidade e a capacidade dos modelos variam; portanto, escolha um modelo com base em suas necessidades.

Regiões de nuvem

Se um modelo que deseja usar não estiver disponível em sua região, você poderá usar a inferência entre regiões do Cortex para acessar o modelo em outra região onde ele esteja disponível. Para obter mais informações sobre como configurar a inferência entre regiões, consulte Inferência entre regiões.

O Cortex Code exige um ACCOUNTADMIN para configurar CORTEX_ENABLED_CROSS_REGION com um dos valores a seguir.

A seguinte tabela mostra os modelos disponíveis para cada configuração de inferência entre regiões:

Modelo
Entre nuvens
(Qualquer região)
AWS US
(Entre regiões)
AWS EU
(Entre regiões)
AWS APJ
(Entre regiões)
Azure US
(Entre regiões)
Azure EU
(Entre regiões)

claude-opus-4-6

claude-sonnet-4-6

claude-opus-4-5

claude-sonnet-4-5

claude-4-sonnet

openai-gpt-5.2

*

*

* Indica um modelo em versão preliminar. Os modelos em versão preliminar não são adequados para cargas de trabalho de produção.

Para habilitar a inferência entre regiões, um ACCOUNTADMIN deve executar:

ALTER ACCOUNT SET CORTEX_ENABLED_CROSS_REGION = 'AWS_US';

Substitua AWS_US pelo identificador apropriado da região.

Importante

A inferência entre regiões é necessária quando o modelo selecionado não está disponível em sua região. Recomendamos as seguintes configurações com base em suas necessidades:

  • AWS_US: recomendada para a melhor experiência com modelos Claude Opus 4.x.

  • AWS_EU: acesse modelos Claude a partir da EU.

  • AWS_APJ: acesse modelos Claude da APJ (pode se limitar ao Claude Sonnet 4.0).

  • ANY_REGION: acesse todos os modelos disponíveis (roteamento global com o melhor esforço).

  • AZURE_US: acesse o OpenAI GPT 5.2.

Sua organização pode restringir o acesso aos modelos; portanto, você pode não ter acesso a todos eles. Consulte Controle o acesso ao modelo para obter mais detalhes.