Cortex Code CLI¶
Este tópico ajuda você a começar a usar o Cortex Code CLI, incluindo a instalação, configuração de conexão e validação.
Antes de começar, certifique-se de ter uma conta Snowflake com acesso aos modelos necessários do Cortex. Consulte Pré-requisitos para obter todos os detalhes.
Nota
Se você não tem uma conta Snowflake, pode criar uma conta de avaliação gratuita do Cortex Code CLI.
Instalar o Cortex Code CLI¶
O Cortex Code CLI está disponível para Linux, macOS e Windows (tanto WSL quanto nativo). Use as instruções abaixo para instalar o Cortex Code CLI em sua plataforma.
Linux (incluindo WSL) e macOS¶
Para instalar o Cortex Code CLI no Linux, macOS ou WSL, execute o seguinte comando em um shell:
Esse comando baixa e executa o script de instalação, que instala a versão mais recente do Cortex Code CLI. O executável cortex é instalado em ~/.local/bin por padrão. O script de instalação adiciona este diretório ao seu PATH modificando o perfil de shell.
Nativo para Windows¶
Para instalar o Cortex Code CLI no Windows, execute o seguinte comando no PowerShell:
Esse comando baixa e executa o script de instalação, que instala a versão mais recente do Cortex Code CLI. O executável cortex é instalado em %LOCALAPPDATA%\cortex por padrão. O script de instalação adiciona esse diretório ao seu PATH.
Após a instalação, execute o Cortex Code CLI na caixa de diálogo Executar (Win+R), no prompt de comando (cmd.exe) ou no PowerShell.
Conexão com o Snowflake¶
Depois de instalar o Cortex Code CLI, emita o comando cortex. Um assistente de configuração orienta você nas etapas iniciais de configuração, incluindo a escolha ou configuração de uma conexão com o Snowflake.
O primeiro prompt solicita que você escolha uma conexão dentre as conexões existentes no arquivo ~/.snowflake/connections.toml ou a criação de uma nova conexão.
Para usar uma conexão existente, escolha a conexão na lista usando as teclas de seta para cima e para baixo e, em seguida, pressione Enter.
Para criar uma nova conexão, escolha More options* pressionando a tecla de seta para baixo até ficar destacada e, em seguida, pressione Enter. Siga os prompts para inserir os detalhes da sua conta Snowflake.
Nota
O connections.toml também é usado pelo Snowflake CLI (comando snow). Se você já configurou uma conexão para usar com o Snowflake CLI, pode usá-la com o Cortex Code CLI.
Começar a usar o Cortex Code¶
Após a conexão, tente sua primeira solicitação:
Digite solicitações em linguagem natural (como «encontre tabelas com tags PII» ou «gere um app Streamlit para SALES_MART.REVENUE»), e o Cortex Code tenta processar a solicitação orquestrando as habilidades nativas do Snowflake e as ferramentas MCP que você configurou. Para obter mais informações sobre a configuração das ferramentas MCP, consulte Model Context Protocol (MCP).
Como esse recurso funciona com base em sua solicitação, o Cortex Code CLI exibe as etapas de raciocínio e as ações no terminal. De tempos em tempos, ele pode solicitar informações de que precisa. Se você estiver no modo de plano, ele solicitará que você confirme cada ação.
Exemplos de solicitações¶
Descobrir seu catálogo¶
Gerar e executar comandos SQL¶
Criar aplicativos¶
Trabalhar com o Cortex Analyst¶
Pré-requisitos¶
Para usar o Cortex Code CLI, você precisa do seguinte:
Uma conta de usuário Snowflake com as permissões necessárias para acessar os dados que você pretende usar com o Cortex Code CLI e para realizar operações com eles. Este usuário também deve ter a função de banco de dados SNOWFLAKE.CORTEX_USER (inicialmente, todos os usuários têm as funções SNOWFLAKE.CORTEX_USER até a função PUBLIC, mas sua organização pode tê-las revogado explicitamente para implementar um controle de acesso mais rigoroso).
Acesso de rede ao seu servidor Snowflake.
O Snowflake CLI instalado em sua estação de trabalho.
Uma das seguintes plataformas compatíveis:
macOS em Apple Silicon ou Intel
Linux em Intel
Subsistema Windows para Linux (WSL) em Intel
Nativo para Windows em Intel (em versão preliminar)
Nota
O Snowflake pode adicionar suporte para outras plataformas de tempos em tempos. Informe seu representante Snowflake se você tiver um requisito de plataforma específico.
Acesso de terminal local ao shell
bash,zshoufishem sua plataforma.
Para opções adicionais de configuração, solução de problemas e configuração avançada, consulte Referência da Cortex Code CLI.
Plataformas e modelos compatíveis¶
Plataformas com suporte¶
A Cortex Code CLI é compatível com as seguintes plataformas:
Plataforma |
Arquitetura |
|---|---|
macOS |
arm64, x64 |
Linux |
x64, arm64 |
Windows |
WSL em x64/amd64
Nativo em x64 (em versão preliminar)
|
Nota
O Snowflake pode adicionar suporte para outras plataformas de tempos em tempos. Entre em contato com seu representante da Snowflake se você tiver um requisito de plataforma específico.
Modelos compatíveis¶
O Cortex Code CLI é compatível com os seguintes modelos. Pelo menos um desses modelos deve estar disponível para sua conta (por exemplo, estando incluído na lista de permissões da sua conta, CORTEX_MODELS_ALLOWLIST). Consulte Controle o acesso ao modelo para obter mais informações.
A Snowflake recomenda especificar auto para o modelo. O Cortex seleciona automaticamente o modelo com a qualidade mais alta disponível para sua conta. Quando um novo modelo mais avançado estiver disponível, auto passará a se referir a ele.
Para escolher um modelo diferente, use o comando /model em uma sessão do Cortex Code CLI.
Modelo |
Identificador |
|---|---|
Auto |
|
Claude Opus 4.6 |
|
Claude Sonnet 4.6 |
|
Claude Opus 4.5 |
|
Claude Sonnet 4.5 |
|
Claude Sonnet 4.0 |
|
OpenAI GPT 5.2 |
|
A qualidade e a capacidade dos modelos variam; portanto, escolha um modelo com base em suas necessidades.
Regiões de nuvem¶
Se um modelo que deseja usar não estiver disponível em sua região, você poderá usar a inferência entre regiões do Cortex para acessar o modelo em outra região onde ele esteja disponível. Para obter mais informações sobre como configurar a inferência entre regiões, consulte Inferência entre regiões.
O Cortex Code exige um ACCOUNTADMIN para configurar CORTEX_ENABLED_CROSS_REGION com um dos valores a seguir.
A seguinte tabela mostra os modelos disponíveis para cada configuração de inferência entre regiões:
Modelo
|
Entre nuvens
(Qualquer região)
|
AWS US
(Entre regiões)
|
AWS EU
(Entre regiões)
|
AWS APJ
(Entre regiões)
|
Azure US
(Entre regiões)
|
Azure EU
(Entre regiões)
|
|---|---|---|---|---|---|---|
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
✔ |
||
|
* |
* |
* Indica um modelo em versão preliminar. Os modelos em versão preliminar não são adequados para cargas de trabalho de produção.
Para habilitar a inferência entre regiões, um ACCOUNTADMIN deve executar:
Substitua AWS_US pelo identificador apropriado da região.
Importante
A inferência entre regiões é necessária quando o modelo selecionado não está disponível em sua região. Recomendamos as seguintes configurações com base em suas necessidades:
AWS_US: recomendada para a melhor experiência com modelos Claude Opus 4.x.
AWS_EU: acesse modelos Claude a partir da EU.
AWS_APJ: acesse modelos Claude da APJ (pode se limitar ao Claude Sonnet 4.0).
ANY_REGION: acesse todos os modelos disponíveis (roteamento global com o melhor esforço).
AZURE_US: acesse o OpenAI GPT 5.2.
Sua organização pode restringir o acesso aos modelos; portanto, você pode não ter acesso a todos eles. Consulte Controle o acesso ao modelo para obter mais detalhes.
Avisos legais¶
Quando sua configuração do Cortex Code usa um modelo que consta em Model and Service Pass-Through Terms, seu uso desse modelo está sujeito aos respectivos termos nessa página.
A classificação dos dados de entradas e saídas é definido na tabela a seguir.
Classificação de dados de entrada |
Classificação de dados de saída |
Designação |
|---|---|---|
Usage Data |
Dados de cliente |
Recursos de AI incluídos [1] |
Para obter informações adicionais, consulte AI e ML Snowflake.
