Cortex Code CLI¶
Este tópico ajuda você a começar a usar o Cortex Code CLI, incluindo a instalação, configuração de conexão e validação.
Antes de começar, certifique-se de ter uma conta Snowflake com acesso aos modelos necessários do Cortex. Consulte Pré-requisitos para obter todos os detalhes.
Nota
Se você não tem uma conta Snowflake, pode criar uma conta de avaliação gratuita do Cortex Code CLI.
Instalar o Cortex Code CLI¶
Para instalar o Cortex Code CLI, emita o seguinte comando em seu terminal:
curl -LsS https://ai.snowflake.com/static/cc-scripts/install.sh | sh
Esse comando baixa e executa o script de instalação, que instala a versão mais recente do Cortex Code CLI. O executável do cortex é instalado em ~/.local/bin por padrão.
Conexão com o Snowflake¶
Depois de instalar o Cortex Code CLI, emita o comando cortex. Um assistente de configuração orienta você nas etapas iniciais de configuração, incluindo a escolha ou configuração de uma conexão com o Snowflake.
O primeiro prompt solicita que você escolha uma conexão dentre as conexões existentes no arquivo ~/.snowflake/connections.toml ou a criação de uma nova conexão.
Para usar uma conexão existente, escolha a conexão na lista usando as teclas de seta para cima e para baixo e, em seguida, pressione Enter.
Para criar uma nova conexão, escolha More options* pressionando a tecla de seta para baixo até ficar destacada e, em seguida, pressione Enter. Siga os prompts para inserir os detalhes da sua conta Snowflake.
Nota
O connections.toml também é usado pelo Snowflake CLI (comando snow). Se você já configurou uma conexão para usar com o Snowflake CLI, pode usá-la com o Cortex Code CLI.
Começar a usar o Cortex Code¶
Após a conexão, tente sua primeira solicitação:
What can I do with Cortex Code?
Digite solicitações em linguagem natural (como «encontre tabelas com tags PII» ou «gere um app Streamlit para SALES_MART.REVENUE»), e o Cortex Code tenta processar a solicitação orquestrando as habilidades nativas do Snowflake e as ferramentas MCP que você configurou. Para obter mais informações sobre a configuração das ferramentas MCP, consulte Model Context Protocol (MCP).
Como esse recurso funciona com base em sua solicitação, o Cortex Code CLI exibe as etapas de raciocínio e as ações no terminal. De tempos em tempos, ele pode solicitar informações de que precisa. Se você estiver no modo de plano, ele solicitará que você confirme cada ação.
Exemplos de solicitações¶
Descobrir seu catálogo¶
What databases do I have access to?
List every table tagged PII = TRUE in ANALYTICS_DB
Show the lineage from RAW_DB.ORDERS to downstream dashboards
Gerar e executar comandos SQL¶
Write a query for top 10 customers by revenue
Add a 7-day moving average and show me the results
Explain why this query is slow and optimize it
Criar aplicativos¶
Build a Streamlit dashboard on SALES_MART.REVENUE with filters for date and region
Create a dbt project to transform raw sales data
Trabalhar com o Cortex Analyst¶
Use the @models/revenue.yaml semantic model to answer "What was revenue last month?"
Debug my semantic model at @models/revenue.yaml
Pré-requisitos¶
Para usar o Cortex Code CLI, você precisa do seguinte:
Uma conta de usuário Snowflake com as permissões necessárias para acessar os dados que você pretende usar com o Cortex Code CLI e para realizar operações com eles. Esse usuário também deve ter a função de banco de dados SNOWFLAKE.CORTEX_USER.
Acesso de rede ao seu servidor Snowflake.
O Snowflake CLI instalado em sua estação de trabalho.
Uma das seguintes plataformas compatíveis:
macOS em Apple Silicon ou Intel
Linux em Intel
Subsistema Windows para Linux (WSL) em Intel
Nota
O Snowflake pode adicionar suporte para outras plataformas de tempos em tempos. Informe seu representante Snowflake se você tiver um requisito de plataforma específico.
Acesso de terminal local ao shell
bash,zshoufishem sua plataforma.
Para opções adicionais de configuração, solução de problemas e configuração avançada, consulte Referência da Cortex Code CLI.
Modelos e disponibilidade da plataforma¶
Disponibilidade da plataforma¶
A Cortex Code CLI é compatível com as seguintes plataformas:
Plataforma |
Arquitetura |
|---|---|
macOS |
arm64, x64 |
Linux |
x64, arm64 |
Windows |
WSL em x64/amd64 |
Nota
O Snowflake pode adicionar suporte para outras plataformas de tempos em tempos. Informe seu representante Snowflake se você tiver um requisito de plataforma específico.
Modelos compatíveis¶
A Cortex Code CLI é compatível com os modelos a seguir. Pelo menos um desses modelos deve ser incluído na lista de permissão da sua conta (CORTEX_MODELS_ALLOWLIST) para que o Cortex Code funcione. Consulte Controle o acesso ao modelo para obter detalhes.
Recomendamos especificar auto para o modelo. O Cortex seleciona automaticamente o modelo com a qualidade mais alta disponível para sua conta. Quando um novo modelo mais avançado fica disponível, o auto faz referência a esse modelo.
Para escolher um modelo diferente, use o comando /model em uma sessão do Cortex Code CLI.
Modelo |
Identificador |
|---|---|
Auto |
|
Claude Opus 4.6 |
|
Claude Sonnet 4.6 |
|
Claude Opus 4.5 |
|
Claude Sonnet 4.5 |
|
Claude Sonnet 4.0 |
|
A qualidade e a capacidade do modelo variam, portanto faça sua escolha com base em seus requisitos.
Regiões de nuvem¶
Se um modelo que deseja usar não estiver disponível em sua região, você poderá usar a inferência entre regiões do Cortex para acessar o modelo em outra região onde ele esteja disponível. Para obter mais informações sobre como configurar a inferência entre regiões, consulte Inferência entre regiões.
O Cortex Code exige um ACCOUNTADMIN para configurar CORTEX_ENABLED_CROSS_REGION com um dos valores a seguir.
A seguinte tabela mostra os modelos disponíveis para cada configuração de inferência entre regiões:
Modelo
|
Entre nuvens
(Qualquer região)
|
AWS US
(Entre regiões)
|
AWS EU
(Entre regiões)
|
AWS APJ
(Entre regiões)
|
Azure US
(Entre regiões)
|
Azure EU
(Entre regiões)
|
|---|---|---|---|---|---|---|
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
|||
|
✔ |
✔ |
✔ |
✔ |
* Indica um modelo em versão preliminar. Os modelos em versão preliminar não são adequados para cargas de trabalho de produção.
Para habilitar a inferência entre regiões, um ACCOUNTADMIN deve executar:
ALTER ACCOUNT SET CORTEX_ENABLED_CROSS_REGION = 'AWS_US';
Substitua AWS_US pelo identificador apropriado da região.
Importante
A inferência entre regiões é necessária quando o modelo selecionado não está disponível em sua região. Recomendamos as seguintes configurações com base em suas necessidades:
AWS_US: recomendada para a melhor experiência com modelos Claude Opus 4.x.
AWS_EU: acesse modelos Claude da EU.
AWS_APJ: acesse modelos Claude da APJ (pode se limitar ao Claude Sonnet 4.0).
ANY_REGION: acesse todos os modelos (roteamento global por melhor esforço).
Sua organização pode restringir o acesso ao modelo. Talvez você não tenha acesso a todos os modelos. Consulte Controle o acesso ao modelo para obter mais detalhes.
Avisos legais¶
Quando sua configuração do Cortex Code usa um modelo que consta em Model and Service Pass-Through Terms, seu uso desse modelo está sujeito aos respectivos termos nessa página.
A classificação dos dados de entradas e saídas é definido na tabela a seguir.
Classificação de dados de entrada |
Classificação de dados de saída |
Designação |
|---|---|---|
Usage Data |
Dados de cliente |
Cortex Code CLI: recursos de AI inclusos. Cortex Code no Snowsight: recursos de AI em versão preliminar. [1] |
Para obter informações adicionais, consulte AI e ML Snowflake.