Interface do usuário do Snowflake Model Registry¶
Nota
A UI do Model Registry Snowsight está geralmente disponível em todas as implantações.
A UI de serviços de inferência para SPCS Model Serving está em versão preliminar somente para implementações comerciais no AWS, Azure e GCP.
Na página Models do Snowsight, você pode encontrar todos os seus modelos de aprendizado de máquina. Você também pode visualizar seus metadados e implementações.
Detalhes do modelo¶
A página de Models exibe os modelos que você criou e registrou no Snowflake Model Registry ou tem acesso aos modelos por meio do privilégio USAGE ou READ. Ambos são modelos que foram desenvolvidos com Snowpark ML e modelos de origem externa (como modelos do Hugging Face). Ela também mostra modelos bem ajustados do Cortex e pode incluir outros tipos de modelos que será possível criar em versões futuras do Snowflake.
Para exibir a página “Models”, no menu de navegação, selecione AI & ML » Models. A lista resultante contém todos os modelos no Snowflake Model Registry em todos os bancos de dados e esquemas aos quais sua função atual tem acesso.
Nota
Se você não vir nenhum modelo, verifique se sua função tem os privilégios necessários.
Para abrir a página de detalhes de um modelo, selecione a linha correspondente na lista Models. A página de detalhes exibe informações chave do modelo, incluindo descrição, tags e versões do modelo.
Para editar a descrição do modelo ou excluir o modelo, selecione … no canto superior direito.
Para abrir a página de detalhes da versão, selecione uma versão do modelo. Esta página exibe metadados da versão do modelo, como métricas, e uma lista de métodos disponíveis que podem ser chamados do Python ou SQL.
Para exibir o código que chama a função do modelo, selecione o link SQL ou Python ao lado dele. É possível copiar este trecho de código em uma planilha SQL do Snowsight ou em um notebook Python.
Para adicionar ou modificar metadados ou excluir a versão do modelo, selecione … no canto superior direito.
A guia Files contém uma lista dos artefatos subjacente da versão do modelo. É possível baixar arquivos individuais nessa página. Essa página só estará disponível se o usuário tiver o privilégio OWNERSHIP ou READ no modelo.
A guia Lineage mostra as informações completas sobre a linhagem do fluxo de dados do modelo, inclusive os conjuntos de dados usados para treinar o modelo, as exibições de recursos do Feature Store e as tabelas de dados de origem.
Implementação de modelos de usuário¶
Você pode implementar modelos no SPCS Model Serving diretamente da página “Model Registry”.
Nota
O Snowflake Model Registry oferece suporte apenas à implantação de modelos de usuário no SPCS Model Serving.
Para implementar um modelo, siga estas etapas:
Selecione um modelo da lista de modelos.
Na página de detalhes do modelo, navegue até a seção Versions.
Para abrir a página de detalhes, selecione uma versão do modelo na lista.
Na página de detalhes da versão, selecione o botão Deploy.
No painel aberto, insira um nome para o serviço a ser implantado.
Selecione se você quer criar um ponto de extremidade da REST API para o serviço implantado.
Selecione um pool de computação para o serviço implantado.
(Opcional) Para personalizar o desempenho e o uso de recurso, você pode ajustar detalhes nas configurações avançadas, como o número de trabalhadores, CPU e memória.
Selecione Deploy.
O processo de implantação pode levar até 15 minutos para criar o serviço.
Após a conclusão da implantação, o serviço será exibido na guia Inference Services da página principal do Model Registry.
Importação e implementação de modelos de um serviço externo¶
Nota
Atualmente, apenas Hugging Face é suportado como um provedor de modelo.
Você pode importar modelos pré-treinados de um provedor externo e implantá-los como serviços Snowflake para inferência. Para importar um modelo externo, siga estas etapas:
No menu de navegação, selecione AI & ML » Models.
Selecione Import model.
A caixa de diálogo Import model é aberta.
No campo Model handle, insira o identificador do modelo de seu provedor ou selecione um na lista de modelos verificados pelo Snowflake.
Na lista Task, selecione a tarefa que o modelo executará.
Opcional: Para habilitar o download do código Python personalizado do repositório de modelos, selecione a caixa de seleção Trust remote code.
Aviso
Permitir que modelos baixem código arbitrário deve ser considerado um risco de segurança. Permita que apenas o código remoto de modelos que você avaliou minuciosamente e confia para ser executado no Snowflake.
Optional: To import a gated model, enter the name of the Snowflake secret for your Hugging Face token in the Hugging Face token secret field.
Your Hugging Face token secret should be a generic text secret, with your Hugging Face token as a value. For information on how to create a generic text secret, see CREATE SECRET.
Opcional: Expanda Advanced settings:
Para executar a conversão de token de entrada e saída para seu modelo, no campo Tokenizer model, insira um modelo tokenizador.
Para adicionar um hiperparâmetro, selecione Add parameter, e então insira um nome e um valor que são reconhecidos pelo modelo.
No campo Model name, insira um nome para uso no registro do modelo Snowflake.
No campo Version name, insira uma versão para registro.
Na lista:ui:
Database and schema, selecione um banco de dados para vincular esse modelo.Opcional: Expanda Advanced settings:
Para adicionar requisitos de pip ao ambiente de tempo de execução do modelo, selecione :ui:`Add Pip requirement`e depois adicione um pip `especificador de requisitos <https://pip.pypa.io/en/stable/reference/requirement-specifiers/>`_ para seu pacote. Somente pacotes atendidos a partir de PyPi são suportados.
No campo Comment, insira qualquer informação útil sobre o modelo.
Selecione Continue to deployment.
A caixa de diálogo Deploy (model handle) é aberta.
Para implantar seu modelo, siga estas etapas:
No campo Service name, insira um nome no qual o serviço será executado.
O Snowflake fornece um padrão baseado no nome e na versão do modelo.
Opcional: Para mudar se um ponto de extremidade de API é criado automaticamente para o serviço do seu modelo, selecione ou desmarque Create REST API endpoint.
Na lista Compute pool, selecione um pool de computação existente para o serviço ser executado.
Opcional: Ajuste o número de instâncias no pool de computação em que o serviço é executado.
O máximo é limitado pelo número de nós no seu pool de computação.
Opcional para pools de computação de CPU: Para fornecer detalhes sobre os recursos disponíveis do serviço no pool de computação, expanda Advanced settings:
Number of workers
Max batch rows
CPU: O número de núcleos virtuais, em milisunidades
GPU: O número de GPUs físicas (obrigatório para pools de computação de GPU)
Memory: A quantidade de memória máxima disponível
Para importar o modelo e criar o serviço pelo qual os usuários acessam seu modelo por meio de, selecione Deploy.
Você também pode cancelar a importação do modelo ou retornar aos detalhes do modelo.
Uma vez iniciada a implementação, uma caixa de diálogo exibe um Query ID. Esta consulta cria os trabalhos para importar o modelo e implantar seu serviço; não é uma consulta para monitorar qualquer um dos trabalhos.
Faça uma das seguintes opções:
Para fechar a caixa de diálogo, selecione Done.
Para monitorar a consulta, selecione Open query monitoring.
O Snowflake executa as seguintes ações para sua implantação de modelo e serviço:
baixa os arquivos necessários de seu provedor.
Carrega e registra o modelo em seu registro de modelo.
Cria uma imagem de contêiner específica do modelo para seu serviço ser executado.
Implanta a imagem do modelo como um serviço.
Nota
O tempo que o Snowflake leva para executar essas operações depende de vários fatores, incluindo o tamanho do modelo, os recursos de computação disponíveis e a configuração da rede.
Se ocorrer um erro na implementação, encontre o associado consulta SQL para obter mais informações. No menu de navegação, selecione Monitoring » Query History para encontrar sua consulta de implantação, que contém uma chamada para SYSTEM$DEPLOY_MODEL.
Monitoramento da implementação do modelo e do serviço¶
Quando os modelos externos são carregados e preparados para implantação, o Snowflake começa automaticamente a registrar o serviço associado. Monitore a implantação seguindo estas etapas:
No menu de navegação, selecione Monitoring » Services & jobs.
Na guia Jobs, selecione o trabalho que corresponde ao local do seu serviço e ao pool de computação, criado no momento em que você iniciou a importação.
Este trabalho tem um nome na forma
MODEL_DEPLOY_IDENTIFIER. Cada implantação de serviço executada por uma importação de modelo cria um identificador exclusivo para os trabalhos associados.Para monitorar a implementação do modelo, selecione Logs Guia.
Quando a implementação do modelo é concluída, o Snowflake inicia um trabalho para criar e implantar seu serviço.
Retorne à guia Jobs e selecione o trabalho chamado
MODEL_BUILD_IDENTIFIER.Este identificador é o mesmo que seu trabalho de implantação de modelo.
Para monitorar a criação do contêiner de serviço, retorne à guia Logs.
Quando este trabalho estiver concluído, seu serviço estará implantado e pronto.
Serviços de inferência de modelos¶
Você pode ver os serviços de inferência de modelos criados com o SPCS Model Serving na UI do Model Registry. A página principal de listagem de modelos mostra o status dos serviços de inferência criados para qualquer modelo.
Se você selecionar o nome e uma versão do modelo, pode usar a guia Inference Services na página de detalhes para saber mais sobre o serviço de inferência implantado, assim como suspender esse serviço. Isso também mostra a lista de funções que o serviço expõe. Você pode ver ou copiar o snippet de código SQL ou Python sobre o uso.
Selecione Open Details para exibir os parâmetros do serviço. Para visualizar mais detalhes sobre o serviço de inferência implementado, selecione Open Service Details do painel de parâmetros de serviço. Você também pode acessar os detalhes do serviço na guia Inference Services na página principal do registro de modelos.
Monitoramento de modelos¶
Para todos os modelos que têm Monitores de modelos anexados a eles, você pode visualizar as métricas de monitoramento de modelos usando os Monitores de modelos na página de detalhes do modelo.
Selecione os monitores de modelo desejados para exibir o painel de monitoramento:
Selecione Compare para visualizar o menu da versão do modelo e selecione uma segunda versão do modelo para comparar com esta versão do modelo:
O monitoramento é compatível com um grande número de métricas de precisão de modelo, desvio de modelo e desvio de recurso. Para selecionar as métricas que são computadas e exibidas, selecione o ícone Settings para escolher as métricas desejadas:
