Monitoramento de atividades

A área Activity do Snowsight, the Snowflake web interface permite que você:

  • Monitore as consultas executadas pelos usuários em sua conta.

  • Veja detalhes das consultas.

  • Veja dados de desempenho.

  • Explore cada etapa de uma consulta executada.

  • Monitore o status de carregamento de dados usando COPY INTO (carregamento em massa) e canais (carregamento contínuo).

  • Veja detalhes sobre instâncias de carregamento de dados em massa e contínuo.

  • Navegue até o histórico de cópias para tabelas individuais.

Este tópico descreve como usar a área Activity para entender a atividade de sua conta Snowflake.

Neste tópico:

Uso da área de atividade

Esta seção apresenta uma breve visão geral de como utilizar a área Activity do Snowsight.

A área Activity inclui as seguintes páginas:

Histórico de consultas

A página Query History permite visualizar e detalhar os detalhes das consultas executadas em sua conta Snowflake nos últimos 14 dias. Devido à política de retenção de dados para sessões, o histórico de consultas não lista o usuário que executou uma consulta se essa consulta foi executada há mais de 7 dias.

Se você precisar obter informações para consultas mais antigas, tente executar uma consulta na exibição QUERY_HISTORY no esquema do Account Usage.

Em uma planilha, você pode ver o histórico de consultas que foram executadas nessa planilha. Consulte Visualização do histórico de consultas.

Esta seção fornece uma breve visão geral de como navegar e usar a página Query History.

Interface

Descrição

Filtros básicos

Use os filtros, localizados no canto superior direito da página, para filtrar a tabela. Você pode filtrar por:

  • Status

    • All (padrão)

    • Queued

    • Blocked

    • Running

    • Failed

    • Successful

  • User

    • All

    • O usuário que você usou para entrar (padrão)

    • Usuários individuais do Snowflake em sua conta

Filtros adicionais

Use Filters, localizado no canto superior direito da página, para definir filtros adicionais para consultas. Você pode filtrar por:

  • SQL Text

  • Query ID

  • Warehouse

  • Duration

  • Session ID

  • Query Tag

  • Client generated statements

  • Queries executed by user tasks

Colunas

Use Columns, localizado no canto superior direito da página, para adicionar ou remover colunas da tabela. A tabela de consultas inclui as seguintes colunas:

  • All

  • SQL Text (padrão)

  • Query ID (padrão)

  • Status (padrão)

  • User (padrão)

  • Warehouse (padrão)

  • Duration (padrão)

  • Started (padrão)

  • End Time

  • Session ID

  • Client Driver

  • Bytes Scanned

  • Cluster Number

  • Rows

  • Query Tag

Atualização automática

No canto superior direito da página, ative Auto Refresh. Quando Auto Refresh está ativado, a tabela é atualizada a cada dez segundos.

A tabela de consultas inclui, por padrão, as seguintes colunas:

  • SQL Text

  • Query ID

  • Status

  • User

  • Warehouse

  • Duration

  • Started

Você pode adicionar mais colunas.

Para visualizar detalhes adicionais sobre uma consulta, selecione uma consulta na tabela.

Consulta

Quando você seleciona uma consulta na tabela de consultas, a página de consultas aparece.

Esta seção fornece uma breve visão geral de como navegar e usar a página de consulta.

Interface

Descrição

Detalhes básicos

Os detalhes básicos sobre a consulta estão localizados no topo da página.

Guias da página de consulta

A página de consulta inclui as seguintes guias:

  • Query Details

  • Query Profile

Detalhes da consulta

A Query Details tab fornece os resultados da consulta juntamente com informações adicionais. A Query Details tab é a guia padrão para a página de consulta. A Query Details tab apresenta as seguintes seções:

  • Details

  • SQL Text

  • Results

A seção Details fornece informações adicionais sobre a execução da consulta, inclusive:

  • O status da consulta.

  • Quando a consulta começou.

  • Quando a consulta terminou.

  • A duração da consulta.

  • A ID da consulta.

  • A ID da sessão.

  • O status do driver.

  • O driver do cliente.

A seção SQL Text fornece o texto real da consulta. Passe o mouse sobre o texto SQL para abrir o texto em uma planilha ou copiar o texto.

A seção Results fornece os resultados da consulta. Selecione Export Query para exportar os resultados como um arquivo .csv.

Perfil de consulta

A guia Query Profile permite explorar o plano de execução da consulta e compreender detalhes granulares sobre cada etapa de execução.

O perfil da consulta é uma ferramenta poderosa para compreender a mecânica das consultas. Pode ser usado sempre que você precisar saber mais sobre o desempenho ou comportamento de uma determinada consulta. É projetado para ajudar a detectar erros típicos em expressões de consulta SQL para identificar possíveis gargalos de desempenho e oportunidades de melhoria.

Esta seção fornece uma breve visão geral de como navegar e usar o perfil de consulta.

Interface

Descrição

Plano de execução da consulta

O plano de execução da consulta aparece no centro do perfil da consulta.

O plano de execução da consulta é composto por nós de operador, que representam operadores de conjunto de linhas.

As setas entre os nós do operador indicam os conjuntos de linhas que fluem de um operador para outro.

Nó do operador

Cada nó de operador inclui o seguinte:

  • O tipo de operador e o número da ID.

  • O tempo usado para executar este operador, representado como uma porcentagem da duração da consulta.

  • Uma visualização dos detalhes do operador. Por exemplo, o nome de uma tabela ou de uma lista de expressões.

Navegação no perfil de consulta

No canto superior esquerdo do perfil de consulta, use os botões para:

  • Passar pelas etapas de execução.

  • Ajustar o plano de execução da consulta na janela.

  • Ampliar e reduzir o plano de execução da consulta.

Nota

As etapas só aparecem se a consulta foi executada em etapas.

Painéis informativos

O perfil de consulta fornece vários painéis de informação. Os painéis aparecem no plano de execução da consulta. Os painéis que aparecem dependem do foco do plano de execução da consulta.

O perfil de consulta inclui os seguintes painéis de informação:

  • Profile Overview

  • Statistics

  • Most Expensive Nodes

  • Attributes

Para saber mais sobre as informações fornecidas pelos painéis, consulte Referência do histórico de consultas.

Referência do histórico de consultas

Esta seção descreve todos os itens que podem aparecer em cada painel de informação. O conteúdo exato dos painéis de informação depende do contexto do plano de execução da consulta.

Visão geral do perfil

O painel fornece informações sobre quais tarefas de processamento consumiram tempo de consulta. O tempo de execução fornece informações sobre “onde o tempo foi gasto” durante o processamento de uma consulta. O tempo gasto pode ser dividido nas seguintes categorias:

  • Processing — tempo gasto no processamento de dados pela CPU.

  • Local Disk IO — hora em que o processamento foi bloqueado pelo acesso a disco local.

  • Remote Disk IO — hora em que o processamento foi bloqueado pelo acesso a disco remoto.

  • Network Communication — tempo em que o processamento aguardava a transferência dos dados da rede.

  • Synchronization — diversas atividades de sincronização entre os processos participantes.

  • Initialization — tempo gasto na preparação do processamento da consulta.

Estatísticas

Uma das principais fontes de informações fornecidas no painel de detalhes são as diversas estatísticas, agrupadas nas seções seguintes:

  • IO — informações sobre as operações de entrada-saída realizadas durante a consulta:

    • Scan progress — a porcentagem de dados verificados para uma determinada tabela até o momento.

    • Bytes scanned — o número de bytes verificados até o momento.

    • Percentage scanned from cache — a porcentagem de dados verificados a partir do cache do disco local.

    • Bytes written — bytes gravados (por exemplo, ao carregar em uma tabela).

    • Bytes written to result — bytes gravados no objeto de resultado. Por exemplo, select * from . . . produziria um conjunto de resultados em formato tabular representando cada campo na seleção. Em geral, o objeto de resultado representa tudo o que é produzido como resultado da consulta, e Bytes gravados no resultado representa o tamanho do resultado retornado.

    • Bytes read from result — bytes lidos do objeto de resultado.

    • External bytes scanned — bytes lidos a partir de um objeto externo, por exemplo, um estágio.

  • DML — estatísticas para consultas de linguagem de manipulação de dados (DML):

    • Number of rows inserted — número de linhas inseridas em uma tabela (ou tabelas).

    • Number of rows updated — número de linhas atualizadas em uma tabela.

    • Number of rows deleted — número de linhas excluídas de uma tabela.

    • Number of rows unloaded — número de linhas descarregadas durante a exportação de dados.

  • Pruning — informações sobre os efeitos da remoção realizada na tabela:

    • Partitions scanned — número de partições verificadas até o momento.

    • Partitions total — número total de partições em uma determinada tabela.

  • Spilling — informações sobre o uso do disco para operações onde os resultados intermediários não cabem na memória:

    • Bytes spilled to local storage — volume de dados despejados para o disco local.

    • Bytes spilled to remote storage — volume de dados despejados no disco remoto.

  • Network — comunicação em rede:

    • Bytes sent over the network — quantidade de dados enviados pela rede.

  • External Functions — informações sobre chamadas para funções externas:

    As seguintes estatísticas são mostradas para cada função externa chamada pela instrução SQL. Se a mesma função foi chamada mais de uma vez a partir da mesma instrução SQL, então as estatísticas são agregadas.

    • Total invocations — número de vezes que uma função externa foi chamada. (Isto pode ser diferente do número de chamadas de funções externas no texto da instrução SQL devido ao número de lotes em que as linhas estão divididas, o número de novas tentativas (se houver problemas transitórios na rede), etc.)

    • Rows sent — número de linhas enviadas para funções externas.

    • Rows received — número de linhas recebidas de volta das funções externas.

    • Bytes sent (x-region) — número de bytes enviados para funções externas. Se o rótulo incluir “(x-region)”, os dados foram enviados através de regiões (o que pode ter impacto no faturamento).

    • Bytes received (x-region) — número de bytes recebidos de funções externas. Se o rótulo incluir “(x-region)”, os dados foram enviados através de regiões (o que pode ter impacto no faturamento).

    • Retries due to transient errors — número de tentativas de repetição devido a erros transitórios.

    • Average latency per call — média de tempo por invocação (chamada) entre o momento em que Snowflake enviou os dados e o recebimento dos dados devolvidos.

    • HTTP 4xx erros — número total de solicitações de HTTP que retornaram um código de status 4xx.

    • HTTP 5xx erros — número total de solicitações de HTTP que retornaram um código de status 5xx.

    • Latency per successful call (avg) — latência média para solicitações de HTTP bem-sucedidas.

    • Avg throttle latency overhead — sobretaxa média por solicitação bem-sucedida devido a uma desaceleração causada pela limitação (HTTP 429).

    • Batches retried due to throttling — número de lotes que foram repetidos devido a erros HTTP 429.

    • Latency per successful call (P50) — latência de percentil 50 para solicitações de HTTP bem-sucedidas. 50 por cento de todas as solicitações bem-sucedidas levaram menos do que esse tempo para serem concluídas.

    • Latency per successful call (P90) — latência de percentil 90 para solicitações de HTTP bem-sucedidas. 90 por cento de todas as solicitações bem-sucedidas levaram menos do que esse tempo para serem concluídas.

    • Latency per successful call (P95) — latência de percentil 95 para solicitações de HTTP bem-sucedidas. 95 por cento de todas as solicitações bem-sucedidas levaram menos do que esse tempo para serem concluídas.

    • Latency per successful call (P99) — latência de percentil 99 para solicitações de HTTP bem-sucedidas. 99 por cento de todas as solicitações bem-sucedidas levaram menos do que esse tempo para serem concluídas.

  • Extension Functions — informações sobre chamadas para funções de extensão:

    • Java UDF handler load time – quantidade de tempo para o manipulador da UDF de Java carregar.

    • Total de invocações do manipulador da UDF de Java — número de vezes que o manipulador da UDF de Java é invocado.

    • Max Java UDF handler execution time — quantidade de tempo máxima para que o manipulador da UDF de Java seja executado.

    • Avg Java UDF handler execution time — quantidade média de tempo para executar o manipulador da UDF de Java.

    • Java UDTF process() invocations — número de vezes que o método de processo da UDTF foi invocado.

    • Java UDTF process() execution time — quantidade de tempo para executar o processo da UDTF de Java.

    • Avg Java UDTF process() execution time — quantidade média de tempo para executar o processo da UDTF de Java.

    • Java UDTF’s constructor invocations — número de vezes que o construtor da UDTF foi invocado.

    • Java UDTF’s constructor execution time — quantidade de tempo para executar o construtor da UDTF de Java.

    • Avg Java UDTF’s constructor execution time — quantidade média de tempo para executar o construtor da UDTF de Java.

    • Java UDTF endPartition() invocations — número de vezes que o método endPartition da UDTF foi invocado.

    • Java UDTF endPartition() execution time — quantidade de tempo para executar o método endPartition da UDTF de Java.

    • Avg Java UDTF endPartition() execution time — quantidade média de tempo para executar o método endPartition da UDTF de Java.

    • Max Java UDF dependency download time — quantidade máxima de tempo para baixar as dependências da UDF de Java.

    • Max JVM memory usage — pico de uso de memória conforme relatado pelo JVM.

    • Java UDF inline code compile time in ms — tempo de compilação para o código inline da UDF de Java.

    • Python total UDF invocações do manipulador — número de vezes que o manipulador da UDF de Python foi invocado.

    • Total Python UDF handler execution time — tempo total de execução do manipulador da UDF de Python.

    • Avg Python UDF handler execution time — quantidade média de tempo para executar o manipulador da UDF de Python.

    • Python sandbox max memory usage — pico de uso de memória pelo ambiente sandbox do Python.

    • Avg Python env creation time: Download and install packages — quantidade média de tempo para criar o ambiente Python, incluindo download e instalação de pacotes.

    • Conda solver time — quantidade de tempo para executar o solucionador Conda para resolver pacotes Python.

    • Conda env creation time — quantidade de tempo para criar o ambiente Python.

    • Python UDF initialization time — quantidade de tempo para inicializar a UDF de Python.

    • Number of external file bytes read for UDFs — número de bytes de arquivos externos lidos para UDFs.

    • Number of external files accessed for UDFs — número de arquivos externos acessados para UDFs.

    Se o valor de um campo, por exemplo “Retries due to transient errors”, for zero, então o campo não é exibido.

Nodos mais caros

O painel lista todos os nós que duraram 1% ou mais do tempo total de execução da consulta (ou o tempo de execução da etapa de consulta exibida, se a consulta foi executada em várias etapas de processamento). O painel lista os nós por tempo de execução em ordem decrescente, permitindo aos usuários localizar rapidamente os nós mais custosos em termos de tempo de execução.

Atributos

As seções seguintes fornecem uma lista dos tipos de operadores mais comuns e seus atributos:

Operadores de geração e acesso a dados
TableScan

Representa o acesso a uma única tabela. Atributos:

  • Full table name — o nome da tabela acessada, incluindo banco de dados e esquema.

  • Columns — lista de colunas verificadas

  • Table alias — usado, se presente

  • Extracted Variant paths — lista de caminhos extraídos das colunas VARIANT

ValuesClause

Lista de valores fornecidos com a cláusula VALUES. Atributos:

  • Number of values — o número de valores produzidos.

  • Values — a lista de valores produzidos.

Gerador

Gera registros usando o constructo TABLE(GENERATOR(...)). Atributos:

  • rowCount — parâmetro rowCount fornecido.

  • timeLimit — parâmetro timeLimit fornecido.

ExternalScan

Representa o acesso a dados armazenados em objetos de preparação. Pode ser uma parte das consultas que verificam dados diretamente dos estágios, mas também para operações de carregamento de dados (ou seja, instruções COPY).

Atributos:

  • Stage name — o nome do estágio de onde os dados são lidos.

  • Stage type — o tipo do estágio (por exemplo, TABLE STAGE).

InternalObject

Representa o acesso a um objeto de dados interno (por exemplo, uma tabela de Information Schema ou o resultado de uma consulta anterior). Atributos:

  • Object Name — o nome ou tipo do objeto acessado.

Operadores de processamento de dados
Filter

Representa uma operação que filtra os registros. Atributos:

  • Filter condition - a condição utilizada para realizar a filtragem.

Join

Combina duas entradas em uma determinada condição. Atributos:

  • Join Type — Tipo de junção (por exemplo, INNER, LEFT OUTER, etc.).

  • Equality Join Condition — para as junções que utilizam condições baseadas na igualdade, lista as expressões utilizadas para unir elementos.

  • Additional Join Condition — algumas condições de junção contêm predicados baseadas em desigualdade. Elas estão listadas aqui.

Nota

Predicados de junção de desigualdade podem resultar em velocidades de processamento significativamente mais lentas e devem ser evitados, se possível.

Agregação

Agrupa entradas e computa funções agregadas. Pode representar constructos SQL como GROUP BY, assim como SELECT DISTINCT. Atributos:

  • Grouping Keys — se GROUP BY for usado, lista as expressões pelas quais agrupamos.

  • Aggregate Functions — lista de funções computadas para cada grupo agregado, por exemplo SUM.

GroupingSets

Representa construtos como GROUPING SETS, ROLLUP e CUBE. Atributos:

  • Grouping Key Sets — lista de conjuntos de agrupamento

  • Aggregate Functions — lista de funções computadas para cada grupo, por exemplo SUM.

WindowFunction

Computa funções de janela. Atributos:

  • Window Functions — lista de funções de janela computadas.

Sort

Ordena a entrada em uma determinada expressão. Atributos:

  • Sort Keys — expressão que define a classificação.

SortWithLimit

Produz uma parte da sequência de entrada após a classificação, normalmente um resultado de um constructo ORDER BY ... LIMIT ... OFFSET ... em SQL.

Atributos:

  • Sort Keys — expressão que define a classificação.

  • Number of rows — número de linhas produzidas.

  • Offset — posição na sequência ordenada a partir da qual as tuplas produzidas são emitidas.

Flatten

Processa registros VARIANT, possivelmente nivelando-os em um caminho especificado. Atributos:

  • input — a expressão de entrada usada para nivelar os dados.

JoinFilter

Operação de filtragem especial que remove tuplas que podem ser identificadas como possivelmente não correspondendo à condição de um Join mais além no plano da consulta. Atributos:

  • Original join ID — a junção usada para identificar tuplas que podem ser filtradas.

UnionAll

Concatena duas entradas. Atributos: nenhum.

ExternalFunction

Representa o processamento por uma função externa.

Operadores DML
Insert

Adiciona registros a uma tabela através de uma operação INSERT ou COPY. Atributos:

  • Input expressions — quais expressões são inseridas.

  • Table names — nomes de tabelas que são adicionadas aos registros.

Delete

Remove registros de uma tabela. Atributos:

  • Table name — o nome da tabela da qual os registros são excluídos.

Update

Atualiza os registros em uma tabela. Atributos:

  • Table name — o nome da tabela atualizada.

Merge

Realiza uma operação MERGE em uma tabela. Atributos:

  • Full table name — o nome da tabela atualizada.

Unload

Representa uma operação COPY que exporta dados de uma tabela para um arquivo em um estágio. Atributos:

  • Location - o nome do estágio onde os dados são salvos.

Operadores de metadados

Algumas consultas incluem etapas que são puras operações de metadados/catálogos em vez de operações de processamento de dados. Estas etapas consistem em um único operador. Alguns exemplos incluem:

Comandos DDL e de transação

Usados para criar ou modificar objetos, sessões, transações, etc. Normalmente, estas consultas não são processadas por um warehouse virtual e resultam em um perfil de etapa única que corresponde à instrução SQL correspondente. Por exemplo:

CREATE DATABASE | SCHEMA | …

ALTER DATABASE | SCHEMA | TABLE | SESSION | …

DROP DATABASE | SCHEMA | TABLE | …

COMMIT

Comando de criação de tabelas

Comando DDL para a criação de uma tabela. Por exemplo:

CREATE TABLE

Similar a outros comandos DDL, estas consultas resultam em um perfil de etapa única; no entanto, também podem fazer parte de um perfil de múltiplas etapas, como quando usadas em uma instrução CTAS. Por exemplo:

CREATE TABLE … AS SELECT …

Reutilização do resultado da consulta

Uma consulta que reutiliza o resultado de uma consulta anterior.

Resultado baseado em metadados

Uma consulta cujo resultado é computado puramente com base em metadados, sem acessar nenhum dado. Estas consultas não são processadas por um warehouse virtual. Por exemplo:

SELECT COUNT(*) FROM …

SELECT CURRENT_DATABASE()

Operadores diversos
Resultado

Retorna o resultado da consulta. Atributos:

  • List of expressions - as expressões produzidas.

Problemas comuns de consulta identificados pelo perfil de consulta

Esta seção descreve alguns dos problemas que você pode identificar e solucionar usando o perfil de consulta.

“Explosão” de junções

Um dos erros comuns dos usuários de SQL é unir tabelas sem fornecer uma condição de junção (resultando em um “produto cartesiano”), ou fornecer uma condição em que os registros de uma tabela correspondem a vários registros de outra tabela. Para tais consultas, o operador Join produz significativamente (muitas vezes por ordem de magnitude) mais tuplas do que consome.

Isto pode ser observado verificando o número de registros produzidos por um operador Join, e normalmente também se reflete em um operador Join que consome muito tempo.

UNION sem ALL

Em SQL, é possível combinar dois conjuntos de dados com constructos UNION ou UNION ALL. A diferença entre eles é que UNION ALL simplesmente concatena as entradas, enquanto UNION faz o mesmo, mas também realiza a eliminação de duplicatas.

Um erro comum é usar UNION quando a semântica UNION ALL é suficiente. Estas consultas aparecem no perfil de consulta como um operador UnionAll com um operador extra Aggregate por cima (que realiza a eliminação de duplicatas).

Consultas grandes demais para caber na memória

Para algumas operações (por exemplo, eliminação de duplicatas para um conjunto de dados grande), a quantidade de memória disponível para os servidores usados para executar a operação pode não ser suficiente para armazenar resultados intermediários. Como resultado, o mecanismo de processamento de consultas começará a despejar os dados no disco local. Se o espaço em disco local não for suficiente, os dados despejados são salvos em discos remotos.

Este despejo pode ter um efeito profundo no desempenho da consulta (especialmente se for utilizado disco remoto para despejo). Para sanar isso, recomendamos:

  • Usar um warehouse maior (aumentando efetivamente a memória disponível/espaço em disco local para a operação), e/ou

  • Processar dados em lotes menores.

Remoção ineficiente

O Snowflake coleta estatísticas ricas em dados, permitindo não ler partes desnecessárias de uma tabela com base nos filtros de consulta. Entretanto, para que isso tenha efeito, a ordem do armazenamento de dados precisa ser correlacionada com os atributos do filtro de consulta.

A eficiência da remoção pode ser observada comparando as estatísticas de partições verificadas e partições totais nos operadores TableScan. Se a primeira for uma pequena fração da segunda, a remoção foi eficiente. Caso contrário, não teve efeito.

Naturalmente, a remoção só pode ajudar para consultas que realmente filtram uma quantidade significativa de dados. Se as estatísticas de remoção não mostram redução de dados, mas há um operador Filter acima de TableScan que filtra uma série de registros, isto pode sinalizar que uma organização de dados diferente pode ser benéfica para esta consulta.

Para obter mais informações sobre remoção, consulte Explicação das estruturas de tabela do Snowflake.

Histórico de cópias

O Copy History page permite visualizar a atividade de carregamento de dados que ocorreu nos últimos 365 dias para todas as tabelas em sua conta. O Copy History page fornece uma tabela detalhada de cargas de dados para suas tabelas.

O Copy History page inclui o seguinte:

  • O gráfico Copies Over Time.

  • A tabela Copies.

A atividade no Copy History page inclui o carregamento de dados em massa realizado usando COPY INTO e o carregamento de dados contínuo usando canais.

O histórico de carregamento de dados vem da exibição COPY_HISTORY de Account Usage. Esta exibição requer acesso ao banco de dados do Snowflake. Para obter mais informações, consulte Habilitação de Account Usage para outras funções.

Esta seção fornece uma breve visão geral de como navegar e usar Copy History page.

Interface

Descrição

Cópias ao longo do tempo

O gráfico Copies Over Time fornece uma visualização do carregamento de dados durante um determinado período de tempo. Por padrão, o gráfico mostra um histórico de 28 dias.

As barras no gráfico representam dias. Selecione uma barra no gráfico para filtrar a tabela Copies até aquele dia.

Filtrar atividade

No canto superior direito da página, filtre o gráfico Copies Over Time e a tabela Copies. Você pode filtrar por:

  • Intervalo de tempo

    • Last day

    • Last 7 days

    • Last 28 days (padrão)

    • Last 3 months

    • Last 6 months

    • Last 12 months (máximo)

    • Custom

  • Status

    • All (padrão)

    • In progress

    • Loaded

    • Failed

    • Partially loaded

    • Skipped

  • Database

    • All (padrão)

    • Um banco de dados individual

  • Schema

    • All (padrão)

    • Um esquema individual

  • Pipe

    • All (padrão)

    • Um canal individual

Warehouse

A Copy History page requer um warehouse. O Snowsight utiliza o warehouse padrão para seu perfil de usuário.

Se você vir o conteúdo esperado, ou se quiser trocar de warehouse, no canto superior direito da página selecione um warehouse.

No canto superior direito da tabela Copies, pesquise o conteúdo das seguintes colunas:

  • File Name

  • Database

  • Schema

  • Table

  • Pipe

Abrir planilha

No canto superior direito da tabela Copies, abra uma planilha que contenha a consulta SQL usada para preencher o Copy History page.

A consulta SQL é baseada nos filtros que você seleciona.

Copiar caminho do estágio

Em cada linha da tabela Copies, copie o caminho até o estágio para a carga de dados correspondente.

A tabela Copies inclui as seguintes colunas:

  • File Name

  • Database

  • Schema

  • Table

  • Pipe

  • Loaded

  • Size

  • Rows

  • Status

  • Location

A tabela Copies fornece informações de erro se uma carga de dados falhar. Para entender por que uma carga de dados falhou, na coluna de status, passe o mouse sobre o status Failed para a carga de dados.

Para visualizar o histórico de cópias de uma tabela específica, selecione uma carga de dados na tabela Copies. Você é enviado para o histórico de cópias da tabela que foi o destino da carga de dados.