モニター活動

Snowsight, the Snowflake web interface の Activity 領域では、次を実行できます。

  • アカウントのユーザーによって実行されたクエリをモニターする。

  • クエリに関する詳細を表示します。

  • パフォーマンスデータを表示します。

  • 実行されたクエリの各ステップを探索する。

  • COPY INTO (一括ロード)とパイプ(連続ロード)を使用して、データのロードのステータスをモニターします。

  • 一括および連続データロードのインスタンスに関する詳細を表示します。

  • 個別のテーブルのコピー履歴に移動します。

このトピックでは、 Activity 領域を使用して、Snowflakeアカウントのアクティビティを理解する方法について説明します。

このトピックの内容:

Activity領域の使用

このセクションでは、 Snowsight の Activity 領域の使用方法に関する概要を説明します。

Activity 領域には、次のページが含まれます。

クエリ履歴

Query History ページにより、過去14日間にSnowflakeアカウントで実行されたクエリの詳細を表示して詳細を確認できます。 セッション のデータ保持ポリシーにより、クエリが7日以上前に実行された場合、クエリ履歴にはクエリを実行したユーザーがリストされません。

古いクエリの情報を取得する必要がある場合は、Account Usageスキーマの QUERY_HISTORY ビュー に対してクエリの実行を試みます。

このセクションでは、 Query History ページのナビゲーションと使用方法の概要を提供します。

インターフェイス

説明

基本的なフィルター

ページの右上隅にあるフィルターを使用して、テーブルをフィルターします。次の項目でフィルターできます。

  • Status

    • All (デフォルト)

    • Queued

    • Blocked

    • Running

    • Failed

    • Successful

  • User

    • All

    • サインインしたユーザー(デフォルト)

    • アカウント内の個別のSnowflakeユーザー

追加のフィルター

ページの右上隅にある Filters を使用して、クエリに追加のフィルターを設定します。次の項目でフィルターできます。

  • SQL Text

  • Query ID

  • Warehouse

  • Duration

  • Session ID

  • Query Tag

  • Client generated statements

  • Queries executed by user tasks

ページの右上隅にある Columns を使用して、テーブルに列を追加または削除します。クエリテーブルには、次の列が含まれています。

  • All

  • SQL Text (デフォルト)

  • Query ID (デフォルト)

  • Status (デフォルト)

  • User (デフォルト)

  • Warehouse (デフォルト)

  • Duration (デフォルト)

  • Started (デフォルト)

  • End Time

  • Session ID

  • Client Driver

  • Bytes Scanned

  • Cluster Number

  • Rows

  • Query Tag

自動更新

ページの右上隅で、 Auto Refresh をオンにします。 Auto Refresh がオンの場合、テーブルは10秒ごとに更新されます。

クエリテーブルには、デフォルトで次の列が含まれています。

  • SQL Text

  • Query ID

  • Status

  • User

  • Warehouse

  • Duration

  • Started

列は追加できます。

クエリに関する追加の詳細を表示するには、テーブルでクエリを選択します。

クエリ

クエリテーブルでクエリを選択すると、クエリページが表示されます。

このセクションでは、クエリページのナビゲーションと使用方法の概要を提供します。

インターフェイス

説明

基本的な詳細

クエリに関する基本的な詳細は、ページの最上部にあります。

ページタブのクエリ

クエリページには、次のタブが含まれています。

  • Query Details

  • Query Profile

クエリの詳細

Query Details tab では、クエリの結果と追加情報が提供されます。 Query Details tab は、クエリページのデフォルトのタブです。 Query Details tab では、次のセクションが提供されます。

  • Details

  • SQL Text

  • Results

Details セクションでは、クエリの実行に関する、次のような追加情報が提供されます。

  • クエリのステータス。

  • クエリの開始時。

  • クエリの終了時。

  • クエリの期間。

  • クエリ ID。

  • セッション ID。

  • ドライバーのステータス。

  • クライアントドライバー。

SQL Text セクションでは、クエリの実際のテキストが提供されます。SQL テキストにカーソルを合わせてワークシートでテキストを開くか、テキストをコピーします。

Results セクションでは、クエリの結果が提供されます。結果を.csvファイルとしてエクスポートするには、 Export Query を選択します。

クエリプロファイル

Query Profile タブでは、クエリ実行プランを調べて、実行の各ステップに関する詳細を理解できます。

クエリプロファイルは、クエリのメカニズムを理解するための強力なツールです。特定のクエリのパフォーマンスや動作について詳細を知りたい場合は、いつでも使用できます。SQL クエリ式の典型的な間違いを見つけて、潜在的なパフォーマンスのボトルネックと改善の機会を特定できるように設計されています。

このセクションでは、クエリプロファイルのナビゲーションと使用方法の概要を提供します。

インターフェイス

説明

クエリ実行プラン

クエリ実行プランは、クエリプロファイルの中央に表示されます。

クエリ実行プランは、行セット演算子を表す演算子ノードで構成されています。

演算子ノード間の矢印は、ある演算子から出て別の演算子に流れる行セットを示します。

演算子ノード

各オペレーターノードには、次が含まれます。

  • 演算子型と ID 番号。

  • この演算子の実行に使用された時間。クエリ期間のパーセンテージとして表されます。

  • 演算子の詳細のプレビュー。たとえば、テーブルの名前や式のリスト。

クエリプロファイルナビゲーション

クエリプロファイルの左上隅にあるボタンを使用して、次を実行します。

  • 実行ステップ間を移動します。

  • クエリ実行プランをウィンドウのサイズに合わせます。

  • クエリ実行プランをズームインおよびズームアウトします。

注釈

ステップは、クエリがステップで実行された場合にのみ表示されます。

情報ペイン

クエリプロファイルでは、さまざまな情報ペインが提供されます。ペインは、クエリ実行プランに表示されます。表示されるペインは、クエリ実行プランの焦点によって異なります。

クエリプロファイルには、次の情報ペインが含まれています。

  • Profile Overview

  • Statistics

  • Most Expensive Nodes

  • Attributes

ペインによって提供される情報の詳細については、 クエリ履歴リファレンス をご参照ください。

クエリ履歴リファレンス

このセクションでは、各情報ペインに表示できるすべての項目について説明します。情報ペインの正確な内容は、クエリ実行プランのコンテキストによって異なります。

プロファイル概要

ペインは、どの処理タスクがクエリ時間を消費したかについての情報を提供します。実行時間は、クエリの処理中に「時間が費やされた場所」に関する情報を提供します。費やした時間は、次のカテゴリに分類できます。

  • Processing --- CPU によるデータ処理に費やされた時間。

  • Local Disk IO ---ローカルディスクアクセスによって処理がブロックされた時間。

  • Remote Disk IO ---処理がリモートディスクアクセスによってブロックされた時間。

  • Network Communication ---処理がネットワークデータ転送を待機していた時間。

  • Synchronization ---参加しているプロセス間のさまざまな同期アクティビティ。

  • Initialization --- クエリ処理の設定にかかった時間。

統計

詳細ペインで提供される主な情報源は、次のセクションにグループ化されたさまざまな統計です。

  • IO --- クエリ中に実行される入出力操作に関する情報。

    • Scan progress ---これまでに特定のテーブルについてスキャンされたデータの割合。

    • Bytes scanned ---これまでにスキャンされたバイト数。

    • Percentage scanned from cache ---ローカルディスクキャッシュからスキャンされたデータの割合。

    • Bytes written ---書き込まれたバイト数(例: テーブルへのロード時)。

    • Bytes written to result --- 結果オブジェクトに書き込まれたバイト数。たとえば、 select * from . . . は、選択範囲の各フィールドを表す表形式の結果のセットを生成します。一般に、結果オブジェクトは、なんであれクエリの結果として生成されるものを表し、 Bytes written to result は、返される結果のサイズを表します。

    • Bytes read from result --- 結果オブジェクトから読み取ったバイト数。

    • External bytes scanned ---ステージなどの外部オブジェクトから読み取ったバイト数。

  • DML ---データ操作言語(DML)クエリの統計:

    • Number of rows inserted ---1つまたは複数のテーブルに挿入された行の数。

    • Number of rows updated ---テーブルで更新された行の数。

    • Number of rows deleted ---テーブルから削除された行の数。

    • Number of rows unloaded ---データのエクスポート中にアンロードされた行の数。

  • Pruning ---テーブルのプルーニングの影響に関する情報:

    • Partitions scanned ---これまでにスキャンされたパーティションの数。

    • Partitions total ---特定のテーブル内のパーティションの総数。

  • Spilling ---中間結果がメモリに収まらない操作のディスク使用量に関する情報:

    • Bytes spilled to local storage ---ローカルディスクに流出したデータの量。

    • Bytes spilled to remote storage ---リモートディスクに流出したデータの量。

  • Network ---ネットワーク通信:

    • Bytes sent over the network --- ネットワーク経由で送信されたデータの量。

  • External Functions --- 外部関数の呼び出しに関する情報。

    次の統計は、 SQL ステートメントによって呼び出される各外部関数について表示されます。同じ SQL ステートメントから同じ関数が複数回呼び出された場合は、統計が集計されます。

    • Total invocations --- 外部関数が呼び出された回数。(行が分割されるバッチの数、再試行の数(一時的なネットワークの問題がある場合)などにより、 SQL ステートメントのテキスト内にある外部関数呼び出しの数とは異なる場合がある。)

    • Rows sent --- 外部関数に送信された行数。

    • Rows received --- 外部関数から受信した行数。

    • Bytes sent (x-region) --- 外部関数に送信されたバイト数。ラベルに「(x地域)」が含まれている場合、データは複数の地域に送信されています(請求に影響する可能性あり)。

    • Bytes received (x-region) --- 外部関数から受信したバイト数。ラベルに「(x地域)」が含まれている場合、データは複数の地域に送信されています(請求に影響する可能性あり)。

    • Retries due to transient errors --- 一時的なエラーによる再試行の数。

    • Average latency per call --- Snowflakeがデータを送信してから返されたデータを受信するまでの呼び出し(コール)あたりの平均時間。

    • HTTP 4xx errors --- 4xxステータスコードを返した HTTP リクエストの合計数。

    • HTTP 5xx errors --- 5xxステータスコードを返した HTTP リクエストの合計数。

    • Latency per successful call (avg) --- 成功した HTTP リクエストの遅延平均。

    • Avg throttle latency overhead --- スロットリングが原因の速度低下による、成功したリクエストごとの平均オーバーヘッド(HTTP 429)。

    • Batches retried due to throttling --- HTTP 429エラーが原因で再試行されたバッチの数。

    • Latency per successful call (P50) --- 成功した HTTP リクエストの遅延の50パーセンタイル値。成功したすべてのリクエストの50%で、完了までにかかった時間がこの時間未満。

    • Latency per successful call (P90) --- 成功した HTTP リクエストの遅延の90パーセンタイル値。成功したすべてのリクエストの90%で、完了までにかかった時間がこの時間未満。

    • Latency per successful call (P95) --- 成功した HTTP リクエストの遅延の95パーセンタイル値。成功したすべてのリクエストの95%で、完了までにかかった時間がこの時間未満。

    • Latency per successful call (P99) --- 成功した HTTP リクエストの遅延の99パーセンタイル値。成功したすべてのリクエストの99%で、完了までにかかった時間がこの時間未満。

  • Extenstion Functions --- 拡張関数の呼び出しに関する情報。

    • Java UDF handler load time --- Java UDF ハンドラーのロードにかかった時間。

    • Total Java UDF handler invocations --- Java UDF ハンドラーが呼び出された回数。

    • Max Java UDF handler execution time --- Java UDF ハンドラーの実行にかかった最大時間。

    • Avg Java UDF handler execution time --- Java UDF ハンドラーの実行にかかった平均時間。

    • Java UDTF process() invocations --- Java UDTF プロセスメソッド が呼び出された回数。

    • Java UDTF process() execution time --- Java UDTF プロセスの実行にかかった時間。

    • Avg Java UDTF process() execution time --- Java UDTF プロセスの実行にかかった平均時間。

    • Java UDTF's constructor invocations --- Java UDTF コンストラクター が呼び出された回数。

    • Java UDTF's constructor execution time --- Java UDTF コンストラクターの実行にかかった時間。

    • Avg Java UDTF's constructor execution time --- Java UDTF コンストラクターの実行にかかった平均時間。

    • Java UDTF endPartition() invocations --- Java UDTF endPartitionメソッド が呼び出された回数。

    • Java UDTF endPartition() execution time --- Java UDTF endPartitionメソッドの実行にかかった時間。

    • Avg Java UDTF endPartition() execution time --- Java UDTF endPartition メソッドの実行にかかった平均時間。

    • Max Java UDF dependency download time --- Java UDF 依存関係のダウンロードにかかった最大時間。

    • Max JVM memory usage --- JVM によって報告されたピークメモリ使用量。

    • Java UDF inline code compile time in ms --- Java UDF インラインコードをコンパイルする時間。

    • Total Python UDF handler invocations --- Python UDF ハンドラーが呼び出された回数。

    • Total Python UDF handler execution time --- Python UDF ハンドラーの実行にかかった合計時間。

    • Avg Python UDF handler execution time --- Python UDFハンドラーの実行にかかった平均時間。

    • Python sandbox max memory usage --- Pythonサンドボックス環境によるピークメモリ使用量。

    • Avg Python env creation time: Download and install packages --- パッケージのダウンロードとインストールを含む、Python環境の作成にかかった平均時間。

    • Conda solver time --- Pythonパッケージの解決でCondaソルバーの実行にかかった時間。

    • Conda env creation time --- Python環境の作成にかかった時間。

    • Python UDF initialization time --- Python UDF の初期化にかかった時間。

    • Number of external file bytes read for UDFs --- UDFs 用に読み取られた外部ファイルのバイト数。

    • Number of external files accessed for UDFs --- UDFs 用にアクセスした外部ファイル数。

    「一時的なエラーによる再試行」などのフィールドの値がゼロの場合、フィールドは表示されません。

最も高額なノード

ペインには、クエリの合計実行時間(またはクエリが複数の処理ステップで実行された場合は、表示されたクエリステップの実行時間)の1%以上持続したすべてのノードがリストされます。ペインには、実行時間の降順でノードがリストされ、ユーザーは実行時間の観点から最もコストの高い演算子ノードをすばやく見つけることができます。

属性

次のセクションでは、最も一般的な演算子タイプとその属性のリストを提供します。

データアクセスおよび生成演算子
TableScan

単一のテーブルへのアクセスを表します。属性:

  • Full table name ---データベースとスキーマを含む、アクセスされたテーブルの名前。

  • Columns ---スキャンされた列のリスト

  • Table alias ---存在する場合は、テーブルエイリアスを使用

  • Extracted Variant paths --- VARIANT 列から抽出されたパスのリスト

ValuesClause

VALUES 句で提供される値のリスト。属性:

  • Number of values ---生成された値の数。

  • Values ---生成された値のリスト。

ジェネレーター

TABLE(GENERATOR(...)) 構造を使用して記録を生成します。属性:

  • rowCount ---指定されたrowCountパラメーター。

  • timeLimit ---指定されたtimeLimitパラメーター。

ExternalScan

ステージオブジェクトに保存されているデータへのアクセスを表します。ステージから直接データをスキャンするクエリの一部になりますが、データロード演算子(つまり、 COPY ステートメント)にも使用できます。

属性:

  • Stage name ---データが読み取られるステージの名前。

  • Stage type ---ステージのタイプ(例: TABLE STAGE)。

InternalObject

内部データオブジェクト(例: Information Schemaテーブルや以前のクエリの結果)へのアクセスを表します。属性:

  • Object Name ---アクセスしたオブジェクトの名前またはタイプ。

データ処理演算子
フィルター

記録をフィルタリングする操作を表します。属性:

  • Filter condition -フィルターの実行に使用される条件。

参加する

特定の条件で2つの入力を結合します。属性:

  • Join Type ---結合のタイプ(例: INNER、 LEFT OUTER など)

  • Equality Join Condition ---等価ベースの条件を使用する結合の場合、要素の結合に使用される式がリストされます。

  • Additional Join Condition ---一部の結合では、不平等ベースの述語を含む条件が使用されます。それらはここにリストされています。

注釈

等しくない結合述部は、処理速度を大幅に低下させる可能性があるため、可能であれば回避する必要があります。

集計

入力をグループ化し、集計関数を計算します。 GROUP BYや SELECT DISTINCTなどの SQL 構造を表すことができます。属性:

  • Grouping Keys --- GROUP BY が使用される場合、これはグループ化する式をリストします。

  • Aggregate Functions ---各集計グループに対して計算された関数のリスト(例: SUM)。

GroupingSets

GROUPING SETS、 ROLLUP 、 CUBEなどの構造を表します。属性:

  • Grouping Key Sets ---グループ化セットのリスト

  • Aggregate Functions ---各グループに対して計算された関数のリスト(例: SUM)。

WindowFunction

ウィンドウ関数を計算します。属性:

  • Aggregate Functions ---計算されたウィンドウ関数のリスト。

ソート

特定の式の入力を順序付けます。属性:

  • Sort keys ---ソート順を定義する式。

SortWithLimit

ソート後に入力シーケンスの一部、通常は SQL の ORDER BY ... LIMIT ... OFFSET ... 構築の結果を生成します。

属性:

  • Sort keys ---ソート順を定義する式。

  • Number of rows ---生成された行数。

  • Offset ---生成されたタプルが発行される順序付けられたシーケンス内の位置。

フラット化

VARIANT 記録を処理し、場合によっては指定されたパスでそれらをフラット化します。属性:

  • input ---データをフラット化するために使用される入力式。

JoinFilter

クエリプランでさらに結合の条件に一致しない可能性があると識別できるタプルを削除する特別なフィルタリング操作。属性:

  • Original join ID ---除外できるタプルを識別するために使用される結合。

UnionAll

2つの入力を連結します。属性:なし。

ExternalFunction

外部関数による処理を表します。

DML 演算子
挿入

INSERT または COPY 操作のいずれかにより、テーブルに記録を追加します。属性:

  • Input expressions ---挿入される式。

  • Table names --- 記録が追加されるテーブルの名前。

削除

テーブルから記録を削除します。属性:

  • Table name ---記録が削除されるテーブルの名前。

更新

テーブル内の記録を更新します。属性:

  • Table name ---更新されたテーブルの名前。

マージ

テーブルで MERGE 操作を実行します。属性:

  • Full table name ---更新されたテーブルの名前。

アンロード

ステージ内のテーブルからファイルにデータをエクスポートする COPY 操作を表します。属性:

  • Location - データが保存されるステージの名前。

メタデータ演算子

一部のクエリには、データ処理操作ではなく、純粋なメタデータ/カタログ操作であるステップが含まれます。これらのステップは、単一の演算子で構成されています。例は次のとおりです:

DDL およびトランザクションコマンド

オブジェクト、セッション、トランザクションなどの作成または変更に使用されます。通常、これらのクエリは仮想ウェアハウスによって処理されず、一致する SQL ステートメントに対応するシングルステッププロファイルになります。例:

CREATE DATABASE | SCHEMA | ...

ALTER DATABASE | SCHEMA | TABLE | SESSION | ...

DROP DATABASE | SCHEMA | TABLE | ...

COMMIT

テーブル作成コマンド

テーブルを作成するためのDDL コマンド。例:

CREATE TABLE

他の DDL コマンドと同様に、これらのクエリはシングルステッププロファイルになります。ただし、 CTAS ステートメントで使用する場合など、マルチステッププロファイルの一部にすることもできます。例:

CREATE TABLE ... AS SELECT ...

クエリ結果の再利用

前のクエリの結果を再利用するクエリ。

メタデータベースの結果

データにアクセスすることなく、メタデータのみに基づいて結果が計算されるクエリ。これらのクエリは、仮想ウェアハウスでは処理されません。例:

SELECT COUNT(*) FROM ...

SELECT CURRENT_DATABASE()

その他の演算子
結果

クエリ結果を返します。属性:

  • List of expressions - 生成された式。

クエリプロファイルによって識別される一般的なクエリの問題

このセクションでは、クエリプロファイルを使用して特定およびトラブルシューティングできる問題の一部について説明します。

「爆発」結合

SQL ユーザーのよくある間違いの1つは、結合条件を提供せずにテーブルを結合する(「デカルト積」になる)、または1つのテーブルの記録が、別のテーブルからの記録と複数一致する条件を提供することです。このようなクエリの場合、 Join 演算子は、消費するよりも大幅に(多くの場合、桁違いに)タプルを生成します。

これは、 Join 演算子によって生成された記録の数を調べることで確認できます。通常、 Join 演算子が多くの時間を消費することにも反映されます。

ALL なしの UNION

SQL では、2組のデータを UNION または UNION ALL 構造のいずれかと組み合わせることができます。それらの違いは、 UNION ALL は単純に入力を連結するのに対し、 UNION は同じことを行いますが、重複排除も行います。

よくある間違いは、 UNION ALL のセマンティクスで十分な場合に UNION を使用することです。これらのクエリは、クエリプロファイルに UnionAll 演算子として表示され、余分に Aggregate 演算子が追加されます(重複排除を実行します)。

大きすぎてメモリに収まらないクエリ

一部の操作(例: 巨大なデータセットの重複排除)では、操作の実行に使用されるサーバーで使用可能なメモリ量が中間結果を保持するのに十分でない場合があります。その結果、クエリ処理エンジンはローカルディスクへのデータの スピル を開始します。ローカルディスクスペースが十分でない場合、スピルしたデータはリモートディスクに保存されます。

このスピルは、クエリのパフォーマンスに大きな影響を与える可能性があります(特に、リモートディスクがスピルに使用される場合)。これを軽減するには、以下をお勧めします:

  • より大きなウェアハウスを使用する(操作に使用可能なメモリ/ローカルディスクスペースを効果的に増やす)、または

  • 小さいバッチでデータを処理します。

非効率なプルーニング

Snowflakeは、データに関する豊富な統計を収集し、クエリフィルターに基づいてテーブルの不要な部分を読み取らないようにします。ただし、これを有効にするには、データストレージの順序をクエリフィルター属性と関連付ける必要があります。

プルーニングの効率は、 TableScan 演算子の スキャンされたパーティションパーティションの合計 統計を比較することで確認できます。前者が後者のごく一部である場合、プルーニングは効率的です。そうでない場合、プルーニングは効果がありません。

もちろん、プルーニングは、大量のデータを実際にフィルターするクエリにのみ役立ちます。プルーニング統計にデータ削減が示されていないが、 TableScan の上に多数の記録を除外する Filter 演算子がある場合、これはこのクエリに対して異なるデータ編成が有益であることを示す可能性があります。

プルーニングの詳細については、 Snowflakeテーブル構造について をご参照ください。

コピー履歴

Copy History page を使用すると、アカウント内のすべてのテーブルについて、過去365日間に発生したデータロードのアクティビティを表示できます。 Copy History page では、テーブルのデータロードの詳細なテーブルが提供されます。

Copy History page には次が含まれます。

  • Copies Over Time グラフ。

  • Copies テーブル。

Copy History page でのアクティビティには、 COPY INTO を使用して実行される一括データロードと、パイプを使用する連続データロードが含まれます。

データのロード履歴は、 COPY_HISTORY Account Usageビューから取得されます。このビューには、Snowflakeデータベースへのアクセスが必要です。詳細については、他のロールのAccount Usageを有効にするをご参照ください。

このセクションでは、 Copy History page のナビゲーションと使用方法の概要を提供します。

インターフェイス

説明

時間の経過とともにコピー

Copies Over Time グラフでは、特定の期間におけるデータロードの視覚化が提供されます。デフォルトでは、グラフに28日間の履歴が表示されます。

グラフのバーは日数を表します。グラフのバーを選択し、その日付で Copies テーブルをフィルターします。

フィルターアクティビティ

ページの右上隅で、 Copies Over Time グラフと Copies テーブルをフィルターします。次の項目でフィルターできます。

  • 時間範囲

    • Last day

    • Last 7 days

    • Last 28 days (デフォルト)

    • Last 3 months

    • Last 6 months

    • Last 12 months (最大)

    • Custom

  • Status

    • All (デフォルト)

    • In progress

    • Loaded

    • Failed

    • Partially loaded

    • Skipped

  • Database

    • All (デフォルト)

    • 個別のデータベース

  • Schema

    • All (デフォルト)

    • 個別のスキーマ

  • Pipe

    • All (デフォルト)

    • 個別のパイプ

ウェアハウス

Copy History page にはウェアハウスが必要です。 Snowsight は、ユーザープロファイルにデフォルトのウェアハウスを使用します。

期待されるコンテンツが表示されない場合、またはウェアハウスを切り替える場合は、ページの右上隅でウェアハウスを選択します。

Copies テーブルの右上隅で、次の列の内容を検索します。

  • File Name

  • Database

  • Schema

  • Table

  • Pipe

ワークシートを開く

Copies テーブルの右上隅で、 Copy History page の入力に使用される SQL クエリを含むワークシートを開きます。

SQL クエリは、選択したフィルターに基づいています。

ステージパスをコピーする

Copies テーブルの各行で、対応するデータロードのステージへのパスをコピーします。

Copies テーブルには、次の列が含まれています。

  • File Name

  • Database

  • Schema

  • Table

  • Pipe

  • Loaded

  • Size

  • Rows

  • Status

  • Location

Copies テーブルでは、データのロードが失敗した場合のエラー情報が提供されます。データのロードに失敗した理由を理解するには、ステータス列で、データのロードの Failed ステータスにカーソルを合わせます。

特定のテーブルのコピー履歴を表示するには、 Copies テーブルでデータのロードを選択します。データのロードのターゲットであったテーブルのコピー履歴に移動します。