Cortex Analyst

概要

Cortex Analyst は完全に管理され、 LLM-powered Snowflake Cortex 機能で、Snowflake の構造化データに基づいてビジネス上の質問に確実に回答できるアプリケーションの作成を支援します。Cortex Analyst により、ビジネスユーザーは SQL を記述することなく、自然言語で質問し、直接回答を受け取ることができます。便利な REST API として利用できる Cortex Analyst は、どのようなアプリケーションにもシームレスに統合できます。

本番レベルの会話型セルフサービス分析ソリューションを構築するには、正確なテキストから SQL への応答を生成するサービスが必要です。ほとんどのチームにとって、精度、遅延、コストのバランスをうまくとったこのようなサービスを開発するのは大変な作業です。Cortex Analyst は、これらの複雑な問題をすべて処理し、高精度のテキストから SQL への応答を生成する、完全に管理された洗練されたエージェント型 AI システムを提供することで、このプロセスを簡素化します。複雑な RAG ソリューションパターン、モデル実験、 GPU 容量計画などの時間浪費を回避しながら、ビジネスチームへの高精度なセルフサービス会話型分析の提供を加速することができます。生成された SQL クエリは、スケーラブルなSnowflakeエンジンに対して実行され、業界トップクラスの価格性能と低い総所有コスト(TCO)を保証します。

Tip

Cortex Analyst をすぐに始めたいですか?チュートリアル: Cortex Analystで時系列収益データに関する質問に答える チュートリアルをお試しください。

主要な機能

  • 自然言語クエリによるセルフサービス分析。 Snowflakeの構造化データから即座に回答や洞察を得て、ビジネスチームや非技術系ユーザーを喜ばせましょう。Cortex Analyst を使用すると、ユーザーが自然言語を使用して質問し、その場で正確な回答を受け取ることができるダウンストリームチャットアプリケーションを構築することができます。

  • 既存のビジネスワークフローに統合できる便利な REST API。 Cortex Analyst は、 APIファーストアプローチを採用しており、エンドユーザーエクスペリエンスを完全に制御できます。Cortex Analyst を既存のビジネスツールやプラットフォームに簡単に統合し、Streamlitアプリ、Slack、Teams、カスタムチャットインターフェースなど、ビジネスユーザーがすでに操作している場所にデータインサイトのパワーをもたらします。

  • 最先端の大規模言語モデルを搭載: デフォルトで、 Cortex Analyst は最新のMeta LlamaとMistralモデルを搭載しています。これらのモデルは、 Snowflake Cortex、Snowflakeのインテリジェントなフルマネージド AI サービス内で安全に実行されます。オプションで、 Cortex Analyst にAzureがホストする OpenAI GPT の最新モデルへのアクセス権を与えることもできます。実行時に Cortex Analyst は、各クエリに対して最高の精度とパフォーマンスを保証するために、モデルの最適な組み合わせを選択します。詳細については、 Azure OpenAI モデルの使用を有効にする(レガシーパス) をご参照ください。LLMs が進化するにつれ、Snowflakeは性能と精度をさらに向上させるために、より多くのモデルをミックスに加えることを探求し続けます。

  • 高い精度と正確性を実現するセマンティックモデル: 一般的な AI ソリューションは、データベーススキーマのみを与えられた場合、テキストから SQL への変換に苦戦することがよくあります。スキーマにはビジネスプロセスの定義やメトリクスの取り扱いなど、重要な知識が欠けているためです。Cortex Analyst は、 セマンティックモデル を使用してこの制限を克服し、ビジネスユーザーとデータベース間のギャップを埋めています。軽量な YAML ファイルに取り込まれたセマンティックモデルの全体的な構造と概念は、データベーススキーマと似ていますが、データ周辺のセマンティック情報をより豊かに記述することができます。

    Cortex Analyst を大容量のデータソースから質問に答えるようにセットアップすると、 Cortex Analyst は、自動的に使用するデータソースを割り出すことができます。クエリごとに正しいものを指定する心配はありません。

  • セキュリティとガバナンス。 Snowflakeのプライバシー第一の基盤とエンタープライズグレードのセキュリティにより、最高水準のプライバシーとガバナンスによってデータが保護されていることを認識しながら、 AI に基づいたユースケースを安心して検討することができます。

    • Cortex Analyst は、顧客データに関する訓練は行いません。当社は、当社の顧客ベース全体で使用できるようにするモデルの訓練または微調整のために、お客様の顧客データを使用することはありません。さらに、推論のために、 Cortex Analyst は、 SQL-クエリ生成のためにのみ、意味モデル YAML ファイルにプロバイダーされたメタデータ(例えば、テーブル名、列名、値タイプ、説明など)を使用します。この SQL クエリは、Snowflake仮想ウェアハウスで実行され、最終的な出力を生成します。

    • データはSnowflakeのガバナンス境界内に留まります。デフォルトでは、 Cortex Analyst は、MistralとMetaのSnowflakeホスティング LLMs によって駆動され、メタデータやプロンプトを含むデータがSnowflakeのガバナンス境界を離れることがないようにします。Azure OpenAI モデルの使用を選択した場合、メタデータとプロンプトのみがSnowflakeのガバナンス境界の外部に送信されます。

    • Snowflakeのプライバシーおよびガバナンス機能とのシームレスな統合。Cortex Analyst は、Snowflakeのロールベースのアクセス制御(RBAC)ポリシーと完全に統合され、 SQL クエリの生成と実行が確立されたすべてのアクセス制御を遵守することを保証します。これにより、データの強固なセキュリティとガバナンスが保証されます。

アクセス制御の要件

Cortex Analyst へのリクエストを行うには、 SNOWFLAKE.CORTEX_USER ロールが付与されたロールを使用する必要があります。

セマンティックモデルで Cortex Analyst を使用するには、以下の権限も必要です。

権限

オブジェクト

READ または WRITE

セマンティックモデルがステージにアップロードされている場合、セマンティックモデル YAML ファイルを含むステージ。

USAGE

セマンティックモデルで言及されているCortex Search service。

SELECT

セマンティックモデルで言及されているテーブル。

Cortex Analyst API へのリクエストには、認証トークンを含める必要があります。API への認証コードの詳細については、 Snowflakeでの Snowflake REST APIs 認証 をご参照ください。

このトピックの例では、セッショントークンを使用してSnowflakeアカウントを認証していることに注意してください。

特定のロールへのアクセス制限

デフォルトでは、CORTEX_USERロールはPUBLICロールに付与されます。PUBLIC ロールは、すべてのユーザーとロールに自動的に付与されます。すべてのユーザーにこの権限を与えたくない場合は、PUBLICロールのアクセス権を取り消し、特定のロールにアクセス権を与えることができます。詳細については、 必要な権限 をご参照ください。

特定のセマンティックモデルへのアクセスを制御するには、 YAML ファイルをステージに格納し、そのステージへのアクセスを制御します。

リージョンの可用性

Cortex Analyst は以下の地域でネイティブに利用できます。

  • AWS ap-northeast-1(東京)

  • AWS ap-southeast-2(シドニー)

  • AWS us-east-1(バージニア)

  • AWS US 東部(商業組織、バージニア政府北部)

  • AWS us-west-2(オレゴン)

  • AWS eu-central-1(フランクフルト)

  • AWS eu-west-1(アイルランド)

  • Azure東 US 2(バージニア)

  • Azure西ヨーロッパ(オランダ)

Snowflakeアカウントが別のクラウドリージョンにある場合でも、 クロスリージョン推論 を活用して Cortex Analyst を使用することができます。クロスリージョン推論が有効になると、 Cortex Analyst は、デフォルトのリージョンでは利用できないモデルについて、他のリージョンからのリクエストを処理します。最適なパフォーマンスを得るには、 AWS US リージョンとクロスリージョンを構成します。

Cortex Analyst におけるマルチターン会話

Cortex Analyst は、データに関連した質問のためのマルチターン会話をサポートします。この機能により、以前のクエリを基にしたフォローアップ質問が可能になり、よりダイナミックでインタラクティブなデータ探索体験が実現します。例えば、ユーザーが「アジアにおける2021年の前月比の収益成長率は?」と質問した後に、「北米はどうか?」とフォローアップするとします。

Cortex Analyst はフォローアップを認識し、最初のクエリからコンテキストを取得し、2番目の質問を「北米における2021年の前月比の収益成長率は?」と言い換えます。次に、この質問に答えるために Cortex Analyst が SQL クエリを生成します。

この機能を使用するには、 messages フィールドに会話履歴を渡します。

{
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "type": "text",
                    "text": "What is the month over month revenue growth for 2021 in Asia?"
                }
            ]
        },
        {
            "role": "analyst",
            "content": [
                {
                    "type": "text",
                    "text": "We interpreted your question as ..."
                },
                {
                    "type": "sql",
                    "statement": "SELECT * FROM table"
                }
            ]
        },
        {
            "role": "user",
            "content": [
                {
                    "type": "text",
                    "text": "What about North America?"
                }
            ]
        },
    ],
    "semantic_model_file": "@my_stage/my_semantic_model.yaml"
}
Copy

会話履歴は時系列に並んだメッセージの配列で、各メッセージにはロールとコンテンツがあります。ロールは "user" (以前の質問)または "analyst" (以前の回答)です。上記の例のように、アナリストの応答にはテキストと SQL の両方がありますが、ユーザーメッセージにはテキストのみがあります。

重要

Cortex Analyst で使われているような大容量言語モデルは、リクエスト間の状態を保存しません。全履歴は会話中の新しいクエリごとに処理され、対応する計算コストはラウンドごとに増加します。

マルチターン会話における既知の制限

以下の制限のいくつかは、 Cortex Analyst の将来のバージョンで対処される可能性があります。

以前の SQL クエリ結果へのアクセス

Cortex Analyst は以前の SQL クエリ結果にはアクセスできません。例えば、最初に「私の製品は何ですか?」と質問し、次に「2番目の製品の売上はどうなっていますか?」と質問した場合、 Cortex Analyst は、2番目の製品を取得するために最初のクエリから製品のリストを参照することはできません。

一般的なビジネスインサイト

Cortex Analyst では、 SQL で解決できる質問への回答に限定されます。「どのようなトレンドが見られますか?」といった、より広範なビジネス関連のクエリに対するインサイトは生成されません。

長い会話

会話にターンが多すぎたり、ユーザーの意図が頻繁に変わったりすると、 Cortex Analyst がフォローアップの質問を解釈するのに苦労するかもしれません。そのような場合は、会話をリセットしてやり直してください。

はじめるにあたり

開発者は以下のリソースを利用して、 Cortex Analyst を使い始めることができます。

  1. 基本的なコード例: 次のセクションの Cortex Analyst の例 は、 Cortex Analyst を使って対話型アプリを作成するのに役立つシンプルで読みやすいスクリプトです。

    基本的な基礎となるサンプルが必要で、Streamlitの使用や独自の修正に慣れている場合は、このオプションを選択してください。このサンプルは Streamlit in Snowflake (SiS)またはローカルで実行できます。

  2. Snowflake Samplesリポジトリ: より包括的な実装をお望みなら、Snowflakeサンプルリポジトリの Cortex Analyst advanced SiS デモにすべての機能とオプションがすでにセットアップされています。このリポジトリには、 Cortex Analyst をシームレスかつ堅牢にデプロイするためのさまざまな機能があらかじめ構成されています。

    初めてこの機能を試す場合や実施するカスタム修正が少ない場合は、このオプションを選択してください。

    注釈

    これはあくまで一例です。Snowflakeは、以下のコンテンツに関するサポートを提供するものではなく、また、以下のコンテンツが正確であることを保証するものではありません。

    詳細については、Snowflake Samples GitHub リポジトリにある Cortex Analyst advanced SiS デモ をご参照ください。

Cortex Analyst の例

以下の手順に従って、Snowflake(SiS)でインタラクティブなStreamlitを作成するか、 Cortex Analyst を使用するスタンドアロンのStreamlitアプリを作成してください。

  1. セマンティックモデルを作成する

  2. セマンティックモデルをステージにアップロードする

  3. Snowflakeアプリで Streamlit を作成し、実行する

  4. SnowflakeアプリのStreamlitで交流する

セマンティックモデルの作成

セマンティックモデル は、データセットに関する追加のセマンティックな詳細を指定できるようにすることで、ビジネスユーザーとデータベース定義の間の言語の違いに関連する問題に対処する軽量なメカニズムです。より説明的な名前や同義語のような、このような追加的なセマンティックな詳細によって、 Cortex Analyst は、データに関する質問に対してより確実に回答できるようになります。

  1. Cortex Analyst に答えてもらいたい質問のリストから始めます。それに基づいて、セマンティックモデルのデータセットを決めます。

  2. 仕様 に基づいて、セマンティックモデル YAML を作成します。便宜上、 モデルジェネレーターを使用してセマンティックモデルを作成する をお試しください。

セマンティックモデルのアップロード

セマンティックモデル YAML ファイルを ステージ にアップロードするか、セマンティックモデル YAML をリクエストボディの文字列として渡すことができます。セマンティックモデル YAML をステージにアップロードした場合、そのセマンティックモデルへのアクセスは、アップロードされたステージへのアクセスによって制御されます。これは、ステージへのアクセス権を持つロールが、そのモデルのベースとなるテーブルへのアクセス権を持っていなくても、そのステージ上のセマンティックモデルにアクセスできることを意味します。ステージにアクセス権を付与されたロールが、そのステージ上のすべてのセマンティックモデルで参照されるすべてのテーブルに対して、 SELECT アクセス権を持つようにします。

以下は、セマンティックモデルを含むステージのセットアップ方法の例です。あるステージ(public)には組織の全メンバーがアクセスできますが、別のステージ(sales)には sales_analyst ロールにしかアクセスできません。

ステージ用のデータベースとスキーマを作成する。次の例では、 semantic_model という名前のデータベースを、 definition という名前のスキーマで作成していますが、これらの名前には任意の有効な識別子文字列を使用できます。

CREATE DATABASE semantic_model;
CREATE SCHEMA semantic_model.definitions;
GRANT USAGE ON DATABASE semantic_model TO ROLE PUBLIC;
GRANT USAGE ON SCHEMA semantic_model.definitions TO ROLE PUBLIC;

USE SCHEMA semantic_model.definitions;
Copy

次に、セマンティックモデルを保存するためのステージを作成します。

CREATE STAGE public DIRECTORY = (ENABLE = TRUE);
GRANT READ ON STAGE public TO ROLE PUBLIC;

CREATE STAGE sales DIRECTORY = (ENABLE = TRUE);
GRANT READ ON STAGE sales TO ROLE sales_analyst;
Copy

Snowsightでは、ページをリフレッシュし、 データベースオブジェクトエクスプローラー で新しく作成されたステージを見つけることができます。新しいタブでステージページを開き、Snowsightの YAML ファイルをアップロードできます。

または、 Snowflake CLI クライアント を使用して、ローカルファイルシステムからアップロードすることもできます。

snow stage copy file:///path/to/local/file.yaml @sales
Copy

SnowflakeアプリでStreamlitを作成する

この例では、自然言語による質問を入力として受け取り、 Cortex Analyst を呼び出して、提供されたセマンティックモデルに基づいて回答を生成する、SnowflakeアプリのStreamlitを作成する方法を示します。

注釈

これはあくまで一例です。Snowflakeは、以下のコンテンツに関するサポートを提供するものではなく、また、以下のコンテンツが正確であることを保証するものではありません。

SnowflakeでのStreamlitアプリの作成と実行の詳細については、 Streamlit in Snowflake について をご参照ください。

  1. Snowsight を使用してStreamlitアプリを作成する の指示に従って、Snowsightに新しいStreamlitアプリを作成します。

  2. GitHub リポジトリから Streamlitコード をコードエディターにコピーします。

  3. プレースホルダーの値をあなたのアカウント詳細に置き換えます。

  4. アプリをプレビューするには、 Run を選択し、Streamlitプレビューペインのコンテンツを更新します。

Streamlitアプリとの連動

  1. ブラウザのStreamlitアプリ、またはSnowflakeプレビューペインのStreamlitに移動します。

  2. データについて自然言語で質問を始める(例: 「どんな質問ができますか?」)。

スタンドアロンStreamlitアプリの作成

コード例を使用してスタンドアロンアプリを構築することもできます。

注釈

これはあくまで一例です。Snowflakeは、以下のコンテンツに関するサポートを提供するものではなく、また、以下のコンテンツが正確であることを保証するものではありません。

  1. Streamlit をインストールします。

  2. analyst_api.py というPythonファイルをローカルに作成します。

  3. ` リポジトリから <https://github.com/Snowflake-Labs/sfguide-getting-started-with-cortex-analyst/blob/main/cortex_analyst_streaming_demo.py>Streamlitコード `_GitHub をファイルにコピーします。

  4. プレースホルダーの値をあなたのアカウント詳細に置き換えます。

  5. streamlit run analyst_api.py を使用してStreamlitアプリを実行します。

コードで指定されたデータベースとスキーマは、セマンティックモデル YAML ファイルのステージロケーションです。Snowflakeコネクタで使用されるロールは、セマンティックモデルで定義された基礎データにアクセスできる必要があります。

より包括的な実装については、Snowflake Samples GitHub リポジトリにある Cortex Analyst advanced SiS デモ をご参照ください。このリポジトリには、 Cortex Analyst をシームレスかつ堅牢にデプロイするためのさまざまな機能があらかじめ構成されています。

Cortex Analyst 機能を無効にする

アカウントで Cortex Analyst を使用したくない場合は、 ACCOUNTADMIN ロールを使用して ENABLE_CORTEX_ANALYST パラメーターを変更し、機能を無効にしてください。

USE ROLE ACCOUNTADMIN;
ALTER ACCOUNT SET ENABLE_CORTEX_ANALYST = FALSE;
Copy

パラメータータイプ

セッション

データ型

BOOLEAN

説明

アカウントで Cortex Analyst 機能を有効にするかどうかを制御します。

  • FALSE: Cortex Analyst 機能は利用できません。

  • TRUE: Cortex Analyst 機能が利用可能です。ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI が TRUE に設定されている場合、 Cortex Analyst はSnowflakeがホストするモデルだけでなく、Azure OpenAI モデルも使用できます。そうでない場合は、Snowflakeがホストするモデルのみが使用できます。

デフォルト

TRUE

Cortex Analystが使用するモデルの制御

モデルレベルの RBAC(ロールベースのアクセス制御)を使用して、Cortex Analyst が使用するモデルへのアクセスを制御します。各モデルは指定されたアプリケーションロールによって保護され、管理者はモデル固有のロールを介して特定の LLMs へのアクセスを付与または取り消すことができます。詳細については、 ロールベースのアクセス制御(RBAC) をご参照ください。

重要

モデルレベルの RBAC は、どのモデルを使用できるか、またどこでホストできるかを指示する、特定の規制またはコンプライアンス要件があるお客様を対象とした高度な機能です。そのような要件がない場合は、この機能を使用しないことをお勧めします。

モデルを直接選択することはできません。代わりに Cortex Analyst は、以下の要素を考慮して、各リクエストをモデル、またはモデルの組み合わせに割り当てます。

Tip

モデルはそれぞれ異なる結果を生成します。一貫した結果を得るには、同じSnowflakeリージョン、クロスリージョン推論構成、モデルレベルの RBAC 制限をすべてのリクエストに対して使用します。

アカウントが現在非推奨のAzure OpenAI アカウントレベルパラメーターを使用するように構成されている場合、Cortex Analyst は Azure OpenAI モデルの使用を有効にする(レガシーパス) で説明されているロジックに従います。それ以外の場合、Cortex Analyst は、ロールがアクセスできる最高ランクのモデルを使用して、以下の優先順位でモデルを選択します。ロールがこれらのモデルのいずれにもアクセスできない場合、リクエストは失敗します。

  • Anthropic Claude Sonnet 4

  • Anthropic Claude Sonnet 3.7

  • Anthropic Claude Sonnet 3.5

  • OpenAI GPT 4.1

  • Mistral Large 2とLlama 3.1 70bの組み合わせ

Cortex Analyst のモデル選択動作は、モデル機能の高度化を活用するために、随時変更される可能性があります。

リスクと制限

Cortex Analyst は、少なくとも1つのサポートされているモデル構成の可用性に依存します。特定のモデルを無効にすると、フォールバックのオプションが減り、クエリが失敗するリスクが高まります。

そのモデルを使用できるすべてのCortex機能には、モデルレベルの制限が適用されます。Cortex Analyst 内のみ、または他の単一のCortex機能でモデルへのアクセスを制限することはできません。

Azure OpenAI モデルの使用を有効にする(レガシーパス)

OpenAI モデルがSnowflakeがホストする LLMs として利用できるようになる前は、Cortex Analyst がMicrosoft Azureを介して呼び出すことにより、OpenAI モデルを使用するためのオプションを提供していました。現在 OpenAI モデルはSnowflakeがホストする境界で利用できるようになりました。Snowflakeは、OpenAI モデルの使用を希望するお客様に、これらのモデルのSnowflakeホストバージョンを使用することをお勧めします。必要に応じて クロスリージョン推論 を使用します。

Snowflakeは、このセクションで説明されているアカウントパラメーターを介したAzure OpenAI モデルの使用をお勧めしていません。Snowflakeは、今後のリリースでこのパスのサポートが廃止されることを予測し、Snowflakeがホストする OpenAI モデルが実用化したらすぐに移行することをお客様に勧めています。

ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI アカウントパラメーターを使用して、Azure OpenAI GPT モデルの使用を許可するようにSnowflakeアカウントを設定できます。デフォルトでは、パラメーターは無効になっており、ALTER ACCOUNT コマンドを使用して ACCOUNTADMIN ロールのみが設定できます。

USE ROLE ACCOUNTADMIN;

ALTER ACCOUNT SET ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI = TRUE;
Copy

Tip

このパラメーターの現在値を見るには、以下の SQL ステートメントを使用します。

SHOW PARAMETERS LIKE 'ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI' IN ACCOUNT
Copy

詳細については、 ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI パラメーター をご参照ください。

注釈

Snowflakeホストモデルとは異なり、Azure OpenAI モデルは RBAC の制限 を尊重しません。ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI アカウントパラメーターが有効になっている場合は、常にAzure OpenAI モデルを使用できます。モデルレベルの RBAC と互換性がないため、モデルのアクセス制御を使用する場合は、このパラメーターを有効にしないでください。

このパラメーターが有効な場合、 Cortex Analyst は以下のいずれかの組み合わせで給電されます。

  • Snowflakeホストモデル、現在はMistral LargeとLlama3モデル

  • Azure OpenAI モデル、現在は GPT-4o(明示的なオプトインが必要)

注釈

Cortex Analyst は今後、パフォーマンスと精度をさらに向上させるために、異なるモデルを使用する可能性があります。

考慮事項

セマンティックモデルファイルは メタデータ として分類されます。Cortex Analyst で Azure OpenAI モデルの使用を選択した場合、あなたのセマンティックモデルはサードパーティであるMicrosoft Azureによって処理されます。ただし、顧客データがAzureと共有されたり、Azureによって処理されたりすることはありません。

ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI パラメーター

TRUE の場合、 ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI アカウントパラメーター は、 Cortex Analyst がAzure OpenAI モデルを使用できるようになります。

パラメータータイプ

セッション

データ型

BOOLEAN

説明

Cortex Analyst がリクエストを処理するためにAzure OpenAI モデルを使用できるかどうかを制御します。

  • FALSE: Cortex Analyst はSnowflakeがホストするモデルのみを使用してリクエストを処理し、モデルレベルの RBAC を尊重します。

  • TRUE: Cortex Analyst は、リクエストを処理するために、Snowflakeホストモデルに加えて、Azure OpenAI モデルを使用することができます。モデルレベルの RBAC は使用できません。

デフォルト

FALSE

コストの考慮事項

Cortex Analyst のクレジット料金の使用状況は、 Snowflake Service Consumption Table に概説されているように、処理されたメッセージ数に基づいています。成功した応答(HTTP 200)のみがカウントされます。各メッセージのトークン数はコストに影響しません。

注釈

上記の料金は、テキストから SQL への AI コストをカバーしています。Cortex Analyst で生成された SQL を実行する場合、追加のウェアハウス・コストが発生します。

Cortex Analyst のコストのモニタリング

Cortex Analyst のクレジット消費量を表示するには、 CORTEX_ANALYST_USAGE_HISTORY ビュー を使用します。例:

SELECT * FROM SNOWFLAKE.ACCOUNT_USAGE.CORTEX_ANALYST_USAGE_HISTORY;
Copy

Cortex Analyst の使用状況は、 ACCOUNT_USAGE スキーマの METERING_HISTORY ビュー にも、 AI_SERVICES のサービスタイプで表示されます。