Cortex Analyst¶
概要¶
Cortex Analyst は完全に管理され、 LLM-powered Snowflake Cortex 機能で、Snowflake の構造化データに基づいてビジネス上の質問に確実に回答できるアプリケーションの作成を支援します。 Cortex Analyst により、ビジネスユーザーは SQL を記述することなく、自然言語で質問し、直接回答を受け取ることができます。便利な REST API として利用できる Cortex Analyst は、どのようなアプリケーションにもシームレスに統合できます。
本番レベルの会話型セルフサービス分析ソリューションを構築するには、正確なテキストから SQL への応答を生成するサービスが必要です。ほとんどのチームにとって、精度、遅延、コストのバランスをうまくとったこのようなサービスを開発するのは大変な作業です。 Cortex Analyst は、これらの複雑な問題をすべて処理し、高精度のテキストから SQL への応答を生成する、完全に管理された洗練されたエージェント型 AI システムを提供することで、このプロセスを簡素化します。複雑な RAG ソリューションパターン、モデル実験、 GPU 容量計画などの時間浪費を回避しながら、ビジネスチームへの高精度なセルフサービス会話型分析の提供を加速することができます。生成された SQL クエリは、スケーラブルなSnowflakeエンジンに対して実行され、業界トップクラスの価格性能と低い総所有コスト(TCO)を保証します。
Tip
Cortex Analyst をすぐに始めたいですか? チュートリアル: Cortex Analystで時系列収益データに関する質問に答える チュートリアルをお試しください。
主要な機能¶
自然言語クエリによるセルフサービス分析。 Snowflakeの構造化データから即座に回答や洞察を得て、ビジネスチームや非技術系ユーザーを喜ばせましょう。 Cortex Analyst を使用すると、ユーザーが自然言語を使用して質問し、その場で正確な回答を受け取ることができるダウンストリームチャットアプリケーションを構築することができます。
既存のビジネスワークフローに統合できる便利な REST API。 Cortex Analyst は、 APIファーストアプローチを採用しており、エンドユーザーエクスペリエンスを完全に制御できます。 Cortex Analyst を既存のビジネスツールやプラットフォームに簡単に統合し、Streamlitアプリ、Slack、Teams、カスタムチャットインターフェースなど、ビジネスユーザーがすでに操作している場所にデータインサイトのパワーをもたらします。
最先端の大規模言語モデルを搭載: デフォルトで、 Cortex Analyst は最新のMeta LlamaとMistralモデルを搭載しています。これらのモデルは、 Snowflake Cortex、Snowflakeのインテリジェントなフルマネージド AI サービス内で安全に実行されます。オプションで、 Cortex Analyst にAzureがホストする OpenAI GPT の最新モデルへのアクセス権を与えることもできます。実行時に Cortex Analyst は、各クエリに対して最高の精度とパフォーマンスを保証するために、モデルの最適な組み合わせを選択します。詳細については、 Azure OpenAI モデルの使用を可能にする をご参照ください。LLMs が進化するにつれ、Snowflakeは性能と精度をさらに向上させるために、より多くのモデルをミックスに加えることを探求し続けます。
高い精度と正確さのためのセマンティックモデル: 一般的な AI ソリューションは、データベーススキーマのみが与えられた場合、テキストから SQL への変換に苦労することがよくあります。スキーマには、ビジネスプロセスの定義やメトリクスの取り扱いといった重要な知識が欠けているためです。 Cortex Analyst は、ビジネスユーザーとデータベースの間のギャップを埋める セマンティックモデル を使用することで、この制限を克服しています。軽量な YAML ファイルに取り込まれたセマンティックモデルの全体的な構造と概念は、データベーススキーマと似ていますが、データ周辺のセマンティック情報をより豊かに記述することができます。
セキュリティとガバナンス。 Snowflakeのプライバシー第一の基盤とエンタープライズグレードのセキュリティにより、最高水準のプライバシーとガバナンスによってデータが保護されていることを認識しながら、 AI に基づいたユースケースを安心して検討することができます。
Cortex Analyst は、顧客データに関する訓練は行いません。当社は、当社の顧客ベース全体で使用できるようにするモデルの訓練または微調整のために、お客様の顧客データを使用することはありません。さらに、推論のために、 Cortex Analyst は、 SQL クエリ生成のためにのみ、セマンティックモデル YAML ファイルで提供されるメタデータ(例えば、テーブル名、列名、値のタイプ、説明など)を利用します。この SQL クエリは、Snowflake仮想ウェアハウスで実行され、最終的な出力を生成します。
データはSnowflakeのガバナンス境界内に留まります。デフォルトでは、 Cortex Analyst は、MistralとMetaのSnowflakeホスティング LLMs によって駆動され、メタデータやプロンプトを含むデータがSnowflakeのガバナンス境界を離れることがないようにします。Azure OpenAI モデルの使用を選択した場合、メタデータとプロンプトのみがSnowflakeのガバナンス境界の外部に送信されます。
Snowflakeのプライバシーおよびガバナンス機能とのシームレスな統合。 Cortex Analyst は、Snowflakeのロールベースのアクセス制御(RBAC)ポリシーと完全に統合され、 SQL クエリの生成と実行が確立されたすべてのアクセス制御を遵守することを保証します。これにより、データの強固なセキュリティとガバナンスが保証されます。
アクセス制御の要件¶
Cortex Analyst へのリクエストを行うには、 SNOWFLAKE.CORTEX_USER ロールが付与されたロールを使用する必要があります。
セマンティックモデルで Cortex Analyst を使用するには、以下の権限も必要です。
権限 |
オブジェクト |
---|---|
READ または WRITE |
セマンティックモデルがステージにアップロードされている場合、セマンティックモデル YAML ファイルを含むステージ。 |
USAGE |
セマンティックモデルで言及されているCortex Search service。 |
SELECT |
セマンティックモデルで言及されているテーブル。 |
Cortex Analyst API へのリクエストには、認証トークンを含める必要があります。API への認証コードの詳細については、 Snowflakeでの Snowflake REST APIs 認証 をご参照ください。
このトピックの例では、セッショントークンを使用してSnowflakeアカウントを認証していることに注意してください。
特定のロールへのアクセス制限¶
デフォルトでは、CORTEX_USERロールはPUBLICロールに付与されます。PUBLIC ロールは、すべてのユーザーとロールに自動的に付与されます。すべてのユーザーにこの権限を与えたくない場合は、PUBLICロールのアクセス権を取り消し、特定のロールにアクセス権を与えることができます。詳細については、 必要な権限 をご参照ください。
特定のセマンティックモデルへのアクセスを制御するには、 YAML ファイルをステージに格納し、そのステージへのアクセスを制御します。
リージョンの可用性¶
Cortex Analyst は以下の地域でネイティブに利用できます。
AWS ap-northeast-1(東京)
AWS ap-southeast-2(シドニー)
AWS us-east-1(バージニア)
AWS us-west-2(オレゴン)
AWS eu-central-1(フランクフルト)
AWS eu-west-1(アイルランド)
Azure東 US 2(バージニア)
Azure西ヨーロッパ(オランダ)
Snowflakeアカウントが別のクラウドリージョンにある場合でも、 クロスリージョン推論 を活用して Cortex Analyst を使用することができます。クロスリージョン推論が有効になると、 Cortex Analyst は、デフォルトのリージョンでは利用できないモデルについて、他のリージョンからのリクエストを処理します。最適なパフォーマンスを得るには、 AWS US リージョンとクロスリージョンを構成します。
既知の問題と制限¶
セマンティックモデル YAML ファイルをステージにアップロードした場合、そのセマンティックモデルへのアクセスは、アップロードされたステージへのアクセスによって制御されます。これは、ステージにアクセスできるロールであれば、そのロールが基礎となるテーブルにアクセスできなくても、そのステージ上のセマンティックモデルにアクセスできることを意味します。
デフォルトでは、 Cortex Analyst は毎分20リクエストにレート制限されており、コンセプトの実証には十分です。より高い限度額をご希望の場合は、セールスエンジニアにお問い合わせください。
Azure OpenAI モデルの使用を可能にする¶
デフォルトでは、 Cortex Analyst はSnowflakeがホストする LLMs を搭載しています。ただし、明示的にオプトインすることで、 Cortex Analyst がSnowflakeがホストするモデルと並行して、Microsoft Azureがホストする最新の OpenAI GPT モデルを使用できるようにすることができます。実行時には、 Cortex Analyst は、各クエリに対して最高の精度とパフォーマンスを確保するために、モデルの最適な組み合わせを選択します。
注釈
Azure OpenAI モデルの使用を選択した場合、 Cortex Analyst は、Gov および VPS デプロイメントを除く、すべての AWS 、Azure、および GCP リージョンで使用できます。
ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI パラメーターを使用して、Azure OpenAI GPT モデルの使用を許可するようにアカウントを設定できます。デフォルトでは、パラメーターは無効になっており、 ALTER ACCOUNT コマンドを使用して ACCOUNTADMIN ロールにのみ設定できます。
USE ROLE ACCOUNTADMIN;
ALTER ACCOUNT SET ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI = TRUE;
Tip
このパラメーターの現在値を見るには、以下の SQL ステートメントを使用します。
SHOW PARAMETERS LIKE 'ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI' IN ACCOUNT
詳細については、 ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI をご参照ください。
このパラメーターが有効な場合、 Cortex Analyst は以下のいずれかの組み合わせで給電されます。
Snowflakeホストモデル、現在はMistral LargeとLlama3モデル
Azure OpenAI モデル、現在は GPT-4o(明示的なオプトインが必要)
注釈
Cortex Analyst は今後、パフォーマンスと精度をさらに向上させるために、異なるモデルを使用する可能性があります。
考慮事項¶
セマンティックモデルファイルは メタデータ として分類されます。 Cortex Analyst で Azure OpenAI モデルの使用を選択した場合、あなたのセマンティックモデルはサードパーティであるMicrosoft Azureによって処理されます。ただし、顧客データがAzureと共有されたり、Azureによって処理されたりすることはありません。
ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI¶
TRUE の場合、 ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI アカウントパラメーター は、 Cortex Analyst がAzure OpenAI モデルを使用できるようになります。
パラメータータイプ |
セッション |
---|---|
データ型 |
BOOLEAN |
説明 |
Cortex Analyst がリクエストを処理するためにAzure OpenAI モデルを使用できるかどうかを制御します。 |
値 |
|
デフォルト |
FALSE |
Cortex Analyst におけるマルチターン会話¶
Cortex Analyst は、データに関連した質問のためのマルチターン会話をサポートします。この機能により、以前のクエリを基にしたフォローアップ質問が可能になり、よりダイナミックでインタラクティブなデータ探索体験が実現します。例えば、ユーザーが「アジアにおける2021年の前月比の収益成長率は?」と質問した後に、「北米はどうか?」とフォローアップするとします。
Cortex Analyst はフォローアップを認識し、最初のクエリからコンテキストを取得し、2番目の質問を「北米における2021年の前月比の収益成長率は?」と言い換えます。次に、この質問に答えるために Cortex Analyst が SQL クエリを生成します。
この機能を使用するには、 messages
フィールドに会話履歴を渡します。
{
"messages": [
{
"role": "user",
"content": [
{
"type": "text",
"text": "What is the month over month revenue growth for 2021 in Asia?"
}
]
},
{
"role": "analyst",
"content": [
{
"type": "text",
"text": "We interpreted your question as ..."
},
{
"type": "sql",
"statement": "SELECT * FROM table"
}
]
},
{
"role": "user",
"content": [
{
"type": "text",
"text": "What about North America?"
}
]
},
],
"semantic_model_file": "@my_stage/my_semantic_model.yaml"
}
会話履歴は時系列に並んだメッセージの配列で、各メッセージにはロールとコンテンツがあります。ロールは "user"
(以前の質問)または "analyst"
(以前の回答)です。上記の例のように、アナリストの応答にはテキストと SQL の両方がありますが、ユーザーメッセージにはテキストのみがあります。
マルチターン会話における既知の制限¶
以下の制限のいくつかは、 Cortex Analyst の将来のバージョンで対処される可能性があります。
- 以前の SQL クエリ結果へのアクセス
Cortex Analyst は以前の SQL クエリ結果にはアクセスできません。例えば、最初に「私の製品は何ですか?」と質問し、次に「2番目の製品の売上はどうなっていますか?」と質問した場合、 Cortex Analyst は、2番目の製品を取得するために最初のクエリから製品のリストを参照することはできません。
- 一般的なビジネスインサイト
Cortex Analyst では、 SQL で解決できる質問への回答に限定されます。「どのようなトレンドが見られますか?」といった、より広範なビジネス関連のクエリに対するインサイトは生成されません。
- 長い会話
会話にターンが多すぎたり、ユーザーの意図が頻繁に変わったりすると、 Cortex Analyst がフォローアップの質問を解釈するのに苦労するかもしれません。そのような場合は、会話をリセットしてやり直してください。
使い始める場合のオプション¶
開発者は以下のリソースを利用して、 Cortex Analyst を使い始めることができます。
基本的なコード例: 次のセクションの Cortex Analyst の例 は、 Cortex Analyst を使って対話型アプリを作成するのに役立つシンプルで読みやすいスクリプトです。
基本的な基礎となるサンプルが必要で、Streamlitの使用や独自の修正に慣れている場合は、このオプションを選択してください。このサンプルは Streamlit in Snowflake (SiS)またはローカルで実行できます。
Snowflake Samplesリポジトリ: より包括的な実装をお望みなら、Snowflakeサンプルリポジトリの Cortex Analyst advanced SiS デモにすべての機能とオプションがすでにセットアップされています。このリポジトリには、 Cortex Analyst をシームレスかつ堅牢にデプロイするためのさまざまな機能があらかじめ構成されています。
初めてこの機能を試す場合や実施するカスタム修正が少ない場合は、このオプションを選択してください。
注釈
これはあくまで一例です。Snowflakeは、以下のコンテンツに関するサポートを提供するものではなく、また、以下のコンテンツが正確であることを保証するものではありません。
詳細については、Snowflake Samples GitHub リポジトリにある Cortex Analyst advanced SiS デモ をご参照ください。
Cortex Analyst の例¶
以下の手順に従って、Snowflake(SiS)でインタラクティブなStreamlitを作成するか、 Cortex Analyst を使用するスタンドアロンのStreamlitアプリを作成してください。
Snowflakeアプリで Streamlit を作成し、実行する
セマンティックモデルの作成¶
セマンティックモデル は、データセットに関する追加のセマンティックな詳細を指定できるようにすることで、ビジネスユーザーとデータベース定義の間の言語の違いに関連する問題に対処する軽量なメカニズムです。より説明的な名前や同義語のような、このような追加的なセマンティックな詳細によって、 Cortex Analyst は、データに関する質問に対してより確実に回答できるようになります。
Cortex Analyst に答えてもらいたい質問のリストから始めます。それに基づいて、セマンティックモデルのデータセットを決めます。
仕様 に基づいて、セマンティックモデル YAML を作成します。便宜上、 モデルジェネレーターを使用してセマンティックモデルを作成する をお試しください。また、 セマンティックモデルを作成するためのヒント も必ず確認してください。
セマンティックモデルのアップロード¶
セマンティックモデル YAML ファイルを ステージ にアップロードするか、セマンティックモデル YAML をリクエストボディの文字列として渡すことができます。セマンティックモデル YAML をステージにアップロードした場合、そのセマンティックモデルへのアクセスは、アップロードされたステージへのアクセスによって制御されます。これは、ステージへのアクセス権を持つロールが、そのモデルのベースとなるテーブルへのアクセス権を持っていなくても、そのステージ上のセマンティックモデルにアクセスできることを意味します。ステージにアクセス権を付与されたロールが、そのステージ上のすべてのセマンティックモデルで参照されるすべてのテーブルに対して、 SELECT アクセス権を持つようにします。
以下は、セマンティックモデルを含むステージのセットアップ方法の例です。あるステージ(public
)には組織の全メンバーがアクセスできますが、別のステージ(sales
)には sales_analyst
ロールにしかアクセスできません。
ステージ用のデータベースとスキーマを作成する。次の例では、 semantic_model
という名前のデータベースを、 definition
という名前のスキーマで作成していますが、これらの名前には任意の有効な識別子文字列を使用できます。
CREATE DATABASE semantic_model;
CREATE SCHEMA semantic_model.definitions;
GRANT USAGE ON DATABASE semantic_model TO ROLE PUBLIC;
GRANT USAGE ON SCHEMA semantic_model.definitions TO ROLE PUBLIC;
USE SCHEMA semantic_model.definitions;
次に、セマンティックモデルを保存するためのステージを作成します。
CREATE STAGE public DIRECTORY = (ENABLE = TRUE);
GRANT READ ON STAGE public TO ROLE PUBLIC;
CREATE STAGE sales DIRECTORY = (ENABLE = TRUE);
GRANT READ ON STAGE sales TO ROLE sales_analyst;
Snowsightを使用している場合は、ページをリフレッシュして、 データベースオブジェクトエクスプローラー で新しく作成されたステージを見つけることができます。新しいタブでステージページを開き、Snowsightの YAML ファイルをアップロードできます。
または、 Snowflake CLI クライアント を使用して、ローカルファイルシステムからアップロードすることもできます。
snow stage copy file:///path/to/local/file.yaml @sales
SnowflakeアプリでStreamlitを作成する¶
この例では、自然言語による質問を入力として受け取り、 Cortex Analyst を呼び出して、提供されたセマンティックモデルに基づいて回答を生成する、SnowflakeアプリのStreamlitを作成する方法を示します。
注釈
これはあくまで一例です。Snowflakeは、以下のコンテンツに関するサポートを提供するものではなく、また、以下のコンテンツが正確であることを保証するものではありません。
SnowflakeでのStreamlitアプリの作成と実行の詳細については、 Streamlit in Snowflake について をご参照ください。
Snowsight を使用してStreamlitアプリを作成する の指示に従って、Snowsightに新しいStreamlitアプリを作成します。
GitHub リポジトリから Streamlitコード をコードエディターにコピーします。
プレースホルダーの値をあなたのアカウント詳細に置き換えます。
アプリをプレビューするには、 Run を選択し、Streamlitプレビューペインのコンテンツを更新します。
Streamlitアプリとの連動¶
ブラウザのStreamlitアプリ、またはSnowflakeプレビューペインのStreamlitに移動します。
データについて自然言語で質問を始める(例: 「どんな質問ができますか?」)。
スタンドアロンStreamlitアプリの作成¶
コード例を使用してスタンドアロンアプリを構築することもできます。
注釈
これはあくまで一例です。Snowflakeは、以下のコンテンツに関するサポートを提供するものではなく、また、以下のコンテンツが正確であることを保証するものではありません。
Streamlit をインストールします。
analyst_api.py
というPythonファイルをローカルに作成します。GitHub リポジトリから Streamlitコード をファイルにコピーします。
プレースホルダーの値をあなたのアカウント詳細に置き換えます。
streamlit run analyst_api.py
を使用してStreamlitアプリを実行します。
コードで指定されたデータベースとスキーマは、セマンティックモデル YAML ファイルのステージロケーションです。Snowflakeコネクタで使用されるロールは、セマンティックモデルで定義された基礎データにアクセスできる必要があります。
より包括的な実装については、Snowflake Samples GitHub リポジトリにある Cortex Analyst advanced SiS デモ をご参照ください。このリポジトリには、 Cortex Analyst をシームレスかつ堅牢にデプロイするためのさまざまな機能があらかじめ構成されています。
Cortex Analyst 機能を無効にする¶
アカウントで Cortex Analyst を使用したくない場合は、 ACCOUNTADMIN ロールを使用して ENABLE_CORTEX_ANALYST パラメーターを変更し、機能を無効にしてください。
USE ROLE ACCOUNTADMIN;
ALTER ACCOUNT SET ENABLE_CORTEX_ANALYST = FALSE;
パラメータータイプ |
セッション |
---|---|
データ型 |
BOOLEAN |
説明 |
アカウントで Cortex Analyst 機能を有効にするかどうかを制御します。 |
値 |
|
デフォルト |
TRUE |
コストの考慮事項¶
Cortex Analyst のクレジット料金の使用状況は、 Snowflake Service Consumption Table に概説されているように、処理されたメッセージ数に基づいています。成功した応答(HTTP 200)のみがカウントされます。各メッセージのトークン数はコストに影響しません。
注釈
上記の料金は、テキストから SQL への AI コストをカバーしています。 Cortex Analyst で生成された SQL を実行する場合、追加のウェアハウスコストが発生します。
Cortex Analyst のコストのモニタリング¶
Cortex Analyst のクレジット消費量を表示するには、 CORTEX_ANALYST_USAGE_HISTORY ビュー を使用します。例:
SELECT * FROM SNOWFLAKE.ACCOUNT_USAGE.CORTEX_ANALYST_USAGE_HISTORY;
Cortex Analyst の使用状況は、 ACCOUNT_USAGE スキーマの METERING_HISTORY ビュー にも、 AI_SERVICES のサービスタイプで表示されます。
法的通知¶
Cortex Analyst は、MetaのLlama 3とMistral Largeモデルを含む機械学習テクノロジーを搭載しています。基礎となるLlama 3モデルは、 Llama 3 コミュニティライセンスとCopyright (c) Meta Platforms, Inc.の下でライセンスされています。All Rights Reserved.この機能の使用は、Metaの 許容可能な使用ポリシー の対象となります。
インプットとアウトプットのデータ分類は以下の表の通りです。
入力データの分類 |
出力データの分類 |
指定 |
---|---|---|
Usage Data |
Usage Data |
Preview AI Features [1] |
詳細については、 Snowflake AI と ML をご参照ください。