Using Snowpark in a clean room¶
概要¶
Snowflake Data Clean RoomsでSnowparkを使用すると、大規模データをクエリまたは処理する必要がある場合に、clean roomのコンピューティングパワーを強化することができます。
Clean roomは以下の2つの方法でSnowparkを利用できます:
Snowpark UDFs: clean roomのコードでSnowpark API を使用し、Snowparkのスケーリングと処理能力を利用できるSnowpark UDFs を作成します。
Snowparkコンテナサービス: Snowpark環境をより細かく制御したい場合や、Snowpark API にないライブラリを使用したい場合に、clean room内でコンテナーを構成およびホストできます。これにより、コンピューティングやストレージについて、それぞれの要件に合わせて環境を構成したり、それぞれの環境に用意されたライブラリをカスタマイズしたりできます。
メモリに収まりきらないほど大きなデータを読み込む必要がある場合は、 to_pandas_batches() を使用し、それを繰り返し処理します。例:
df_iter = session.table(intermediary_table_name).to_pandas_batches() for df in df_iter: ...
複雑な使用フローの全体的なデザイン¶
データの生成と表示を、1つのテンプレートを呼び出して実行することもできますが、多くの場合、データを生成するステップを、結果を表示するステップと切り離した方が効率が高くなります。これにより、コンシューマーは結果を表示するたびに再計算をトリガーする必要がなくなり、また、プロセスのさまざまな時点のデータを表示することも可能になります。1つのフローを、ユーザーからアクセス可能な複数のステージに分割するには、データの生成や処理をトリガーするテンプレートと、保存した結果を表示するテンプレートを別々に作成します。複雑な使用フローのデザインについては、こちらをご覧ください。
clean roomでSnowpark UDFs を使用する¶
Snowpark API を、アップロード済みのPythonコードで使用すると、大容量データの読み込みを高速化できます。Clean roomは Snowpark Python API のみをサポートしています。プロバイダーとコンシューマーの双方から、アップロード済みのPythonコードでSnowpark Python API を使用できます。
前提条件¶
Snowpark UDFs を実行するclean roomを、clean room APIで実行する必要があります。Clean room UI で実行することはできません。
以下のトピックについて理解する必要があります:
Read about designing multi-step flows to understand internal tables.
clean roomでSnowpark API を使用する¶
clean roomのPythonコードでSnowpark API を使用ことも、他のPython UDF をアップロードして実行することも同じですが、 snowflake-snowpark-python ライブラリをリンクする必要がある相違点があります。
Snowparkデコレータを使用するのではなく、 cleanroom スキーマで session.sql を使用して SQL を実行することで、 UDFs、 UDTFs、 プロシージャを作成します。例:
session.sql("CREATE OR REPLACE FUNCTION cleanroom.udf(...")
基本的な手順¶
以下は、clean roomで UDF または UDTF を使用してSnowpark API を使用する基本的な手順です:
プロバイダー
clean roomを作成し、デフォルトのリリースディレクティブをセットし、標準的な方法でデータをリンクします。
コードはおそらく目的に応じて大きく異なるため、結合ポリシーや列ポリシーをclean roomに追加することはできても、その必要はおそらくないでしょう。
provider.load_python_into_cleanroomを呼び出して、カスタムSnowparkハンドラーコードをclean roomに読み込みます。このコードでは、少なくともsnowflake-snowpark-pythonパッケージだけは、その他必要なパッケージと一緒に読み込む必要があります。UDFs は行ごとにデータを処理して返しますが、Snowparkのユースケースでは通常、別の結果テンプレートを呼び出して読み込む出力テーブルを生成します。デフォルトのリリースディレクティブを更新します (コードを追加すると新しいパッチバージョンが生成されるため)。
カスタムテンプレート を作成し、アップロードして、Snowparkコードを実行します。UDF を実行する唯一の方法は、 UDF を呼び出すテンプレートからトリガーすることです。UDFを呼び出すテンプレートについての詳細:
provider.load_python_into_cleanroomで指定したエイリアスとパラメーターを使用して関数を呼び出します。テンプレートは、cleanroom名前空間を使用しなければ、関数のエイリアスを呼び出させません。UDF がclean room内のテーブルに結果を書き込み、テーブルの名前が実行ごとに異なる場合、結果生成テンプレートは結果テーブルの名前を返し、結果テンプレートはテーブル名をユーザーからの引数として受け取ります。
カスタム SQL テンプレートをアップロードし、Snowpark UDF が生成した結果テーブルにアクセスします(中間結果テーブルを生成した場合)。ハードコーディングされた結果テーブル名を使うか、コードで生成し結果生成テンプレートによって返されたテーブル名を、ユーザーが渡します。
コラボレーターを追加し、標準的な方法でclean roomを公開します。
コンシューマー
コンシューマーはclean roomをインストールし、標準的な方法で分析を実行します。データの生成と結果の読み取りが別々のテンプレートに分かれている場合、コンシューマーはそれぞれのテンプレートを順番に呼び出す必要があります。
コード例¶
次のコード例は、「インプレッション数に対するリーチ」の線形回帰をアップロードして実行し、傾きを推定する方法を示しています。
コンシューマーがまず、プロバイダー UDF を実行する
prod_calculate_regressionテンプレートを実行し、結果を生成します。プロバイダー UDF が以下のアクションを実行します:インプレッションデータの前処理。 プロバイダーのインプレッションデータとコンシューマーのデータを結合し、日付ごとのインプレッション数とリーチ回数を計算して、clean room内の中間テーブルに結果を格納するダイナミック SQL を作成します。コンシューマーがテーブルを指定しない場合、コードはプロバイダーのインプレッションテーブル全体に対して実行されます。
中間テーブルの読み込み。 中間テーブルはpandas DataFrame としてSnowparkプロシージャに読み込まれます。
回帰の実行。 回帰は
statsmodelsライブラリを使用して計算され、結果をpandas DataFrame として返します。clean room内部テーブルへの結果の書き込み。 結果はclean room内部の結果テーブルに書き込まれ、テーブル名の接尾辞 ID がコンシューマーに返されます。Snowparkのプロシージャはclean room内で実行されるため、コンシューマーのアカウントにデータをアクティベートする機能には制限があります。結果のセキュリティを強化するため、結果はclean room内のテーブルに書き込まれ、コンシューマーが別のテンプレートを実行して結果データを読み取ります。
中間テーブルの破棄。 中間テーブルは計算中にclean room内で作成され、不要になると、Snowparkプロシージャが終了する前に破棄されます。
結果テーブルの名前を返す。 過去のすべての実行結果が保持されるため、コンシューマーに返される名前をテンプレート実行中に指定して、結果を取得する必要があります。
次に、コンシューマーが
get_resultsテンプレートを実行し、最初のテンプレートが返した結果テーブルの接尾辞を渡して結果を確認します。
以下の例を実行するには、同じウェブホスティングリージョンに、プロバイダー用とコンシューマー用の2つのアカウントが必要です( クロスクラウド自動フルフィルメント を実装している場合を除く)。
サンプルコードは、Snowparkの設定を変更しなくてもSnowflakeのワークシートで実行されます。別の環境で実行する場合は、Snowpark Python API をインストールして構成する必要があるかもしれません。
詳細情報¶
clean roomでのSnowparkコンテナーサービスの利用¶
Pythonコードを実行する環境をより細かく制御したい場合は、clean room内でSnowparkコンテナーサービスを実行します。これにより、コードの実行環境を細かく制御できます。また、特殊なコンピューティングリソースや、ストレージ、その他のリソースを使用してパフォーマンスを最大化し、コストを最小化する必要がある場合や、カスタムパッケージやその他の環境機能を導入する場合に最適です。
コンテナーサービスをclean roomでホスティングする場合、そのサービスで公開される関数を、テンプレートとカスタムPythonコードから呼び出すことができます。Snowparkコンテナーサービスの使用方法は、Snowparkで UDFs を使用する場合と似ていますが、 UDFs が HTTP エンドポイントとして公開され、テンプレートから呼び出される点が異なります。サービスとエンドポイントを定義し、clean roomにアップロードします。
内部でホスティングされるエンドポイントには、clean room内のテンプレートからのみアクセス可能で、clean roomのコラボレーターから直接呼び出すことはできません。
前提条件¶
clean roomでSnowparkコンテナーサービスを使用するために、以下のトピックを理解してください:
Snowpark Python API その API を使用している場合。
複雑な使用フローのデザイン。 の説明を読んで、データの処理と結果の公開を複数のステップに分ける方法を理解してください。
基本的な手順¶
プロバイダー
リクエストの処理を実行するサービス仕様、コード、エンドポイントを作成します。
イメージリポジトリを作成し、 SAMOOHA_APP_ROLE のアクセスをそのリポジトリに付与します。
次のステップのために、リポジトリの URL を取得します。
イメージをビルドしてリポジトリ URL にアップロードします。
標準的な方法でclean roomを作成し、データをリンクし、結合ポリシーを追加して、コンシューマーを追加します。
Define the templates that call the service endpoints and upload them to your clean room. Service functions are created and called in the namespace
service_functions(unlike UDFs, which are created and called in the namespacecleanroom).-- Template to call an SPCS function named train. SELECT service_functions.train( {{ source_table[0] }}, {{ provider_join_col }}, {{ my_table[0] }}, {{ consumer_join_col }}, {{ dimensions | sqlsafe }}, ) AS train_result;
provider.load_service_into_cleanroomを呼び出して、サービスの詳細をclean roomにアップロードします。これにより、イメージ URL、エンドポイント、その他のサービスオプションが定義されます。ここで定義されるエンドポイント名(サービス仕様と一致)が、テンプレートから関数を呼び出すために使用する名前になります。CALL samooha_by_snowflake_local_db.provider.load_service_into_cleanroom( $cleanroom_name, $$ spec: containers: - name: lal image: /dcr_spcs/repos/lal_example/lal_service_image:latest env: SERVER_PORT: 8000 endpoints: - name: lalendpoint port: 8000 public: false $$, $$ functions: - name: train args: PROVIDER_TABLE VARCHAR, PROVIDER_JOIN_COL VARCHAR, CONSUMER_TABLE VARCHAR, CONSUMER_JOIN_COL VARCHAR, DIMENSIONS ARRAY, FILTER VARCHAR returns: VARCHAR endpoint: lalendpoint path: /train $$);
Set the default release directive for your clean room. Whenever you upload or modify your service, it creates a new patch version.
clean roomを公開します。
イメージ、関数、コードを変更する場合は、自分とコンシューマーが インスタンスを更新する 必要があります。
コンシューマー¶
clean roomをインストールし、必要なデータを標準的な方法でリンクします。
コンピューティングプールを作成し、clean roomへのアクセス許可を付与します。
クエリを実行する場合(ほぼ間違いなく実行します)、使用するウェアハウスのclean roomにも USAGE 権限を付与する必要があります。
samooha_by_snowflake_local_db.consumer.start_or_update_serviceを呼び出してサービスを開始し、clean room名、コンピューティングプール名、ウェアハウス名(ウェアハウスを使用する場合)を渡します。SHOW ENDPOINTS IN SERVICE SAMOOHA_CLEANROOM_APP_clean_room_name.services.service;を実行し、サービスに使用できるエンドポイントを調べます。サービスが実行中になったら、標準的な方法で
consumer.run_analysisを呼び出すことで、サービスエンドポイントにアクセスするclean roomテンプレートの実行を開始できます。
コンピューティングプールの作成¶
誰がプールを所有および構成しているかによって、プロバイダーがclean room内にコンピューティングプールを作成するのか、またはコンシューマーがclean roomの外にコンピューティングプールを作成するのかが決まります。
コンピューティングプールがclean roomの外に作成されている場合には、clean roomに適切な権限を与えて、プールにアクセスし、以下の方法でサービスを作成する必要があります:
-- Grant access to a warehouse to run queries. Needed only if the service queries Snowflake accounts.
USE ROLE ACCOUNTADMIN;
GRANT USAGE ON WAREHOUSE APP_WH TO APPLICATION SAMOOHA_CLEANROOM_APP_<CLEANROOM_NAME>;
-- Grant SAMOOHA_APP_ROLE privileges to create compute pools and create services
GRANT CREATE COMPUTE POOL ON ACCOUNT TO ROLE SAMOOHA_APP_ROLE WITH GRANT OPTION;
GRANT BIND SERVICE ENDPOINT ON ACCOUNT TO ROLE SAMOOHA_APP_ROLE WITH GRANT OPTION;
USE ROLE SAMOOHA_APP_ROLE;
-- Create the compute pool
CREATE COMPUTE POOL DCR_LAL_POOL
FOR APPLICATION SAMOOHA_CLEANROOM_APP_<CLEANROOM_NAME>
min_nodes = 1 max_nodes = 1
instance_family = highmem_x64_l
auto_resume = true;
-- Grant the clean room the privileges to access a pool running outside the clean room.
GRANT USAGE ON COMPUTE POOL DCR_LAL_POOL TO APPLICATION SAMOOHA_CLEANROOM_<CLEANROOM_NAME>;
-- Allow the clean room to create the service
GRANT BIND SERVICE ENDPOINT ON ACCOUNT TO APPLICATION SAMOOHA_CLEANROOM_APP_<CLEANROOM_NAME>;
サービスコードまたは構成の更新¶
プロバイダーがイメージ、サービス仕様、エンドポイントの名前やソースコードを更新した場合は、プロバイダーとコンシューマーの双方が以下の手順を踏む必要があります。
1.プロバイダー:
イメージまたはソースコードを更新します。
provider.load_service_into_cleanroomを呼び出し、新しいパッチ番号を返します。新しいパッチ番号を指定して
provider.set_default_release_directiveを呼び出します。
2.コンシューマー:
consumer.start_or_update_serviceを呼び出します。
サービスの監視¶
デフォルトで、コンシューマーはサービスを監視できます。この動作は、 provider.load_service_into_cleanroom の service_config 引数で、 allow_monitoring の値を使って変更できます。
コンシューマーの監視が有効な場合、以下にに示すように、コンシューマーはclean roomサービス (SAMOOHA_CLEANROOM_APP_SPCS_cleanroom_name.services.service の形式)、サービス ID 、コンテナーを指定して、監視ログにアクセスできます:
SELECT VALUE AS log_line
FROM TABLE(
SPLIT_TO_TABLE(SYSTEM$GET_SERVICE_LOGS(
'SAMOOHA_CLEANROOM_APP_SPCS_Lookalike_Demo.services.service', 0, 'lal'), '\n')
);
The consumer can also see the state of their service by using the DESCRIBE SERVICE command as shown here:
-- See the state of the service.
DESCRIBE SERVICE SAMOOHA_CLEANROOM_APP_SPCS_Lookalike_Demo.services.service;
You can list the service endpoints by running SHOW ENDPOINTS IN SERVICE SAMOOHA_CLEANROOM_APP_clean_room_name.services.service;.
For example:
SHOW ENDPOINTS IN SERVICE SAMOOHA_CLEANROOM_APP_SPCS_Lookalike_Demo.services.service;
コード例¶
以下のノートブックとZIPファイルは、Snowflake Container Servicesをclean roomで使用する方法を示しています。clean roomをインストールした2つのアカウントが必要です:1つはプロバイダー用、もう1つはコンシューマー用です。その2つを、同じクラウドホスティングリージョンに入れてください。zip圧縮された構成ファイルを使用し、サービスを定義します。