Snowpark Migration Accelerator: 出力コードの展開¶
Snowpark Migration Accelerator(SMA)によって生成された出力コードを実行するには、ソースプラットフォームに応じて、以下の環境固有の推奨事項に従います。
Spark Scala¶
移行したApache SparkコードをSnowparkで実行する前に、以下の重要な点を確認してください。
SnowparkおよびSnowpark拡張子ライブラリの参照の追加¶
移行したプロジェクトには、Snowparkライブラリとその拡張子の両方の参照が含まれている必要があります。
Snowpark Extensions¶
Snowpark Extensionsは、標準のSnowparkライブラリにApache Sparkの機能を追加するライブラリです。これらの機能は現在Snowparkでは使用できません。このライブラリは、開発者がプロジェクトをApache SparkからSnowparkへより簡単に移行するのに役立ちます。
以下のステップに従って、移行したコードでSnowparkとSnowpark Extensionsライブラリを参照します。
Snowparkライブラリの参照をプロジェクトに追加する
Snowpark Extensionsライブラリの参照をプロジェクトに追加する
これらのライブラリを使用するようにコードを更新する
ステップ1 - プロジェクト構成ファイルにSnowparkとSnowpark拡張子ライブラリの参照を追加する¶
ツールは自動的にこれらの依存関係をプロジェクト構成ファイルに追加します。依存関係を追加した後は、ビルドツールがその解決を処理します。
プロジェクト構成ファイル拡張子に基づいて、ツールは自動的に適切な参照を以下のように追加します。
build.gradle¶
build.sbt¶
pom.xml¶
ステップ2 - Snowpark拡張子ライブラリのインポートステートメントを追加する¶
このツールは、生成されたすべての.scalaファイルに、これら2つのimportステートメントを自動的に追加します。
コード例¶
以下のコードでは、 hex と isin 関数を使用しています。これらはSparkのネイティブ関数ですが、Snowparkにはありません。しかし、これらの関数はSnowparkの拡張子により提供されるため、コードは正常に実行されます。
入力コード¶
出力コード¶
PySpark¶
移行した PySpark コードをSnowparkで実行する前に、以下の重要な点を確認してください。
SnowparkとSnowparkの拡張子ライブラリをインストールする¶
移行したプロジェクトには、Snowparkライブラリとその拡張子の両方の参照が含まれている必要があります。
Snowpark Extensions¶
Snowpark Extensionsは、標準のSnowparkライブラリに PySpark のような機能を追加するライブラリです。これらの機能は現在Snowparkでは使用できません。このライブラリは、開発者がプロジェクトを PySpark からSnowparkに簡単に移行できるようにします。
以下のステップに従って、移行したコードでSnowparkとSnowpark Extensionsライブラリを参照します。
移行したコードにSnowparkライブラリの参照を追加する
必要に応じてSnowpark Extensionsライブラリの参照を含める
ステップ1 - Snowparkライブラリをインストールする¶
ステップ2 - Snowpark拡張ライブラリをインストールする¶
ステップ3 - Snowpark拡張ライブラリのインポートステートメントを追加する¶
このツールは、 PySpark 関数を必要とするすべてのファイルに、 PySpark インポートステートメントを自動的に追加します。
コード例¶
The create_map function is not available in PySpark but is supported in Snowpark through its extensions. This means your code will work correctly in Snowpark without any modifications.