Snowpark Migration Accelerator: リリースノート

以下のリリースノートは、リリース日順に整理されていますのでご注意ください。アプリケーションと変換コアの両方のバージョン番号は以下に表示されます。

Version 2.10.4 (November 18, 2025)

Application & CLI Version: 2.10.4

含まれているSMAコアバージョン

  • Snowpark Conversion Core: 8.1.8

Engine Release Notes

修正済み

  • Fixed an issue where the SMA generated corrupted Databricks notebook files in the output directory during Assessment mode execution.

  • Fixed an issue where the SMA would crash if the input directory contained folders named “SMA_ConvertedNotebooks”.

Version 2.10.3 (October 30, 2025)

Application & CLI Version: 2.10.3

含まれているSMAコアバージョン

  • Snowpark Conversion Core: 8.1.7

Engine Release Notes

追加済み

  • Added the Snowpark Connect readiness score. This new score measures the percentage of Spark API references in your codebase that are supported by Snowpark Connect for Spark.

  • Added support for SQL embedded migration for literal string concatenations assigned to a local variable in the same scope of execution.

    • Included scenarios now include:

      sqlStat = "SELECT colName " + "FROM myTable" 
      session.sql(sqlStat)
      
      Copy

変更済み

修正済み

  • Fixed a code issue that caused inner project configuration files (e.g., pom.xml, build.sbt, build.gradle) to be incorrectly placed in the root of the output directory instead of the correct inner directories after migration.

Desktop Release Notes

追加済み

  • Added the Snowpark Connect readiness score and updated the assessment execution flow.

    • When running the application in assessment mode, only the Snowpark Connect readiness score is now displayed.

    • When running the application in conversion mode, the Snowpark API readiness score is displayed (the Snowpark Connect Readiness will not be shown).

変更済み

Updated all in-application documentation links to point to the official Snowflake documentation, replacing the legacy SnowConvert site.

Version 2.10.2 (Oct 27, 2025)

Application & CLI Version 2.10.2

含まれているSMAコアバージョン

  • Snowpark Conversion Core 8.0.73

修正済み

  • Fixed an issue where the Snowpark Migration Accelerator failed converting DBC files into Jupyter Notebooks properly.

バージョン2.10.1(2025年10月23日)

アプリケーションおよびCLIバージョン2.10.1

含まれているSMAコアバージョン

  • Snowpark変換コア8.0.72

追加済み

  • Snowpark Scala v1.17.0のサポートを追加しました。

Not SupporetedからDirect:

データセット:

  • org.apache.spark.sql.Dataset.isEmptycom.snowflake.snowpark.DataFrame.isEmpty

行:

  • org.apache.spark.sql.Row.mkStringcom.snowflake.snowpark.Row.mkString

StructType:

  • org.apache.spark.sql.types.StructType.fieldNamescom.snowflake.snowpark.types.StructType.fieldNames

Not SupporetedからRename:

関数:

  • org.apache.spark.functions.flattencom.snowflake.snowpark.functions.array_flatten

DirectからRename:

関数:

  • org.apache.spark.functions.to_datecom.snowflake.snowpark.functions.try_to_date

  • org.apache.spark.functions.to_timestampcom.snowflake.snowpark.functions.try_to_timestamp

Direct HelperからRename:

関数:

  • org.apache.spark.sql.functions.concat_wscom.snowflake.snowpark.functions.concat_ws_ignore_nulls

Not DefinedからDirect:

関数:

  • org.apache.spark.functions.try_to_timestampcom.snowflake.snowpark.functions.try_to_timestamp

  • 埋め込み済みSQLは、SQLステートメントリテラルがローカル変数に割り当てられているときに移行されるようになりました

例: sqlStat = “SELECT colName FROM myTable" session.sql(sqlStat)

  • 埋め込み済みSQLで、リテラル文字列の連結がサポートされるようになりました

例: session.sql(“SELECT colName " + "FROM myTable")

変更済み

  • Snowpark Python APIおよびSnowpark Pandas APIのサポートされているバージョンを1.36.0から1.39.0に更新しました

  • EWISPRKPY1103で次のPySpark xpath関数のマッピングステータスをNotSupportedからDirectに更新しました

    • pyspark.sql.functions.xpath

    • pyspark.sql.functions.xpath_boolean

    • pyspark.sql.functions.xpath_double

    • pyspark.sql.functions.xpath_float

    • pyspark.sql.functions.xpath_int

    • pyspark.sql.functions.xpath_long

    • pyspark.sql.functions.xpath_number

    • pyspark.sql.functions.xpath_short

    • pyspark.sql.functions.xpath_string

  • 次のPySpark要素のマッピングステータスをNotDefinedからDirectに更新しました。

    • pyspark.sql.functions.bit_andsnowflake.snowpark.functions.bitand_agg

    • pyspark.sql.functions.bit_orsnowflake.snowpark.functions.bitor_agg

    • pyspark.sql.functions.bit_xorsnowflake.snowpark.functions.bitxor_agg

    • pyspark.sql.functions.getbitsnowflake.snowpark.functions.getbit

  • 次のPandas要素のマッピングステータスをNotSupportedからDirectに更新しました。

    • pandas.core.indexes.base.Indexmodin.pandas.Index

    • pandas.core.indexes.base.Index.get_level_valuesmodin.pandas.Index.get_level_values

  • 次のPySpark関数のマッピングステータスをNotSupportedからRenameに更新しました。

    • pyspark.sql.functions.nowsnowflake.snowpark.functions.current_timestamp

修正済み

  • 名前が変更された場合、Scalaがインポートを移行しない問題を修正しました

    例:

    ソースコード:

    .. code-block:: scala

    package com.example.functions
    import org.apache.spark.sql.functions.{to_timestamp, lit}
    object ToTimeStampTest extends App { to_timestamp(lit("sample")) to_timestamp(lit("sample"), "yyyy-MM-dd") }

    出力コード:

    .. code-block:: scala

    package com.example.functions
    import com.snowflake.snowpark.functions.{try_to_timestamp, lit} import com.snowflake.snowpark_extensions.Extensions._ import com.snowflake.snowpark_extensions.Extensions.functions._
    object ToTimeStampTest extends App { try_to_timestamp(lit("sample")) try_to_timestamp(lit("sample"), "yyyy-MM-dd") }

バージョン2.10.0(2025年9月24日)

アプリケーションおよびCLIバージョン2.10.0

含まれているSMAコアバージョン

  • Snowpark変換コア8.0.62

追加済み

  • Python形式の補間で埋め込まれたSQLを移行する機能が追加されました

  • データ処理の柔軟性を高めるために DataFrame.select および DataFrame.sort 変換のサポートを追加しました

変更済み

  • Snowpark Python APIおよびSnowpark Pandas APIのサポートされているバージョンを1.36.0に更新しました

  • pandas.core.frame.DataFrame.boxplot のマッピングステータスをNot SupportedからDirectに更新しました

  • DataFrame.selectDataset.selectDataFrame.sortDataset.sort のマッピングステータスをDirectからTransformationに更新しました

  • Snowpark Scalaでは、列のシーケンスをselect関数とsort関数に直接渡すことができるため、この変換は、 df.select(cols: _*) から df.select(cols) および df.sort(cols: _*) から df.sort(cols) など、使用法をすべて変更します

  • Bumped Python ASTおよびParserバージョンを149.1.9に更新しました

  • pandas関数のステータスをDirectに更新しました

    • pandas.core.frame.DataFrame.to_excel

    • pandas.core.series.Series.to_excel

    • pandas.io.feather_format.read_feather

    • pandas.io.orc.read_orc

    • pandas.io.stata.read_stata

  • pyspark.sql.pandas.map_ops.PandasMapOpsMixin.mapInPandas のステータスをEWI SPRKPY1102を使用して回避策に更新しました

修正済み

  • チェーンされたメソッド呼び出しを使用する際にSqlEmbedded変換に影響を与える問題を修正しました

  • PySqlExprに関する変換を新しいPyLiteralSqlを使用して修正し、テールを失うことを回避しました

  • 内部の安定性の問題を解決して、ツールの堅牢性と信頼性を向上させました

バージョン2.7.7(2025年8月28日)

アプリケーションおよびCLIバージョン2.7.7

含まれているSMAコアバージョン

  • Snowpark変換コア8.0.46

追加済み

  • 新しいPandas EWIドキュメントPNDSPY1011を追加しました

  • 次のPandas関数にサポートを追加しました

    • pandas.core.algorithms.unique

    • pandas.core.dtypes.missing.isna

    • pandas.core.dtypes.missing.isnull

    • pandas.core.dtypes.missing.notna

    • pandas.core.dtypes.missing.notnull

    • pandas.core.resample.Resampler.count

    • pandas.core.resample.Resampler.max

    • pandas.core.resample.Resampler.mean

    • pandas.core.resample.Resampler.median

    • pandas.core.resample.Resampler.min

    • pandas.core.resample.Resampler.size

    • pandas.core.resample.Resampler.sum

    • pandas.core.arrays.timedeltas.TimedeltaArray.total_seconds

    • pandas.core.series.Series.get

    • pandas.core.series.Series.to_frame

    • pandas.core.frame.DataFrame.assign

    • pandas.core.frame.DataFrame.get

    • pandas.core.frame.DataFrame.to_numpy

    • pandas.core.indexes.base.Index.is_unique

    • pandas.core.indexes.base.Index.has_duplicates

    • pandas.core.indexes.base.Index.shape

    • pandas.core.indexes.base.Index.array

    • pandas.core.indexes.base.Index.str

    • pandas.core.indexes.base.Index.equals

    • pandas.core.indexes.base.Index.identical

    • pandas.core.indexes.base.Index.unique

次のSpark Scala関数にサポートを追加しました

  • org.apache.spark.sql.functions.format_number

  • org.apache.spark.sql.functions.from_unixtime

  • org.apache.spark.sql.functions.instr

  • org.apache.spark.sql.functions.months_between

  • org.apache.spark.sql.functions.pow

  • org.apache.spark.sql.functions.to_unix_timestamp

  • org.apache.spark.sql.Row.getAs

変更済み

  • SMAでサポートされるSnowpark Pandas APIのバージョンを1.33.0に更新しました

  • SMAでサポートされるSnowpark Scala APIのバージョンを1.16.0に更新しました

  • pyspark.sql.group.GroupedData.pivotのマッピングステータスをTransformationからDirectに更新しました

  • org.apache.spark.sql.Builder.masterのマッピングステータスをNotSupportedからTransformationに更新しましたこの変換は、コード変換中に、この要素の特定の使用法をすべて削除します

  • org.apache.spark.sql.types.StructType.fieldIndexのマッピングステータスをNotSupportedからDirectに更新しました

  • org.apache.spark.sql.Row.fieldIndexのマッピングステータスをNotSupportedからDirectに更新しました

  • org.apache.spark.sql.SparkSession.stopのマッピングステータスをNotSupportedからRenameに更新しましたこの要素の特定の使用法はすべて、コード変換時にcom.snowflake.snowpark.Session.closeに名前が変更されます

  • org.apache.spark.sql.DataFrame.unpersist and org.apache.spark.sql.Dataset.unpersistのマッピングステータスをNotSupportedからTransformationに更新しましたこの変換は、コード変換中に、この要素の特定の使用法をすべて削除します

修正済み

  • 削除された末尾の関数の継続バックスラッシュを修正しました

  • ConversionStatusLibraries.csvファイルのLIBRARY_PREFIX列を修正し、scikit-learnライブラリファミリー(scikit-*)の適切な識別子を使用するようにしました

  • 複数行のグループ化された操作が解析されないバグを修正しました

バージョン2.9.0(2025年9月9日)

含まれているSMAコアバージョン

  • Snowpark変換コア8.0.53

追加済み

  • org.apache.spark.sql.Dataset[T] に対して以下のマッピングが実行されました

    • org.apache.spark.sql.Dataset.union から com.snowflake.snowpark.DataFrame.unionAll

    • org.apache.spark.sql.Dataset.unionByName から com.snowflake.snowpark.DataFrame.unionAllByName

  • 変換としての org.apache.spark.sql.functions.broadcast のサポートを追加しました

変更済み

  • SMAのサポートされるSnowpark Python APIのバージョンを 1.27.0 から 1.33.0 に増やしました

  • pyspark.sql.function.randn 関数のステータスがDirectに更新されました

修正済み

  • org.apache.spark.SparkContext.parallelize が解決しない問題を解決し、変換としてサポートするようになりました

  • Dataset.persist 変換を Dataset[Row] だけでなく、すべてのタイプのデータセットに対応するように修正しました

バージョン2.7.6(2025年7月17日)

含まれているSMAコアバージョン

  • Snowpark変換コア8.0.30

追加済み

  • spark.DataReaderメソッドのマッピングを調整しました

  • DataFrame.union から DataFrame.unionAll になりました

  • DataFrame.unionByName から DataFrame.unionAllByName になりました

  • アーティファクトインベントリに複数レベルのアーティファクト依存関係列を追加しました

  • 新しいEWIsドキュメントを追加しました。PNDSPY1005 から PNDSPY1010

  • pandas.core.series.Series.apply 用に特定のEWIを追加しました

変更済み

  • SMAでサポートされるSnowpark Pandas APIのバージョンを 1.27.0 から 1.30.0 に更新しました

修正済み

  • SQLレディネススコアを取得する式で値が欠落している問題を修正しました

  • 一部のPandas要素でPySparkのデフォルトのEWIメッセージを持つバグを修正しました

バージョン2.7.5(2025年7月2日)

アプリケーションおよびCLIバージョン2.7.5

含まれているSMAコアバージョン

  • Snowpark変換コア8.0.19

変更済み

  • Pandasインポートのリファクタリング: Pandasインポートは snowflake.snowpark.modin.pandas の代わりに `modin.pandas` を使用するようになりました

  • `dbutils` およびマジックコマンド変換の改善:

    • 新しい sfutils.py ファイルが生成され、すべての dbutils プレフィックスは sfutils に置き換えられます

    • Databricks(DBX)ノートブックの場合、 sfutils 向けの暗黙的なインポートが自動的に追加されます

    • sfutils モジュールはさまざまな dbutils メソッドをシミュレートします。例えばファイルシステム操作( dbutils.fs )を定義されたSnowflake FileSystem(SFFS)ステージを介して、また、ノートブックの実行( dbutils.notebook.run )を EXECUTENOTEBOOK SQL関数に変換して対応します

    • dbutils.notebook.exit はSnowflakeでは必要ないため削除されます

修正済み

  • SnowConvertレポートの更新: インスタンスがSMAから発信された場合はSnowConvertレポートに CellId 列が含まれるようになりました。また、 FileName 列には完全なパスが表示されます

  • SnowConvertレポートのアーティファクト依存関係の更新: SnowConvertの統合により以前は影響を受けていたSMAのアーティファクトインベントリレポートが復元されましたこの更新により、SnowConvertレポートから直接オブジェクト参照と欠落オブジェクト参照を正確にキャプチャし、分析するSMAツールが有効になり、インベントリのSQL依存関係の正しい取得が保証されます

バージョン2.7.4(2025年6月26日)

アプリケーションおよびCLIバージョン2.7.4

デスクトップアプリ

追加済み

  • テレメトリーの改善を追加しました

修正済み

  • 変換設定ポップアップとPandas EWIsのドキュメントリンクを修正しました

含まれているSMAコアバージョン

  • Snowpark変換コア8.0.16

追加済み

  • Spark XMLからSnowparkへの変換

  • SQLソース言語のDatabricks SQLオプション

  • JDBC読み取り接続の変換

変更済み

  • すべてのSnowConvertレポートはZipバックアップファイルにコピーされます

  • フォルダーの名前が SqlReports から SnowConvertReports に変更されます

  • SqlFunctionsInventoryReports フォルダーに移動されます

  • すべてのSnowConvertレポートがテレメトリーに送信されます

修正済み

  • SQLレディネススコアのの非決定的問題

  • デスクトップをクラッシュさせる偽陽性の重大な結果を修正しました

  • アーティファクトの依存関係レポートでSQLオブジェクトが表示されない問題を修正しました

バージョン2.7.2(2025年6月10日)

アプリケーションおよびCLIバージョン2.7.2

含まれているSMAコアバージョン

  • Snowpark変換コア8.0.2

修正済み

  • 以前報告したように、最新のWindows OSでのSMAの実行の問題に対応しましたこの修正は、バージョン2.7.1で発生した問題を解決します

バージョン2.7.1(2025年6月9日)

アプリケーションおよびCLIバージョン2.7.1

含まれているSMAコアバージョン

  • Snowpark変換コア8.0.1

追加済み

Snowpark Migration Accelerator(SMA)が SnowConvert をオーケストレーションして、ユーザーワークロードで見つかったSQLを処理するようになりました。Python/Scalaコードの埋め込みSQL、ノートブックのSQLセル、 .sql ファイル、 .hql ファイルを含みます。

SnowConvert は以前のSMAの機能を強化するようになりました。

SQL ReportsというReportsの新しいフォルダーには、SnowConvertによって生成されたレポートが含まれます。

既知の問題

SQLレポートの以前のSMAバージョンは、以下の場合は空で表示されます。

  • 部分的に Reports/SqlReports/Elements.yyyymmdd.hhmmss.csv. でカバーされる Reports/SqlElementsInventory.csv

  • Reports/SqlFunctionsInventory.csv については、 Reports/SqlReports/SqlFunctionsInventory.csv の新しい場所と同じ名前で参照してください

アーティファクト依存関係インベントリ:

  • ArtifactDependencyInventory 内では、SQLオブジェクトの列は空で表示されます

バージョン2.6.10(2025年5月5日)

アプリケーションおよびCLIバージョン2.6.10

含まれているSMAコアバージョン

  • Snowpark変換コア7.4.0

修正済み

  • 「checkpoints.json」ファイルの誤った値を修正しました

    • 「sample」の値には、小数点(整数値の場合)と引用符がありませんでした

    • 「entryPoint」の値には、スラッシュの代わりにドットがあり、ファイル拡張子がありませんでした

  • 'Convert DBX notebooks to Snowflake notebooks' の設定でデフォルト値をTRUEに更新しました

バージョン2.6.8(2025年4月28日)

アプリケーションおよびCLIバージョン2.6.8

デスクトップアプリ

  • チェックポイント実行設定のメカニズム認識を追加しました

  • DbxElementsInventory.csvへのDBXマジックコマンドを収集するメカニズムを追加しました

  • 'checkpoints.json' 生成を入力ディレクトリに追加しました

  • サポートされていないすべてのマジックコマンドに新しいEWIを追加しました

  • ScalaソースノートブックからのdbutilsのコレクションをDbxElementsInventory.csvに追加しました

含まれているSMAコアバージョン

  • Snowpark変換コア7.2.53

変更済み

  • DBX Scala要素からJupyter Python要素への変換に対応し、セルからコード全体にコメントするよう更新しました

  • dbutils.notebook.runと「r」コマンドからの変換を処理するように更新が行われました。最後のものついては、セルからコード全体をコメントアウトします

  • ノートブックファイルの変換を行うために、キーの名前と文字を更新しました

修正済み

  • DBXノートブックを.ipynbファイルに変換する際に、間違った形式になるバグを修正しました

  • .py DBXノートブックを.ipynbファイルに変換できないようにしていたバグを修正しました

  • DBXノートブックの出力コードでコメントが欠落するバグを修正しました

  • 生のScalaファイルがipynbファイルに変換されるバグを修正しました

バージョン2.6.7(2025年4月21日)

アプリケーションおよびCLIバージョン2.6.7

含まれているSMAコアバージョン

  • Snowpark変換コア7.2.42

変更済み

EntryPoints列に入力するようDataFramesInventoryを更新

バージョン2.6.6(2025年4月7日)

アプリケーションおよびCLIバージョン2.6.6

デスクトップアプリ

追加済み

  • UI結果ページのDBx EWIリンクを更新

含まれているSMAコアバージョン

  • Snowpark変換コア7.2.39

追加済み

  • 実行フローのインベントリ生成を追加しました

  • すべてのDBxノートブック変換で暗黙的セッション設定を追加

変更済み

  • DbUtilsUsagesInventory.csvをDbxElementsInventory.csvに名前変更

修正済み

  • 型ヒントの後にバックスラッシュが来ると解析エラーが発生するバグを修正しました

  • ドットで始まらない相対インポートと、スターで始まる相対インポートを修正しました

バージョン2.6.5(2025年3月27日)

アプリケーションおよびCLIバージョン2.6.5

デスクトップアプリ

追加済み

  • Sma-Checkpoints機能を有効または無効にするための新しい変換設定トグルを追加しました

  • Post apiが500を返す場合にクラッシュしないようにレポートの問題を修正しました

含まれているSMAコアバージョン

  • Snowpark変換コア7.2.26

追加済み

  • DataFramesInventory.csvに基づく、checkpoints.jsonファイルの出力フォルダーへの生成を追加しました

  • CLIコマンドに「disableCheckpoints」フラグを追加し、コードプロセッサーの追加パラメーターを追加しました

  • dbutils.notebook.runノードを変換するための、Python用の新しいリマインダーを追加しました

  • マジック%runコマンドを変換するための新しいリプレーサーを追加しました

  • 新しいリプレーサー(PythonおよびScala)を追加して、dbutils.notebook.exitノードを削除しました

  • アーティファクトインベントリにLocation列を追加しました

変更済み

  • ソリューションの一部で使用されている正規化されたディレクトリ区切り文字を修正しました

  • DBC抽出作業のフォルダー名処理を一元化しました

  • SnowparkとPandasのバージョンをv1.27.0に更新しました

  • アーティファクトのインベントリ列を更新しました

    • Name -> Dependency

    • File -> FileId

    • Status -> Status_detail

  • アーティファクトインベントリに新しい列を追加しました

    • Success

修正済み

  • データフレームのインベントリがステージに正しくアップロードされていませんでした

バージョン2.6.4(2025年3月12日)

アプリケーションおよびCLIバージョン2.6.4

含まれているSMA コアバージョン

  • Snowpark変換コア7.2.0

追加

  • アーティファクト依存関係インベントリ

  • pyspark.sql.types.StructType.fieldNamesメソッドからsnowflake.snowpark.types.StructType.fieldNames属性のリプレーサーとEWI

  • 次のステータスを持つ PySpark 関数:

Direct Status
  • pyspark.sql.functions.bitmap_bit_position

  • pyspark.sql.functions.bitmap_bucket_number

  • pyspark.sql.functions.bitmap_construct_agg

  • pyspark.sql.functions.equal_null

  • pyspark.sql.functions.ifnull

  • pyspark.sql.functions.localtimestamp

  • pyspark.sql.functions.max_by

  • pyspark.sql.functions.min_by

  • pyspark.sql.functions.nvl

  • pyspark.sql.functions.regr_avgx

  • pyspark.sql.functions.regr_avgy

  • pyspark.sql.functions.regr_count

  • pyspark.sql.functions.regr_intercept

  • pyspark.sql.functions.regr_slope

  • pyspark.sql.functions.regr_sxx

  • pyspark.sql.functions.regr_sxy

  • pyspark.sql.functions.regr

NotSupported

  • pyspark.sql.functions.map_contains_key

  • pyspark.sql.functions.position

  • pyspark.sql.functions.regr_r2

  • pyspark.sql.functions.try_to_binary

次のステータスを持つ次の Pandas 関数

  • pandas.core.series.Series.str.ljust

  • pandas.core.series.Series.str.center

  • pandas.core.series.Series.str.pad

  • pandas.core.series.Series.str.rjust

次のステータスを持つ Pyspark関数を更新

WorkAroundからDirect

  • pyspark.sql.functions.acosh

  • pyspark.sql.functions.asinh

  • pyspark.sql.functions.atanh

  • pyspark.sql.functions.instr

  • pyspark.sql.functions.log10

  • pyspark.sql.functions.log1p

  • pyspark.sql.functions.log2

NotSupportedからDirect

  • pyspark.sql.functions.bit_length

  • pyspark.sql.functions.cbrt

  • pyspark.sql.functions.nth_value

  • pyspark.sql.functions.octet_length

  • pyspark.sql.functions.base64

  • pyspark.sql.functions.unbase64

次のステータスを持つ Pandas関数を更新しました

NotSupportedからDirect

  • pandas.core.frame.DataFrame.pop

  • pandas.core.series.Series.between

  • pandas.core.series.Series.pop

バージョン2.6.3(2025年3月6日)

アプリケーションおよびCLIバージョン2.6.3

含まれているSMA コアバージョン

  • Snowpark変換コア7.1.13

追加

  • 新しいインベントリ作成用のcsvジェネレータークラスを追加しました

  • 使用状況インベントリをインポートするために「\full_name」列を追加しました

  • pyspark.sql.functions.concat_wsからsnowflake.snowpark.functions._concat_ws_ignore_nullsへの変換を追加しました

  • checkpoint.jsonの生成ロジックを追加しました

  • インベントリを追加しました:

    • DataFramesInventory.csv

    • CheckpointsInventory.csv

バージョン2.6.0(2025年2月21日)

アプリケーションおよびCLIバージョン2.6.0

デスクトップアプリ

  • ライセンス契約を更新しました、同意が必要です

含まれているSMAコアバージョン

  • Snowpark変換コア7.1.2

追加済み

Updated the mapping status for the following PySpark elements, from NotSupported to Direct
  • pyspark.sql.types.ArrayType.json

  • pyspark.sql.types.ArrayType.jsonValue

  • pyspark.sql.types.ArrayType.simpleString

  • pyspark.sql.types.ArrayType.typeName

  • pyspark.sql.types.AtomicType.json

  • pyspark.sql.types.AtomicType.jsonValue

  • pyspark.sql.types.AtomicType.simpleString

  • pyspark.sql.types.AtomicType.typeName

  • pyspark.sql.types.BinaryType.json

  • pyspark.sql.types.BinaryType.jsonValue

  • pyspark.sql.types.BinaryType.simpleString

  • pyspark.sql.types.BinaryType.typeName

  • pyspark.sql.types.BooleanType.json

  • pyspark.sql.types.BooleanType.jsonValue

  • pyspark.sql.types.BooleanType.simpleString

  • pyspark.sql.types.BooleanType.typeName

  • pyspark.sql.types.ByteType.json

  • pyspark.sql.types.ByteType.jsonValue

  • pyspark.sql.types.ByteType.simpleString

  • pyspark.sql.types.ByteType.typeName

  • pyspark.sql.types.DecimalType.json

  • pyspark.sql.types.DecimalType.jsonValue

  • pyspark.sql.types.DecimalType.simpleString

  • pyspark.sql.types.DecimalType.typeName

  • pyspark.sql.types.DoubleType.json

  • pyspark.sql.types.DoubleType.jsonValue

  • pyspark.sql.types.DoubleType.simpleString

  • pyspark.sql.types.DoubleType.typeName

  • pyspark.sql.types.FloatType.json

  • pyspark.sql.types.FloatType.jsonValue

  • pyspark.sql.types.FloatType.simpleString

  • pyspark.sql.types.FloatType.typeName

  • pyspark.sql.types.FractionalType.json

  • pyspark.sql.types.FractionalType.jsonValue

  • pyspark.sql.types.FractionalType.simpleString

  • pyspark.sql.types.FractionalType.typeName

  • pyspark.sql.types.IntegerType.json

  • pyspark.sql.types.IntegerType.jsonValue

  • pyspark.sql.types.IntegerType.simpleString

  • pyspark.sql.types.IntegerType.typeName

  • pyspark.sql.types.IntegralType.json

  • pyspark.sql.types.IntegralType.jsonValue

  • pyspark.sql.types.IntegralType.simpleString

  • pyspark.sql.types.IntegralType.typeName

  • pyspark.sql.types.LongType.json

  • pyspark.sql.types.LongType.jsonValue

  • pyspark.sql.types.LongType.simpleString

  • pyspark.sql.types.LongType.typeName

  • pyspark.sql.types.MapType.json

  • pyspark.sql.types.MapType.jsonValue

  • pyspark.sql.types.MapType.simpleString

  • pyspark.sql.types.MapType.typeName

  • pyspark.sql.types.NullType.json

  • pyspark.sql.types.NullType.jsonValue

  • pyspark.sql.types.NullType.simpleString

  • pyspark.sql.types.NullType.typeName

  • pyspark.sql.types.NumericType.json

  • pyspark.sql.types.NumericType.jsonValue

  • pyspark.sql.types.NumericType.simpleString

  • pyspark.sql.types.NumericType.typeName

  • pyspark.sql.types.ShortType.json

  • pyspark.sql.types.ShortType.jsonValue

  • pyspark.sql.types.ShortType.simpleString

  • pyspark.sql.types.ShortType.typeName

  • pyspark.sql.types.StringType.json

  • pyspark.sql.types.StringType.jsonValue

  • pyspark.sql.types.StringType.simpleString

  • pyspark.sql.types.StringType.typeName

  • pyspark.sql.types.StructType.json

  • pyspark.sql.types.StructType.jsonValue

  • pyspark.sql.types.StructType.simpleString

  • pyspark.sql.types.StructType.typeName

  • pyspark.sql.types.TimestampType.json

  • pyspark.sql.types.TimestampType.jsonValue

  • pyspark.sql.types.TimestampType.simpleString

  • pyspark.sql.types.TimestampType.typeName

  • pyspark.sql.types.StructField.simpleString

  • pyspark.sql.types.StructField.typeName

  • pyspark.sql.types.StructField.json

  • pyspark.sql.types.StructField.jsonValue

  • pyspark.sql.types.DataType.json

  • pyspark.sql.types.DataType.jsonValue

  • pyspark.sql.types.DataType.simpleString

  • pyspark.sql.types.DataType.typeName

  • pyspark.sql.session.SparkSession.getActiveSession

  • pyspark.sql.session.SparkSession.version

  • pandas.io.html.read_html

  • pandas.io.json._normalize.json_normalize

  • pyspark.sql.types.ArrayType.fromJson

  • pyspark.sql.types.MapType.fromJson

  • pyspark.sql.types.StructField.fromJson

  • pyspark.sql.types.StructType.fromJson

  • pandas.core.groupby.generic.DataFrameGroupBy.pct_change

  • pandas.core.groupby.generic.SeriesGroupBy.pct_change

次のPandas要素のマッピングステータスを NotSupported から Direct に更新しました

  • pandas.io.html.read_html

  • pandas.io.json._normalize.json_normalize

  • pandas.core.groupby.generic.DataFrameGroupBy.pct_change

  • pandas.core.groupby.generic.SeriesGroupBy.pct_change

次のPySpark要素のマッピングステータスを Rename から Direct に更新しました

  • pyspark.sql.functions.collect_list

  • pyspark.sql.functions.size

修正

  • インベントリのバージョン番号の形式を標準化しました

バージョン2.5.2(2025年2月5日)

ホットフィックス: アプリケーションと CLI バージョン2.5.2

デスクトップアプリ

  • サンプルプロジェクトオプションで変換する際の問題を修正しました。

含まれているSMAコアバージョン

  • Snowpark Conversion Core 5.3.0

バージョン2.5.1(2025年2月4日)

アプリケーションと CLI バージョン2.5.1

デスクトップアプリ

  • ユーザーに書き込み権限がない場合の新しいモーダルを追加しました。

  • ライセンス契約の更新には、承諾が必要です。

CLI

  • 「--version」または「-v」を表示した際の CLI 画面の年号を修正しました。

含まれる SMA コアバージョンincluded-sma-core-versions

  • Snowpark Conversion Core 5.3.0

追加済み

Added the following Python Third-Party libraries with Direct status:
  • about-time

  • affinegap

  • aiohappyeyeballs

  • alibi-detect

  • alive-progress

  • allure-nose2

  • allure-robotframework

  • anaconda-cloud-cli

  • anaconda-mirror

  • astropy-iers-data

  • asynch

  • asyncssh

  • autots

  • autoviml

  • aws-msk-iam-sasl-signer-python

  • azure-functions

  • backports.tarfile

  • blas

  • bottle

  • bson

  • cairo

  • capnproto

  • captum

  • categorical-distance

  • census

  • clickhouse-driver

  • clustergram

  • cma

  • conda-anaconda-telemetry

  • configspace

  • cpp-expected

  • dask-expr

  • data-science-utils

  • databricks-sdk

  • datetime-distance

  • db-dtypes

  • dedupe

  • dedupe-variable-datetime

  • dedupe_lehvenshtein_search

  • dedupe_levenshtein_search

  • diff-cover

  • diptest

  • dmglib

  • docstring_parser

  • doublemetaphone

  • dspy-ai

  • econml

  • emcee

  • emoji

  • environs

  • eth-abi

  • eth-hash

  • eth-typing

  • eth-utils

  • expat

  • filetype

  • fitter

  • flask-cors

  • fpdf2

  • frozendict

  • gcab

  • geojson

  • gettext

  • glib-tools

  • google-ads

  • google-ai-generativelanguage

  • google-api-python-client

  • google-auth-httplib2

  • google-cloud-bigquery

  • google-cloud-bigquery-core

  • google-cloud-bigquery-storage

  • google-cloud-bigquery-storage-core

  • google-cloud-resource-manager

  • google-generativeai

  • googlemaps

  • grapheme

  • graphene

  • graphql-relay

  • gravis

  • greykite

  • grpc-google-iam-v1

  • harfbuzz

  • hatch-fancy-pypi-readme

  • haversine

  • hiclass

  • hicolor-icon-theme

  • highered

  • hmmlearn

  • holidays-ext

  • httplib2

  • icu

  • imbalanced-ensemble

  • immutabledict

  • importlib-metadata

  • importlib-resources

  • inquirerpy

  • iterative-telemetry

  • jaraco.context

  • jaraco.test

  • jiter

  • jiwer

  • joserfc

  • jsoncpp

  • jsonpath

  • jsonpath-ng

  • jsonpath-python

  • kagglehub

  • keplergl

  • kt-legacy

  • langchain-community

  • langchain-experimental

  • langchain-snowflake

  • langchain-text-splitters

  • libabseil

  • libflac

  • libgfortran-ng

  • libgfortran5

  • libglib

  • libgomp

  • libgrpc

  • libgsf

  • libmagic

  • libogg

  • libopenblas

  • libpostal

  • libprotobuf

  • libsentencepiece

  • libsndfile

  • libstdcxx-ng

  • libtheora

  • libtiff

  • libvorbis

  • libwebp

  • lightweight-mmm

  • litestar

  • litestar-with-annotated-types

  • litestar-with-attrs

  • litestar-with-cryptography

  • litestar-with-jinja

  • litestar-with-jwt

  • litestar-with-prometheus

  • litestar-with-structlog

  • lunarcalendar-ext

  • matplotlib-venn

  • metricks

  • mimesis

  • modin-ray

  • momepy

  • mpg123

  • msgspec

  • msgspec-toml

  • msgspec-yaml

  • msitools

  • multipart

  • namex

  • nbconvert-all

  • nbconvert-core

  • nbconvert-pandoc

  • nlohmann_json

  • numba-cuda

  • numpyro

  • office365-rest-python-client

  • openapi-pydantic

  • opentelemetry-distro

  • opentelemetry-instrumentation

  • opentelemetry-instrumentation-system-metrics

  • optree

  • osmnx

  • pathlib

  • pdf2image

  • pfzy

  • pgpy

  • plumbum

  • pm4py

  • polars

  • polyfactory

  • poppler-cpp

  • postal

  • pre-commit

  • prompt-toolkit

  • propcache

  • py-partiql-parser

  • py_stringmatching

  • pyatlan

  • pyfakefs

  • pyfhel

  • pyhacrf-datamade

  • pyiceberg

  • pykrb5

  • pylbfgs

  • pymilvus

  • pymoo

  • pynisher

  • pyomo

  • pypdf

  • pypdf-with-crypto

  • pypdf-with-full

  • pypdf-with-image

  • pypng

  • pyprind

  • pyrfr

  • pysoundfile

  • pytest-codspeed

  • pytest-trio

  • python-barcode

  • python-box

  • python-docx

  • python-gssapi

  • python-iso639

  • python-magic

  • python-pandoc

  • python-zstd

  • pyuca

  • pyvinecopulib

  • pyxirr

  • qrcode

  • rai-sdk

  • ray-client

  • ray-observability

  • readline

  • rich-click

  • rouge-score

  • ruff

  • scikit-criteria

  • scikit-mobility

  • sentencepiece-python

  • sentencepiece-spm

  • setuptools-markdown

  • setuptools-scm

  • setuptools-scm-git-archive

  • shareplum

  • simdjson

  • simplecosine

  • sis-extras

  • slack-sdk

  • smac

  • snowflake-sqlalchemy

  • snowflake_legacy

  • socrata-py

  • spdlog

  • sphinxcontrib-images

  • sphinxcontrib-jquery

  • sphinxcontrib-youtube

  • splunk-opentelemetry

  • sqlfluff

  • squarify

  • st-theme

  • statistics

  • streamlit-antd-components

  • streamlit-condition-tree

  • streamlit-echarts

  • streamlit-feedback

  • streamlit-keplergl

  • streamlit-mermaid

  • streamlit-navigation-bar

  • streamlit-option-menu

  • strictyaml

  • stringdist

  • sybil

  • tensorflow-cpu

  • tensorflow-text

  • tiledb-ptorchaudio

  • torcheval

  • trio-websocket

  • trulens-connectors-snowflake

  • trulens-core

  • trulens-dashboard

  • trulens-feedback

  • trulens-otel-semconv

  • trulens-providers-cortex

  • tsdownsample

  • typing

  • typing-extensions

  • typing_extensions

  • unittest-xml-reporting

  • uritemplate

  • us

  • uuid6

  • wfdb

  • wsproto

  • zlib

  • zope.index

Added the following Python BuiltIn libraries with Direct status:
  • aifc

  • 配列

  • ast

  • asynchat

  • asyncio

  • asyncore

  • atexit

  • audioop

  • base64

  • bdb

  • binascii

  • bitsect

  • builtins

  • bz2

  • calendar

  • cgi

  • cgitb

  • chunk

  • cmath

  • cmd

  • code

  • codecs

  • codeop

  • colorsys

  • compileall

  • concurrent

  • contextlib

  • contextvars

  • copy

  • copyreg

  • cprofile

  • crypt

  • csv

  • ctypes

  • curses

  • dbm

  • difflib

  • dis

  • distutils

  • doctest

  • email

  • ensurepip

  • enum

  • errno

  • faulthandler

  • fcntl

  • filecmp

  • fileinput

  • fnmatch

  • fractions

  • ftplib

  • functools

  • gc

  • getopt

  • getpass

  • gettext

  • graphlib

  • grp

  • gzip

  • hashlib

  • heapq

  • hmac

  • html

  • http

  • idlelib

  • imaplib

  • imghdr

  • imp

  • importlib

  • inspect

  • ipaddress

  • itertools

  • keyword

  • linecache

  • locale

  • lzma

  • mailbox

  • mailcap

  • marshal

  • math

  • mimetypes

  • mmap

  • modulefinder

  • msilib

  • multiprocessing

  • netrc

  • nis

  • nntplib

  • numbers

  • operator

  • optparse

  • ossaudiodev

  • pdb

  • pickle

  • pickletools

  • pipes

  • pkgutil

  • platform

  • plistlib

  • poplib

  • posix

  • pprint

  • profile

  • pstats

  • pty

  • pwd

  • py_compile

  • pyclbr

  • pydoc

  • queue

  • quopri

  • random

  • re

  • reprlib

  • resource

  • rlcompleter

  • runpy

  • sched

  • シークレット

  • select

  • selectors

  • shelve

  • shlex

  • signal

  • site

  • sitecustomize

  • smtpd

  • smtplib

  • sndhdr

  • socket

  • socketserver

  • spwd

  • sqlite3

  • ssl

  • stat

  • 文字列

  • stringprep

  • struct

  • subprocess

  • sunau

  • symtable

  • sysconfig

  • syslog

  • tabnanny

  • tarfile

  • telnetlib

  • tempfile

  • termios

  • test

  • textwrap

  • threading

  • timeit

  • tkinter

  • トークン

  • tokenize

  • tomllib

  • trace

  • traceback

  • tracemalloc

  • tty

  • turtle

  • turtledemo

  • types

  • unicodedata

  • urllib

  • uu

  • uuid

  • venv

  • warnings

  • wave

  • weakref

  • webbrowser

  • wsgiref

  • xdrlib

  • xml

  • xmlrpc

  • zipapp

  • zipfile

  • zipimport

  • zoneinfo

Added the following Python BuiltIn libraries with NotSupported status:
  • msvcrt

  • winreg

  • winsound

変更済み

  • .NET バージョンをv9.0.0に更新。

  • EWI SPRKPY1068 を改善。

  • SMA でサポートされるSnowpark Python API のバージョンを1.24.0 から 1.25.0に引き上げました。

  • パンダのSnowparkバージョンを追加しました。

  • 以下のライブラリを ThirdPartyLib から BuiltIn に変更。

    • configparser

    • dataclasses

    • pathlib

    • readline

    • statistics

    • zlib

Updated the mapping status for the following Pandas elements, from Direct to Partial:
  • pandas.core.frame.DataFrame.add

  • pandas.core.frame.DataFrame.aggregate

  • pandas.core.frame.DataFrame.all

  • pandas.core.frame.DataFrame.apply

  • pandas.core.frame.DataFrame.astype

  • pandas.core.frame.DataFrame.cumsum

  • pandas.core.frame.DataFrame.div

  • pandas.core.frame.DataFrame.dropna

  • pandas.core.frame.DataFrame.eq

  • pandas.core.frame.DataFrame.ffill

  • pandas.core.frame.DataFrame.fillna

  • pandas.core.frame.DataFrame.floordiv

  • pandas.core.frame.DataFrame.ge

  • pandas.core.frame.DataFrame.groupby

  • pandas.core.frame.DataFrame.gt

  • pandas.core.frame.DataFrame.idxmax

  • pandas.core.frame.DataFrame.idxmin

  • pandas.core.frame.DataFrame.inf

  • pandas.core.frame.DataFrame.join

  • pandas.core.frame.DataFrame.le

  • pandas.core.frame.DataFrame.loc

  • pandas.core.frame.DataFrame.lt

  • pandas.core.frame.DataFrame.mask

  • pandas.core.frame.DataFrame.merge

  • pandas.core.frame.DataFrame.mod

  • pandas.core.frame.DataFrame.mul

  • pandas.core.frame.DataFrame.ne

  • pandas.core.frame.DataFrame.nunique

  • pandas.core.frame.DataFrame.pivot_table

  • pandas.core.frame.DataFrame.pow

  • pandas.core.frame.DataFrame.radd

  • pandas.core.frame.DataFrame.rank

  • pandas.core.frame.DataFrame.rdiv

  • pandas.core.frame.DataFrame.rename

  • pandas.core.frame.DataFrame.replace

  • pandas.core.frame.DataFrame.resample

  • pandas.core.frame.DataFrame.rfloordiv

  • pandas.core.frame.DataFrame.rmod

  • pandas.core.frame.DataFrame.rmul

  • pandas.core.frame.DataFrame.rolling

  • pandas.core.frame.DataFrame.round

  • pandas.core.frame.DataFrame.rpow

  • pandas.core.frame.DataFrame.rsub

  • pandas.core.frame.DataFrame.rtruediv

  • pandas.core.frame.DataFrame.shift

  • pandas.core.frame.DataFrame.skew

  • pandas.core.frame.DataFrame.sort_index

  • pandas.core.frame.DataFrame.sort_values

  • pandas.core.frame.DataFrame.sub

  • pandas.core.frame.DataFrame.to_dict

  • pandas.core.frame.DataFrame.transform

  • pandas.core.frame.DataFrame.transpose

  • pandas.core.frame.DataFrame.truediv

  • pandas.core.frame.DataFrame.var

  • pandas.core.indexes.datetimes.date_range

  • pandas.core.reshape.concat.concat

  • pandas.core.reshape.melt.melt

  • pandas.core.reshape.merge.merge

  • pandas.core.reshape.pivot.pivot_table

  • pandas.core.reshape.tile.cut

  • pandas.core.series.Series.add

  • pandas.core.series.Series.aggregate

  • pandas.core.series.Series.all

  • pandas.core.series.Series.any

  • pandas.core.series.Series.cumsum

  • pandas.core.series.Series.div

  • pandas.core.series.Series.dropna

  • pandas.core.series.Series.eq

  • pandas.core.series.Series.ffill

  • pandas.core.series.Series.fillna

  • pandas.core.series.Series.floordiv

  • pandas.core.series.Series.ge

  • pandas.core.series.Series.gt

  • pandas.core.series.Series.lt

  • pandas.core.series.Series.mask

  • pandas.core.series.Series.mod

  • pandas.core.series.Series.mul

  • pandas.core.series.Series.multiply

  • pandas.core.series.Series.ne

  • pandas.core.series.Series.pow

  • pandas.core.series.Series.quantile

  • pandas.core.series.Series.radd

  • pandas.core.series.Series.rank

  • pandas.core.series.Series.rdiv

  • pandas.core.series.Series.rename

  • pandas.core.series.Series.replace

  • pandas.core.series.Series.resample

  • pandas.core.series.Series.rfloordiv

  • pandas.core.series.Series.rmod

  • pandas.core.series.Series.rmul

  • pandas.core.series.Series.rolling

  • pandas.core.series.Series.rpow

  • pandas.core.series.Series.rsub

  • pandas.core.series.Series.rtruediv

  • pandas.core.series.Series.sample

  • pandas.core.series.Series.shift

  • pandas.core.series.Series.skew

  • pandas.core.series.Series.sort_index

  • pandas.core.series.Series.sort_values

  • pandas.core.series.Series.std

  • pandas.core.series.Series.sub

  • pandas.core.series.Series.subtract

  • pandas.core.series.Series.truediv

  • pandas.core.series.Series.value_counts

  • pandas.core.series.Series.var

  • pandas.core.series.Series.where

  • pandas.core.tools.numeric.to_numeric

Updated the mapping status for the following Pandas elements, from NotSupported to Direct:
  • pandas.core.frame.DataFrame.attrs

  • pandas.core.indexes.base.Index.to_numpy

  • pandas.core.series.Series.str.len

  • pandas.io.html.read_html

  • pandas.io.xml.read_xml

  • pandas.core.indexes.datetimes.DatetimeIndex.mean

  • pandas.core.resample.Resampler.indices

  • pandas.core.resample.Resampler.nunique

  • pandas.core.series.Series.items

  • pandas.core.tools.datetimes.to_datetime

  • pandas.io.sas.sasreader.read_sas

  • pandas.core.frame.DataFrame.attrs

  • pandas.core.frame.DataFrame.style

  • pandas.core.frame.DataFrame.items

  • pandas.core.groupby.generic.DataFrameGroupBy.head

  • pandas.core.groupby.generic.DataFrameGroupBy.median

  • pandas.core.groupby.generic.DataFrameGroupBy.min

  • pandas.core.groupby.generic.DataFrameGroupBy.nunique

  • pandas.core.groupby.generic.DataFrameGroupBy.tail

  • pandas.core.indexes.base.Index.is_boolean

  • pandas.core.indexes.base.Index.is_floating

  • pandas.core.indexes.base.Index.is_integer

  • pandas.core.indexes.base.Index.is_monotonic_decreasing

  • pandas.core.indexes.base.Index.is_monotonic_increasing

  • pandas.core.indexes.base.Index.is_numeric

  • pandas.core.indexes.base.Index.is_object

  • pandas.core.indexes.base.Index.max

  • pandas.core.indexes.base.Index.min

  • pandas.core.indexes.base.Index.name

  • pandas.core.indexes.base.Index.names

  • pandas.core.indexes.base.Index.rename

  • pandas.core.indexes.base.Index.set_names

  • pandas.core.indexes.datetimes.DatetimeIndex.day_name

  • pandas.core.indexes.datetimes.DatetimeIndex.month_name

  • pandas.core.indexes.datetimes.DatetimeIndex.time

  • pandas.core.indexes.timedeltas.TimedeltaIndex.ceil

  • pandas.core.indexes.timedeltas.TimedeltaIndex.days

  • pandas.core.indexes.timedeltas.TimedeltaIndex.floor

  • pandas.core.indexes.timedeltas.TimedeltaIndex.microseconds

  • pandas.core.indexes.timedeltas.TimedeltaIndex.nanoseconds

  • pandas.core.indexes.timedeltas.TimedeltaIndex.round

  • pandas.core.indexes.timedeltas.TimedeltaIndex.seconds

  • pandas.core.reshape.pivot.crosstab

  • pandas.core.series.Series.dt.round

  • pandas.core.series.Series.dt.time

  • pandas.core.series.Series.dt.weekday

  • pandas.core.series.Series.is_monotonic_decreasing

  • pandas.core.series.Series.is_monotonic_increasing

Updated the mapping status for the following Pandas elements, from NotSupported to Partial:
  • pandas.core.frame.DataFrame.align

  • pandas.core.series.Series.align

  • pandas.core.frame.DataFrame.tz_convert

  • pandas.core.frame.DataFrame.tz_localize

  • pandas.core.groupby.generic.DataFrameGroupBy.fillna

  • pandas.core.groupby.generic.SeriesGroupBy.fillna

  • pandas.core.indexes.datetimes.bdate_range

  • pandas.core.indexes.datetimes.DatetimeIndex.std

  • pandas.core.indexes.timedeltas.TimedeltaIndex.mean

  • pandas.core.resample.Resampler.asfreq

  • pandas.core.resample.Resampler.quantile

  • pandas.core.series.Series.map

  • pandas.core.series.Series.tz_convert

  • pandas.core.series.Series.tz_localize

  • pandas.core.window.expanding.Expanding.count

  • pandas.core.window.rolling.Rolling.count

  • pandas.core.groupby.generic.DataFrameGroupBy.aggregate

  • pandas.core.groupby.generic.SeriesGroupBy.aggregate

  • pandas.core.frame.DataFrame.applymap

  • pandas.core.series.Series.apply

  • pandas.core.groupby.generic.DataFrameGroupBy.bfill

  • pandas.core.groupby.generic.DataFrameGroupBy.ffill

  • pandas.core.groupby.generic.SeriesGroupBy.bfill

  • pandas.core.groupby.generic.SeriesGroupBy.ffill

  • pandas.core.frame.DataFrame.backfill

  • pandas.core.frame.DataFrame.bfill

  • pandas.core.frame.DataFrame.compare

  • pandas.core.frame.DataFrame.unstack

  • pandas.core.frame.DataFrame.asfreq

  • pandas.core.series.Series.backfill

  • pandas.core.series.Series.bfill

  • pandas.core.series.Series.compare

  • pandas.core.series.Series.unstack

  • pandas.core.series.Series.asfreq

  • pandas.core.series.Series.argmax

  • pandas.core.series.Series.argmin

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.microsecond

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.nanosecond

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.day_name

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.month_name

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.month_start

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.month_end

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_year_start

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_year_end

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_quarter_start

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_quarter_end

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_leap_year

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.floor

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.ceil

  • pandas.core.groupby.generic.DataFrameGroupBy.idxmax

  • pandas.core.groupby.generic.DataFrameGroupBy.idxmin

  • pandas.core.groupby.generic.DataFrameGroupBy.std

  • pandas.core.indexes.timedeltas.TimedeltaIndex.mean

  • pandas.core.tools.timedeltas.to_timedelta

既知の問題

  • このバージョンでは、サンプルプロジェクトを変換する際に動作しない問題が含まれています。 次のリリースで修正される予定です

バージョン2.4.3(2025年1月9日)

アプリケーションと CLI バージョン2.4.3

デスクトップアプリ

  • クラッシュレポートモーダル内にトラブルシューティングガイドへのリンクを追加しました。

含まれているSMAコアバージョン

  • Snowpark Conversion Core 4.15.0

追加済み

  • ConversionStatusPySpark.csvファイルに NotSupported として以下の PySpark 要素を追加しました

    • pyspark.sql.streaming.readwriter.DataStreamReader.table

    • pyspark.sql.streaming.readwriter.DataStreamReader.schema

    • pyspark.sql.streaming.readwriter.DataStreamReader.options

    • pyspark.sql.streaming.readwriter.DataStreamReader.option

    • pyspark.sql.streaming.readwriter.DataStreamReader.load

    • pyspark.sql.streaming.readwriter.DataStreamReader.format

    • pyspark.sql.streaming.query.StreamingQuery.awaitTermination

    • pyspark.sql.streaming.readwriter.DataStreamWriter.partitionBy

    • pyspark.sql.streaming.readwriter.DataStreamWriter.toTable

    • pyspark.sql.streaming.readwriter.DataStreamWriter.trigger

    • pyspark.sql.streaming.readwriter.DataStreamWriter.queryName

    • pyspark.sql.streaming.readwriter.DataStreamWriter.outputMode

    • pyspark.sql.streaming.readwriter.DataStreamWriter.format

    • pyspark.sql.streaming.readwriter.DataStreamWriter.option

    • pyspark.sql.streaming.readwriter.DataStreamWriter.foreachBatch

    • pyspark.sql.streaming.readwriter.DataStreamWriter.start

変更済み

  • Hive SQL EWIs 形式を更新しました。

    • SPRKHVSQL1001

    • SPRKHVSQL1002

    • SPRKHVSQL1003

    • SPRKHVSQL1004

    • SPRKHVSQL1005

    • SPRKHVSQL1006

  • Spark SQL EWIs 形式を更新しました。

    • SPRKSPSQL1001

    • SPRKSPSQL1002

    • SPRKSPSQL1003

    • SPRKSPSQL1004

    • SPRKSPSQL1005

    • SPRKSPSQL1006

修正済み

  • ツールによって識別されない PySpark 要素があったバグを修正しました。

  • ThirdParty が識別した呼び出しと ThirdParty のインポート呼び出し番号との不一致を修正しました。

バージョン2.4.2(2025年12月13日)

アプリケーションおよびCLI バージョン2.4.2

含まれているSMAコアバージョン

  • Snowpark Conversion Core 4.14.0

追加済み

  • ConversionStatusPySpark.csvに以下のSpark要素を追加しました。

    • pyspark.broadcast.Broadcast.value

    • pyspark.conf.SparkConf.getAll

    • pyspark.conf.SparkConf.setAll

    • pyspark.conf.SparkConf.setMaster

    • pyspark.context.SparkContext.addFile

    • pyspark.context.SparkContext.addPyFile

    • pyspark.context.SparkContext.binaryFiles

    • pyspark.context.SparkContext.setSystemProperty

    • pyspark.context.SparkContext.version

    • pyspark.files.SparkFiles

    • pyspark.files.SparkFiles.get

    • pyspark.rdd.RDD.count

    • pyspark.rdd.RDD.distinct

    • pyspark.rdd.RDD.reduceByKey

    • pyspark.rdd.RDD.saveAsTextFile

    • pyspark.rdd.RDD.take

    • pyspark.rdd.RDD.zipWithIndex

    • pyspark.sql.context.SQLContext.udf

    • pyspark.sql.types.StructType.simpleString

変更済み

  • Pandas EWIs、 PNDSPY1001PNDSPY1002PNDSPY1003、および SPRKSCL1137 のドキュメントを更新し、標準化された形式に合わせることで、すべての EWIs の一貫性と明瞭性を確保しました。

  • 以下のScala EWIs のドキュメントを更新しました: SPRKSCL1106SPRKSCL1107。標準形式に合わせることで、すべての EWIs で一貫性と明瞭性を確保。

修正済み

  • UserDefined シンボルがサードパーティの使用インベントリに表示されるバグを修正しました。

バージョン2.4.1(2025年12月4日)

アプリケーションおよびCLI バージョン2.4.1

含まれているSMAコアバージョン

  • Snowpark Conversion Core 4.13.1

コマンドラインインターフェース

変更済み

  • 出力フォルダーにタイムスタンプを追加しました。

Snowpark Conversion Core 4.13.1

追加済み

  • ライブラリマッピングテーブルに「Source Language」列を追加しました

  • DetailedReport.docxのPandas API 概要テーブルに新しいカテゴリとして Others を追加しました。

変更済み

  • Python EWI SPRKPY1058 のドキュメントを更新しました。

  • pandas EWI PNDSPY1002 のメッセージを更新し、関連するpandas要素を表示するようにしました。

  • .csvレポートの作成方法が更新され、2回目の実行で上書きされるようになりました。

修正済み

  • Notebooksファイルが出力されない原因となっていたバグを修正しました。

  • pyspark.sql.conf.RuntimeConfig から getset メソッドのリプレイサーを修正しました。リプレイサーが正しいフルネームと一致するようになりました。

  • クエリタグのバージョンが間違っていたのを修正しました。

  • ThirdPartyLib として報告された UserDefined パッケージを修正。

\

バージョン2.3.1(2025年11月14日)

アプリケーションおよびCLI バージョン2.3.1

含まれているSMAコアバージョン

  • Snowpark Conversion Core 4.12.0

デスクトップアプリ

修正済み

  • --sqlオプションの大文字と小文字を区別する問題を修正。

削除済み

  • show-acメッセージからプラットフォーム名を削除。

Snowpark Conversion Core 4.12.0

追加済み

  • Snowpark Python 1.23.0と1.24.0のサポートを追加しました。

  • pyspark.sql.dataframe.DataFrame.writeTo 関数の新しい EWI を追加しました。この関数の使用すべてに EWI SPRKPY1087 が指定されるようになりました。

変更済み

  • Scala EWIs のドキュメントを SPRKSCL1137 から SPRKSCL1156 に更新して標準化された形式に合わせることで、すべての EWIs で一貫性と明瞭性を確保しました。

  • Scala EWIs のドキュメントを SPRKSCL1117 から SPRKSCL1136 に更新して標準化された形式に合わせることで、すべての EWIs で一貫性と明瞭性を確保しました。

  • 以下の EWIs に表示されるメッセージを更新しました。

    • SPRKPY1082

    • SPRKPY1083

  • Scala EWIs のドキュメントを SPRKSCL1100 から SPRKSCL1105 に、 SPRKSCL1108 から SPRKSCL1116 に、 SPRKSCL1157 から SPRKSCL1175 に更新して標準化された形式に合わせることで、すべての EWIs で一貫性と明瞭性を確保しました。

  • 以下の PySpark 要素のマッピングステータスを、 EWI を使用して NotSupported から Direct に更新しました。

    • pyspark.sql.readwriter.DataFrameWriter.option => snowflake.snowpark.DataFrameWriter.option: この関数の使用はすべて EWI SPRKPY1088 を使用するようになりました

    • pyspark.sql.readwriter.DataFrameWriter.options => snowflake.snowpark.DataFrameWriter.options: この関数の使用は全て EWI SPRKPY1089 を使用するようになりました

  • 以下の PySpark 要素のマッピングステータスを Workaround から Rename に更新しました。

    • pyspark.sql.readwriter.DataFrameWriter.partitionBy => snowflake.snowpark.DataFrameWriter.partition_by

  • EWI ドキュメントを更新しました: SPRKSCL1000、 SPRKSCL1001、 SPRKSCL1002、 SPRKSCL1100、 SPRKSCL1101、 SPRKSCL1102、 SPRKSCL1103、 SPRKSCL1104、 SPRKSCL1105。

削除済み

  • pyspark.sql.dataframe.DataFrameStatFunctions.writeTo 要素を変換ステータスから削除しました。この要素は存在しません。

非推奨

  • 以下の EWI コードを非推奨としました:

    • SPRKPY1081

    • SPRKPY1084

バージョン2.3.0(2024年10月30日)

アプリケーションと CLI バージョン2.3.0

  • Snowpark Conversion Core 4.11.0

Snowpark Conversion Core 4.11.0

追加済み

  • Issues.csv ファイルに、対応する EWI ドキュメントにリダイレクトする Url という新しい列を追加しました。

  • 以下のSpark要素に新しい EWIs を追加しました:

    • [SPRKPY1082] pyspark.sql.readwriter.DataFrameReader.load

    • [SPRKPY1083] pyspark.sql.readwriter.DataFrameWriter.save

    • [SPRKPY1084] pyspark.sql.readwriter.DataFrameWriter.option

    • [SPRKPY1085] pyspark.ml.feature.VectorAssembler

    • [SPRKPY1086] pyspark.ml.linalg.VectorUDT

  • 38の新しいPandas要素を追加しました:

    • pandas.core.frame.DataFrame.select

    • andas.core.frame.DataFrame.str

    • pandas.core.frame.DataFrame.str.replace

    • pandas.core.frame.DataFrame.str.upper

    • pandas.core.frame.DataFrame.to_list

    • pandas.core.frame.DataFrame.tolist

    • pandas.core.frame.DataFrame.unique

    • pandas.core.frame.DataFrame.values.tolist

    • pandas.core.frame.DataFrame.withColumn

    • pandas.core.groupby.generic._SeriesGroupByScalar

    • pandas.core.groupby.generic._SeriesGroupByScalar[S1].agg

    • pandas.core.groupby.generic._SeriesGroupByScalar[S1].aggregate

    • pandas.core.indexes.datetimes.DatetimeIndex.year

    • pandas.core.series.Series.columns

    • pandas.core.tools.datetimes.to_datetime.date

    • pandas.core.tools.datetimes.to_datetime.dt.strftime

    • pandas.core.tools.datetimes.to_datetime.strftime

    • pandas.io.parsers.readers.TextFileReader.apply

    • pandas.io.parsers.readers.TextFileReader.astype

    • pandas.io.parsers.readers.TextFileReader.columns

    • pandas.io.parsers.readers.TextFileReader.copy

    • pandas.io.parsers.readers.TextFileReader.drop

    • pandas.io.parsers.readers.TextFileReader.drop_duplicates

    • pandas.io.parsers.readers.TextFileReader.fillna

    • pandas.io.parsers.readers.TextFileReader.groupby

    • pandas.io.parsers.readers.TextFileReader.head

    • pandas.io.parsers.readers.TextFileReader.iloc

    • pandas.io.parsers.readers.TextFileReader.isin

    • pandas.io.parsers.readers.TextFileReader.iterrows

    • pandas.io.parsers.readers.TextFileReader.loc

    • pandas.io.parsers.readers.TextFileReader.merge

    • pandas.io.parsers.readers.TextFileReader.rename

    • pandas.io.parsers.readers.TextFileReader.shape

    • pandas.io.parsers.readers.TextFileReader.to_csv

    • pandas.io.parsers.readers.TextFileReader.to_excel

    • pandas.io.parsers.readers.TextFileReader.unique

    • pandas.io.parsers.readers.TextFileReader.values

    • pandas.tseries.offsets

バージョン2.2.3(2024年10月24日)

アプリケーションバージョン2.2.3

含まれているSMAコアバージョン

  • Snowpark Conversion Core 4.10.0

デスクトップアプリ

修正済み

  • Windowsバージョンのメニューバーで、 SMA に Snowpark Migration Accelerator ではなく SnowConvert というラベルが表示される原因となっていたバグを修正しました。

  • macOS の .config ディレクトリ、およびWindowsの AppData ディレクトリに対する読み取り権限と書き込み権限がない場合に、 SMA がクラッシュする原因となっていたバグを修正しました。

コマンドラインインターフェース

変更済み

  • CLI の実行ファイル名を snowct から sma に変更しました。

  • ソース言語の引数が削除され、PythonかScalaの評価/変換を実行するかどうかを指定する必要がなくなりました。

  • 以下の新しい引数を追加することにより、 CLI がサポートするコマンドライン引数を拡張しました:

    • --enableJupyter | -j:DatabricksノートブックのJupyterへの変換を有効にするかどうかを示すフラグ。

    • --sql | -f: SQL コマンドが検出されたときに使用されるデータベースエンジンの構文。

    • --customerEmail | -e: 顧客メールを構成します。

    • --customerCompany | -c: 顧客企業を構成します。

    • --projectName | -p: 顧客プロジェクトを構成します。

  • アプリケーションの正しい名称を反映し、すべてのメッセージの一貫性と明瞭性を確保するために、一部のテキストを更新しました。

  • アプリケーションの利用規約を更新しました。

  • CLI のドキュメントを更新および拡充し、最新の機能、拡張、変更を反映させました。

  • SMA の実行に移る前に表示されるテキストを更新しました。

  • CLI を更新し、 「Yes」 を有効な引数として受け付けるようにしました。

  • 引数 -y または --yes を指定することで、ユーザーの操作を待たずに CLI の実行を継続できるようにしました。

  • --sql 引数のヘルプ情報を更新し、この引数が期待する値を表示するようにしました。

Snowpark Conversion Core Version 4.10.0

追加済み

  • pyspark.sql.readwriter.DataFrameWriter.partitionBy 関数の新しい EWI を追加しました。この関数の使用すべてに EWI SPRKPY1081 が指定されるようになりました。

  • ImportUsagesInventory.csv ファイルに、 Technology という新しい列を追加しました。

変更済み

  • サードパーティライブラリのレディネススコアが更新され、 Unknown ライブラリも考慮されるようになりました。

  • AssessmentFiles.zip ファイルを更新し、 .pam ファイルの代わりに .json ファイルを含めるようにしました。

  • CSV から JSON への変換メカニズムを改善し、在庫処理のパフォーマンスを向上しました。

  • 以下の EWIs のドキュメントを改善しました:

    • SPRKPY1029

    • SPRKPY1054

    • SPRKPY1055

    • SPRKPY1063

    • SPRKPY1075

    • SPRKPY1076

  • 以下のSpark Scala要素のマッピングステータスを Direct から Rename に更新しました。

    • org.apache.spark.sql.functions.shiftLeft => com.snowflake.snowpark.functions.shiftleft

    • org.apache.spark.sql.functions.shiftRight => com.snowflake.snowpark.functions.shiftright

  • 以下のSpark Scala要素のマッピングステータスを Not Supported から Direct に更新しました。

    • org.apache.spark.sql.functions.shiftleft => com.snowflake.snowpark.functions.shiftleft

    • org.apache.spark.sql.functions.shiftright => com.snowflake.snowpark.functions.shiftright

修正済み

  • ImportUsagesInventory.csv ファイルの Origin 列に SMA が正しく入力されない原因となっていたバグを修正しました。

  • SMA が iojsonlogging、および unittest のライブラリのインポートをPython組み込みインポートとして ImportUsagesInventory.csv ファイルと DetailedReport.docx ファイルで分類しない原因となっていたバグを修正しました

バージョン2.2.2(2024年10月11日)

アプリケーションバージョン2.2.2

機能アップデートは以下の通りです:

  • Snowpark Conversion Core 4.8.0

Snowpark Conversion Core バージョン4.8.0

追加済み

  • EwiCatalog.csv と.mdファイルを追加し、ドキュメントを再編成しました。

  • pyspark.sql.functions.ln Directのマッピングステータスを追加しました。

  • pyspark.context.SparkContext.getOrCreate 用の変換を追加しました。

    • 詳細は EWI SPRKPY1080 をご確認ください。

  • 関数内のパラメーターの型推論、 SymbolTable を改善しました。

  • 静的メソッドの SymbolTable サポートを追加し、最初のパラメーターが自身であると仮定しないように動作を更新しました。

  • 不足していた EWIs のドキュメントを追加しました。

    • SPRKHVSQL1005

    • SPRKHVSQL1006

    • SPRKSPSQL1005

    • SPRKSPSQL1006

    • SPRKSCL1002

    • SPRKSCL1170

    • SPRKSCL1171

    • SPRKPY1057

    • SPRKPY1058

    • SPRKPY1059

    • SPRKPY1060

    • SPRKPY1061

    • SPRKPY1064

    • SPRKPY1065

    • SPRKPY1066

    • SPRKPY1067

    • SPRKPY1069

    • SPRKPY1070

    • SPRKPY1077

    • SPRKPY1078

    • SPRKPY1079

    • SPRKPY1101

変更済み

  • 以下のマッピングステータスを更新しました:

    • pyspark.sql.functions.array_removeNotSupported から Direct へ。

修正済み

  • 詳細レポートのCode File Sizingテーブルを修正し、.sqlと.hqlファイルを除外し、テーブルにExtra Large行を追加しました。

  • SparkSessionPython で複数行に定義されている場合に update_query_tag が欠落していたのを修正しました。

  • SparkSessionScala で複数行に定義されている場合に update_query_tag が欠落していたのを修正しました。

  • いくつかの SQL ステートメントで解析エラーが発生した場合に、 EWI SPRKHVSQL1001 が欠落していたのを修正しました。

  • 文字列リテラル内の改行値を保持するように修正しました

  • File Type Summaryテーブルに表示されるコード行数を修正しました

  • ファイル認識に成功した場合、解析スコアが0と表示されていた問題を修正しました

  • Databricks Magic SQL セルのセルインベントリで LOC のカウントを修正しました。

バージョン2.2.0(2024年9月26日)

アプリケーションバージョン2.2.0

機能アップデートは以下の通りです:

  • Snowpark Conversion Core 4.6.0

Snowpark Conversion Core Version 4.6.0

追加済み

  • pyspark.sql.readwriter.DataFrameReader.parquet の変換を追加。

  • pyspark.sql.readwriter.DataFrameReader.option がParquetメソッドである場合の変換を追加しました。

変更済み

  • 以下のマッピングステータスを更新しました:

    • pyspark.sql.types.StructType.fieldsNotSupported から Direct へ。

    • pyspark.sql.types.StructType.namesNotSupported から Direct へ。

    • pyspark.context.SparkContext.setLogLevelWorkaround から Transformation へ。

      • 詳細は EWIs SPRKPY1078 および SPRKPY1079 をご覧ください

    • org.apache.spark.sql.functions.roundWorkAround から Direct へ。

    • org.apache.spark.sql.functions.udfNotDefined から Transformation へ。

      • 詳細は EWIs SPRKSCL1174 および SPRKSCL1175 をご覧ください

  • 以下のSpark要素のマッピングステータスを DirectHelper から Direct に更新しました:

    • org.apache.spark.sql.functions.hex

    • org.apache.spark.sql.functions.unhex

    • org.apache.spark.sql.functions.shiftleft

    • org.apache.spark.sql.functions.shiftright

    • org.apache.spark.sql.functions.reverse

    • org.apache.spark.sql.functions.isnull

    • org.apache.spark.sql.functions.unix_timestamp

    • org.apache.spark.sql.functions.randn

    • org.apache.spark.sql.functions.signum

    • org.apache.spark.sql.functions.sign

    • org.apache.spark.sql.functions.collect_list

    • org.apache.spark.sql.functions.log10

    • org.apache.spark.sql.functions.log1p

    • org.apache.spark.sql.functions.base64

    • org.apache.spark.sql.functions.unbase64

    • org.apache.spark.sql.functions.regexp_extract

    • org.apache.spark.sql.functions.expr

    • org.apache.spark.sql.functions.date_format

    • org.apache.spark.sql.functions.desc

    • org.apache.spark.sql.functions.asc

    • org.apache.spark.sql.functions.size

    • org.apache.spark.sql.functions.locate

    • org.apache.spark.sql.functions.ntile

修正済み

  • Pandas Api全体のパーセンテージに表示される値を修正しました

  • DetailReport の ImportCalls テーブルの合計パーセンテージを修正しました

非推奨

  • 以下の EWI コードは非推奨となりました:

    • SPRKSCL1115

バージョン2.1.7(2024年9月12日)

アプリケーションバージョン2.1.7

機能アップデートは以下の通りです:

  • Snowpark Conversion Core 4.5.7

  • Snowpark Conversion Core 4.5.2

Snowpark Conversion Core Version 4.5.7

ホットフィックス済み

  • Spark Usages Summariesにおいて、使用数がない場合に合計行が追加される問題を修正しました。

  • Pythonアセンブリのバージョンを 1.3.111 にバンプしました

    • 複数行引数の後続カンマの解析

Snowpark Conversion Core Version 4.5.2

追加済み

  • pyspark.sql.readwriter.DataFrameReader.option 用の変換を追加しました:

    • チェーンが CSV メソッド呼び出しからの場合。

    • チェーンが JSON メソッド呼び出しからの場合。

  • pyspark.sql.readwriter.DataFrameReader.json 用の変換を追加しました。

変更済み

  • Python/Scala関数に渡された SQL 文字列に対して SMA を実行しました

    • Scala/Pythonで AST を作成し、仮の SQL ユニットを生成

    • SqlEmbeddedUsages.csvインベントリを作成

    • SqlStatementsInventroy.csvおよび SqlExtractionInventory.csvを廃止

    • SQL リテラルが処理できなかった場合に EWI を統合

    • SQL が埋め込まれたコードを処理する新しいタスクを作成

    • Pythonで SqlEmbeddedUsages.csvインベントリの情報を収集

    • Pythonで SQL 変換コードをリテラルに置換

    • 実装後のテストケースを更新

    • SqlEmbeddedUsages インベントリにテレメトリー用のテーブルと表示を作成

    • Scalaで SqlEmbeddedUsages.csvレポートの情報を収集

    • Scalaで SQL 変換コードをリテラルに置換

    • 埋め込み SQL レポートの行番号順を確認

  • SqlFunctionsInfo.csv に、 SparkSQL と HiveSQL に対して文書化された SQL 関数を追加

  • 次のマッピングステータスを更新しました:

    • org.apache.spark.sql.SparkSession.sparkContext を NotSupported からTransformationへ。

    • org.apache.spark.sql.Builder.configNotSupported から Transformation へ。この新しいマッピングステータスにより、 SMA はソースコードからこの関数の使用をすべて除します。

バージョン2.1.6(2024年9月5日)

アプリケーションバージョン2.1.6

  • Snowpark Engines Core version 4.5.1に対するホットフィックスの変更

Spark Conversion Core Version 4.5.1

ホットフィックス

  • エクスポートされたDatabricksノートブックに、 SMA によって生成された一時的なDatabricksノートブックを変換するメカニズムを追加しました

バージョン2.1.5(2024年8月29日)

アプリケーションバージョン2.1.5

機能アップデートは以下の通りです:

  • Spark Conversion Coreの更新:4.3.2

Spark Conversion Core Version 4.3.2

追加済み

  • ノートブックセルで識別された要素の行と列を取得する(装飾による)メカニズムを追加しました。

  • pyspark.sql.functions.from_jsonの EWI を追加しました。

  • pyspark.sql.readwriter.DataFrameReader.csvの変換を追加しました。

  • Scalaファイルのクエリタグメカニズムを有効にしました。

  • コード分析スコアと詳細レポートへのリンクを追加しました。

  • InputFilesInventory.csvに OriginFilePath 列を追加しました。

変更済み

  • pyspark.sql.functions.from_jsonのマッピングステータスをNot SupportedからTransformationに更新しました。

  • 以下のSpark要素のマッピングステータスをWorkaroundからDirectに更新しました:

    • org.apache.spark.sql.functions.countDistinct

    • org.apache.spark.sql.functions.max

    • org.apache.spark.sql.functions.min

    • org.apache.spark.sql.functions.mean

非推奨

  • 以下の EWI コードを非推奨としました:

    • SPRKSCL1135

    • SPRKSCL1136

    • SPRKSCL1153

    • SPRKSCL1155

修正済み

  • Spark API スコアの計算に誤りがあったバグを修正しました。

  • 出力フォルダー内の SQL の空のファイルやコメント付きファイルのコピーを回避するエラーを修正しました。

  • ノートブックの統計 LOC とセル数が正確でなかった DetailedReport のバグを修正しました。

バージョン2.1.2(2024年8月14日)

アプリケーションバージョン2.1.2

機能アップデートは以下の通りです:

  • Spark Conversion Coreの更新:4.2.0

Spark Conversion Core Version 4.2.0

追加済み

  • 技術列を SparkUsagesInventory に追加

  • 定義されていない SQL 要素に対して EWI を追加しました。

  • SqlFunctions インベントリを追加しました

  • SqlFunctions インベントリの情報を収集

変更済み

  • このエンジンは、元のファイルを修正せずに残す代わりに、部分的に解析されたPythonファイルを処理して表示するようになりました。

  • Pythonノートブックのセルの解析エラーも処理され、表示されます。

修正済み

  • pandas.core.indexes.datetimes.DatetimeIndex.strftime が誤って報告されていたのを修正しました。

  • サポートステータス別の SQL レディネススコアと SQL 使用状況の不一致を修正。

  • SMA が pandas.core.series.Series.empty を不正なマッピングステータスで報告する原因となっていたバグを修正しました。

  • DetailedReport.docxのSpark API Usages Ready for ConversionとAssessment.jsonの UsagesReadyForConversion 行の不一致を修正しました。

バージョン2.1.1(2024年8月8日)

アプリケーションバージョン2.1.1

機能アップデートは以下の通りです:

  • Spark Conversion Coreの更新:4.1.0

Spark Conversion Core バージョン 4.1.0

追加済み

  • AssessmentReport.json ファイルに以下の情報を追加しました。

    • サードパーティライブラリのレディネススコア。

    • 識別されたサードパーティライブラリ呼び出しの数。

    • Snowparkでサポートされているサードパーティライブラリの呼び出しの数。

    • サードパーティレディネススコア、Spark API レディネススコア、 SQL レディネススコアに関連付けられた色コード。

  • Sparkで SqlSimpleDataType を変換するとテーブルが作成されます。

  • pyspark.sql.functions.get のマッピングをDirectとして追加しました。

  • pyspark.sql.functions.to_varchar のマッピングをDirectとして追加しました。

  • 統一後の変更の一部として、ツールはエンジンに実行情報ファイルを生成するようになりました。

  • pyspark.sql.SparkSession.builder.appName のリプレイサーを追加しました。

変更済み

  • 以下のSpark要素のマッピングステータスを更新しました。

    • Not SupportedからDirectマッピングへ:

      • pyspark.sql.functions.sign

      • pyspark.sql.functions.signum

  • Notebooks Cells Inventory(ノートブックセルインベントリ)レポートを変更し、Element(要素)列内のすべてのセルのコンテンツの種類を示すようにしました。

  • Scalaファイル内のSpark API への参照のみに関連するレディネススコアを報告する SCALA_READINESS_SCORE 列を追加しました。

  • ALTER TABLE および ALTER VIEW でテーブルプロパティを変換する部分サポート

  • Sparkt create tablesでノード SqlSimpleDataType の変換ステータスを保留中から変換に更新しました

  • SMA のSnowpark Scala API 対応バージョンを 1.7.0 から 1.12.1 に更新しました

    • 以下のマッピングステータスを更新しました:

      • org.apache.spark.sql.SparkSession.getOrCreate をRenameからDirectへ

      • org.apache.spark.sql.functions.sum をWorkaroundからDirectへ

  • SMA のSnowpark Python API 対応バージョンを 1.15.0 から 1.20.0 に更新しました

    • 以下のマッピングステータスを更新しました:

      • pyspark.sql.functions.arrays_zip をNot SupportedからDirectへ

  • 以下のPandas要素のマッピングステータスを更新しました:

    • Directマッピング:

      • pandas.core.frame.DataFrame.any

      • pandas.core.frame.DataFrame.applymap

  • 以下のPandas要素のマッピングステータスを更新しました:

    • Not SupportedからDirectマッピングへ:

      • pandas.core.frame.DataFrame.groupby

      • pandas.core.frame.DataFrame.index

      • pandas.core.frame.DataFrame.T

      • pandas.core.frame.DataFrame.to_dict

    • Not SupportedからRenameマッピングへ

      • pandas.core.frame.DataFrame.map

  • 以下のPandas要素のマッピングステータスを更新しました:

    • Directマッピング:

      • pandas.core.frame.DataFrame.where

      • pandas.core.groupby.generic.SeriesGroupBy.agg

      • pandas.core.groupby.generic.SeriesGroupBy.aggregate

      • pandas.core.groupby.generic.DataFrameGroupBy.agg

      • pandas.core.groupby.generic.DataFrameGroupBy.aggregate

      • pandas.core.groupby.generic.DataFrameGroupBy.apply

    • Not Supportedマッピング:

      • pandas.core.frame.DataFrame.to_parquet

      • pandas.core.generic.NDFrame.to_csv

      • pandas.core.generic.NDFrame.to_excel

      • pandas.core.generic.NDFrame.to_sql

  • 以下のPandas要素のマッピングステータスを更新しました:

    • Directマッピング:

      • pandas.core.series.Series.empty

      • pandas.core.series.Series.apply

      • pandas.core.reshape.tile.qcut

    • EWI を使ったDirectマッピング:

      • pandas.core.series.Series.fillna

      • pandas.core.series.Series.astype

      • pandas.core.reshape.melt.melt

      • pandas.core.reshape.tile.cut

      • pandas.core.reshape.pivot.pivot_table

  • 以下のPandas要素のマッピングステータスを更新しました:

    • Directマッピング:

      • pandas.core.series.Series.dt

      • pandas.core.series.Series.groupby

      • pandas.core.series.Series.loc

      • pandas.core.series.Series.shape

      • pandas.core.tools.datetimes.to_datetime

      • pandas.io.excel._base.ExcelFile

    • Not Supportedマッピング:

      • pandas.core.series.Series.dt.strftime

  • 以下のPandas要素のマッピングステータスを更新しました:

    • Not SupportedからDirectマッピングへ:

      • pandas.io.parquet.read_parquet

      • pandas.io.parsers.readers.read_csv

  • 以下のPandas要素のマッピングステータスを更新しました:

    • Not SupportedからDirectマッピングへ:

      • pandas.io.pickle.read_pickle

      • pandas.io.sql.read_sql

      • pandas.io.sql.read_sql_query

  • 「SQL レディネススコアの理解」の説明を更新しました。

  • PyProgramCollector を更新し、Pythonソースコードからパッケージを収集し、現在のパッケージインベントリにデータを入力するようにしました。

  • pyspark.sql.SparkSession.builder.appName のマッピングステータスをRenameからTransformationに更新しました。

  • 以下のScala統合テストを削除しました。

    • AssesmentReportTest_AssessmentMode.ValidateReports_AssessmentMode

    • AssessmentReportTest_PythonAndScala_Files.ValidateReports_PythonAndScala

    • AssessmentReportTestWithoutSparkUsages.ValidateReports_WithoutSparkUsages

  • pandas.core.generic.NDFrame.shape のマッピングステータスをNot SupportedからDirectに更新しました。

  • pandas.core.series のマッピングステータスをNot SupportedからDirectに更新しました。

非推奨

  • org.apache.spark.sql.functions.sum がDirectマッピングになったため、 EWI コード SPRKSCL1160 を非推奨としました。

修正済み

  • Jupyter Notebookのセルで引数のないカスタムマジックをサポートしないバグを修正しました。

  • 解析エラーが発生した場合に、issues.csvレポートの EWIs が正しく生成されない問題を修正しました。

  • SMA がDatabricksノートブックとしてDatabricksがエクスポートしたノートブックを処理しない原因となっていたバグを修正しました

  • パッケージオブジェクトの内部で作成された宣言のタイプ名が衝突する処理中のスタックオーバーフローエラーを修正しました。

  • 例えば def func[X,Y](f:(Map[Option[X], Y] => Map[Y, X]))... など、ジェネリックを含む複雑なラムダ型名の処理を修正しました

  • まだ認識されていないPandas要素に SMA がPandas EWI コードではなく PySpark EWI コードを追加してしまうバグを修正しました。

  • 詳細レポートのテンプレートのタイプミスを修正しました。列の名前を「Percentage of all Python Files」から「Percentage of all files」に変更しました。

  • pandas.core.series.Series.shape が誤って報告されるバグを修正しました。