Snowpark Migration Accelerator: Versionshinweise

Bitte beachten Sie, dass die nachstehenden Versionshinweise nach Versionsdatum geordnet sind. Die Versionsnummern sowohl der Anwendung als auch des Konvertierungskerns werden unten angezeigt.

Version 2.10.4 (November 18, 2025)

Application & CLI Version: 2.10.4

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core: 8.1.8

Engine Release Notes

Korrigiert

  • Fixed an issue where the SMA generated corrupted Databricks notebook files in the output directory during Assessment mode execution.

  • Fixed an issue where the SMA would crash if the input directory contained folders named “SMA_ConvertedNotebooks”.

Version 2.10.3 (October 30, 2025)

Application & CLI Version: 2.10.3

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core: 8.1.7

Engine Release Notes

Hinzugefügt

  • Added the Snowpark Connect readiness score. This new score measures the percentage of Spark API references in your codebase that are supported by Snowpark Connect for Spark.

  • Added support for SQL embedded migration for literal string concatenations assigned to a local variable in the same scope of execution.

    • Included scenarios now include:

      sqlStat = "SELECT colName " + "FROM myTable" 
      session.sql(sqlStat)
      
      Copy

Geändert

Korrigiert

  • Fixed a code issue that caused inner project configuration files (e.g., pom.xml, build.sbt, build.gradle) to be incorrectly placed in the root of the output directory instead of the correct inner directories after migration.

Desktop Release Notes

Hinzugefügt

  • Added the Snowpark Connect readiness score and updated the assessment execution flow.

    • When running the application in assessment mode, only the Snowpark Connect readiness score is now displayed.

    • When running the application in conversion mode, the Snowpark API readiness score is displayed (the Snowpark Connect Readiness will not be shown).

Geändert

Updated all in-application documentation links to point to the official Snowflake documentation, replacing the legacy SnowConvert site.

Version 2.10.2 (Oct 27, 2025)

Application & CLI Version 2.10.2

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.73

Korrigiert

  • Fixed an issue where the Snowpark Migration Accelerator failed converting DBC files into Jupyter Notebooks properly.

Version 2.10.1 (23. Oktober 2025)

Anwendung und CLI Version 2.10.1

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.72

Hinzugefügt

  • Unterstützung für Snowpark Scala v1.17.0 hinzugefügt:

Von „Nicht unterstützt“ zu „Direkt“:

Datenset:

  • org.apache.spark.sql.Dataset.isEmptycom.snowflake.snowpark.DataFrame.isEmpty

Zeile:

  • org.apache.spark.sql.Row.mkStringcom.snowflake.snowpark.Row.mkString

StructType:

  • org.apache.spark.sql.types.StructType.fieldNamescom.snowflake.snowpark.types.StructType.fieldNames

Von „Nicht unterstützt“ zu „Umbenennen“:

Funktionen:

  • org.apache.spark.functions.flattencom.snowflake.snowpark.functions.array_flatten

Von „Direkt“ zu „Umbenennen“:

Funktionen:

  • org.apache.spark.functions.to_datecom.snowflake.snowpark.functions.try_to_date

  • org.apache.spark.functions.to_timestampcom.snowflake.snowpark.functions.try_to_timestamp

Von „Direkter Unterstützung“ zu „Umbenennen“:

Funktionen:

  • org.apache.spark.sql.functions.concat_wscom.snowflake.snowpark.functions.concat_ws_ignore_nulls

Von „Nicht definiert“ zu „Direkt“:

Funktionen:

  • org.apache.spark.functions.try_to_timestampcom.snowflake.snowpark.functions.try_to_timestamp

  • Eingebettete SQL wird jetzt migriert, wenn ein SQL-Anweisungsliteral einer lokalen Variablen zugewiesen wird.

Beispiel: sqlStat = “SELECT colName FROM myTable“ session.sql(sqlStat)

  • Eingebettete SQL wird jetzt für Verkettungen von literalen Zeichenfolgen unterstützt.

Beispiel: session.sql(“SELECT colName „ + „FROM myTable“)

Geändert

  • Die unterstützten Versionen von Snowpark Python API und Snowpark Pandas API wurden von 1.36.0 auf 1.39.0 aktualisiert.

  • Der Zuordnungsstatus für die folgenden PySpark xpath-Funktionen wurde von NotSupported auf „Direkt mit EWI SPRKPY1103“ aktualisiert:

    • pyspark.sql.functions.xpath

    • pyspark.sql.functions.xpath_boolean

    • pyspark.sql.functions.xpath_double

    • pyspark.sql.functions.xpath_float

    • pyspark.sql.functions.xpath_int

    • pyspark.sql.functions.xpath_long

    • pyspark.sql.functions.xpath_number

    • pyspark.sql.functions.xpath_short

    • pyspark.sql.functions.xpath_string

  • Der Zuordnungsstatus für die folgenden PySpark-Elemente wurde von NotDefined auf „Direkt“ aktualisiert:

    • pyspark.sql.functions.bit_andsnowflake.snowpark.functions.bitand_agg

    • pyspark.sql.functions.bit_orsnowflake.snowpark.functions.bitor_agg

    • pyspark.sql.functions.bit_xorsnowflake.snowpark.functions.bitxor_agg

    • pyspark.sql.functions.getbitsnowflake.snowpark.functions.getbit

  • Der Zuordnungsstatus für die folgenden Pandas-Elemente wurde von NotSupported auf „Direkt“ aktualisiert:

    • pandas.core.indexes.base.Indexmodin.pandas.Index

    • pandas.core.indexes.base.Index.get_level_valuesmodin.pandas.Index.get_level_values

  • Der Zuordnungsstatus für die folgenden PySpark-Funktionen wurde von NotSupported auf „Umbenennen“ aktualisiert:

    • pyspark.sql.functions.nowsnowflake.snowpark.functions.current_timestamp

Korrigiert

  • Scala wurde korrigiert, da Importe nicht migriert wurden, wenn es eine Umbenennung gab.

    Beispiel:

    Quellcode:

    .. code-block:: scala

    package com.example.functions
    import org.apache.spark.sql.functions.{to_timestamp, lit}
    object ToTimeStampTest extends App { to_timestamp(lit(„sample“)) to_timestamp(lit(„sample“), „yyyy-MM-dd“) }

    Ausgabecode:

    .. code-block:: scala

    package com.example.functions
    import com.snowflake.snowpark.functions.{try_to_timestamp, lit} import com.snowflake.snowpark_extensions.Extensions._ import com.snowflake.snowpark_extensions.Extensions.functions._
    object ToTimeStampTest extends App { try_to_timestamp(lit(„sample“)) try_to_timestamp(lit(„sample“), „yyyy-MM-dd“) }

Version 2.10.0 (24. September 2025)

Anwendung und CLI Version 2.10.0

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.62

Hinzugefügt

  • Funktionalität zur Migration von SQL eingebettet in Interpolation des Python-Formats hinzugefügt.

  • Unterstützung für DataFrame.select- und DataFrame.sort-Transformationen für eine größere Flexibilität bei der Datenverarbeitung hinzugefügt.

Geändert

  • Die unterstützten Versionen von Snowpark Python API und Snowpark Pandas API wurden auf 1.36.0 aktualisiert.

  • Der Zuordnungsstatus von pandas.core.frame.DataFrame.boxplot wurde von „Nicht unterstützt“ auf „Direkt“ aktualisiert.

  • Der Zuordnungsstatus von DataFrame.select, Dataset.select, DataFrame.sort und Dataset.sort wurde von „Direkt“ auf „Transformation“ aktualisiert.

  • In Snowpark Scala kann eine Sequenz von Spalten direkt an die Auswahl- und Sortierfunktionen übergeben werden, sodass durch diese Transformation alle Verwendungen, wie beispielsweise df.select(cols: _*) zu df.select(cols) und df.sort(cols: _*) zu df.sort(cols) geändert werden.

  • Die Python AST- und Parser-Version wurde auf 149.1.9 aktualisiert.

  • Der Status für pandas-Funktionen wurde auf „Direkt“ aktualisiert:

    • pandas.core.frame.DataFrame.to_excel

    • pandas.core.series.Series.to_excel

    • pandas.io.feather_format.read_feather

    • pandas.io.orc.read_orc

    • pandas.io.stata.read_stata

  • Der Status für pyspark.sql.pandas.map_ops.PandasMapOpsMixin.mapInPandas wurde auf Umgehung des Problems mit EWI SPRKPY1102 aktualisiert.

Korrigiert

  • Problem behoben, das SqlEmbedded-Transformationen bei der Verwendung von verketteten Methodenaufrufen betraf.

  • Korrekturen bei Transformationen mit PySqlExpr unter Verwendung der neuen PyLiteralSql, um zu vermeiden, dass Details nicht verloren gehen.

  • Interne Stabilitätsprobleme wurden behoben, um die Robustheit und Zuverlässigkeit des Tools zu verbessern.

Version 2.7.7 (28. August 2025)

Anwendung und CLI Version 2.7.7

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.46

Hinzugefügt

  • Neue Pandas EWI-Dokumentation PNDSPY1011 hinzugefügt.

  • Unterstützung für die folgenden Pandas-Funktionen wurde hinzugefügt:

    • pandas.core.algorithms.unique

    • pandas.core.dtypes.missing.isna

    • pandas.core.dtypes.missing.isnull

    • pandas.core.dtypes.missing.notna

    • pandas.core.dtypes.missing.notnull

    • pandas.core.resample.Resampler.count

    • pandas.core.resample.Resampler.max

    • pandas.core.resample.Resampler.mean

    • pandas.core.resample.Resampler.median

    • pandas.core.resample.Resampler.min

    • pandas.core.resample.Resampler.size

    • pandas.core.resample.Resampler.sum

    • pandas.core.arrays.timedeltas.TimedeltaArray.total_seconds

    • pandas.core.series.Series.get

    • pandas.core.series.Series.to_frame

    • pandas.core.frame.DataFrame.assign

    • pandas.core.frame.DataFrame.get

    • pandas.core.frame.DataFrame.to_numpy

    • pandas.core.indexes.base.Index.is_unique

    • pandas.core.indexes.base.Index.has_duplicates

    • pandas.core.indexes.base.Index.shape

    • pandas.core.indexes.base.Index.array

    • pandas.core.indexes.base.Index.str

    • pandas.core.indexes.base.Index.equals

    • pandas.core.indexes.base.Index.identical

    • pandas.core.indexes.base.Index.unique

Unterstützung für die folgenden Funktionen von Spark Scala hinzugefügt:

  • org.apache.spark.sql.functions.format_number

  • org.apache.spark.sql.functions.from_unixtime

  • org.apache.spark.sql.functions.instr

  • org.apache.spark.sql.functions.months_between

  • org.apache.spark.sql.functions.pow

  • org.apache.spark.sql.functions.to_unix_timestamp

  • org.apache.spark.sql.Row.getAs

Geändert

  • Die Version von Snowpark Pandas API, unterstützt vom SMA, wurde auf 1.33.0 aktualisiert.

  • Die Version von Snowpark Scala API, unterstützt vom SMA, wurde auf 1.16.0 aktualisiert.

  • Der Zuordnungsstatus von „pyspark.sql.group.GroupedData.pivot“ wurde von „Transformation“ auf „Direkt“ aktualisiert.

  • Der Zuordnungsstatus von „org.apache.spark.sql.Builder.master“ wurde von NotSupported auf „Transformation“ aktualisiert. Diese Transformation entfernt alle Verwendungen dieses Elements, die während der Codekonvertierung identifiziert wurden.

  • Der Zuordnungsstatus von „org.apache.spark.sql.types.StructType.fieldIndex“ wurde von NotSupported auf „Direkt“ aktualisiert.

  • Der Zuordnungsstatus von „org.apache.spark.sql.Row.fieldIndex“ wurde von NotSupported auf „Direkt“ aktualisiert.

  • Der Zuordnungsstatus von „org.apache.spark.sql.SparkSession.stop“ wurde von NotSupported auf „Umbenennen“ aktualisiert. Alle identifizierten Verwendungen dieses Elements werden während der Codekonvertierung in „com.snowflake.snowpark.Session.close“ umbenannt.

  • Der Zuordnungsstatus von „org.apache.spark.sql.DataFrame.unpersist“ und „org.apache.spark.sql.Dataset.unpersist“ wurde von NotSupported auf „Transformation“ aktualisiert. Diese Transformation entfernt alle Verwendungen dieses Elements, die während der Codekonvertierung identifiziert wurden.

Korrigiert

  • Korrektur des Fortsetzungs-Backslashs bei entfernten Funktionen.

  • Das Problem mit der Spalte LIBRARY_PREFIX in der ConversionStatusLibraries.csv-Datei wurde behoben, um den richtigen Bezeichner für die scikit-learn-Bibliotheksfamilie (scikit-*) zu verwenden.

  • Fehler wurde behoben, bei dem mehrzeilige gruppierte Operationen nicht analysiert wurden.

Version 2.9.0 (09. September 2025)

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.53

Hinzugefügt

  • Die folgenden Zuordnungen werden nun für org.apache.spark.sql.Dataset[T] ausgeführt:

    • org.apache.spark.sql.Dataset.union ist jetzt com.snowflake.snowpark.DataFrame.unionAll

    • org.apache.spark.sql.Dataset.unionByName ist jetzt com.snowflake.snowpark.DataFrame.unionAllByName

  • Unterstützung für org.apache.spark.sql.functions.broadcast als Transformation wurde hinzugefügt.

Geändert

  • Die unterstützte Snowpark Python API-Version für SMA wurde von 1.27.0 auf 1.33.0 aktualisiert.

  • Der Status für die pyspark.sql.function.randn-Funktion wurde auf „Direkt“ aktualisiert.

Korrigiert

  • Das Problem wurde behoben, bei dem org.apache.spark.SparkContext.parallelize nicht aufgelöst wurde und das nun als Transformation unterstützt wird.

  • Das Problem mit der Dataset.persist-Transformation wurde behoben, um mit jeder Art von Datenset zu arbeiten, nicht nur mit Datenset[Zeile].

Version 2.7.6 (17. Juli 2025)

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.30

Hinzugefügt

  • Die Zuordnungen für spark.DataReader-Methoden wurden angepasst.

  • DataFrame.union ist jetzt DataFrame.unionAll.

  • DataFrame.unionByName ist jetzt DataFrame.unionAllByName.

  • Spalten mit mehrstufigen Artefaktabhängigkeiten wurden im Artefaktinventar hinzugefügt

  • Eine neue Pandas EWIs-Dokumentation von PNDSPY1005 zu PNDSPY1010 wurde hinzugefügt.

  • Eine bestimmte EWI für pandas.core.series.Series.apply wurde hinzugefügt.

Geändert

  • Die Version von Snowpark Pandas API, unterstützt vom SMA, wurde von 1.27.0 auf 1.30.0 aktualisiert.

Korrigiert

  • Das Problem mit fehlenden Werten in der Formel wurde behoben, um die SQL-Bereitschaftsbewertung zu erhalten.

  • Der Fehler wurde behoben, der dazu führte, dass einige Pandas-Elemente die standardmäßige EWI-Nachricht von PySpark aufwiesen.

Version 2.7.5 (2. Juli 2025)

Anwendung und CLI Version 2.7.5

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.19

Geändert

  • Überarbeitete Pandas-Importe: Pandas-Importe verwenden jetzt `modin.pandas` anstelle von snowflake.snowpark.modin.pandas.

  • Verbesserte `dbutils` und Magic Commands Transformation:

    • Eine neue sfutils.py-Datei wird jetzt generiert, und alle dbutils-Präfixe werden durch sfutils ersetzt.

    • Für Databricks (DBX)-Notebooks wird ein impliziter Import für sfutils automatisch hinzugefügt.

    • Das sfutils-Modul simuliert verschiedene dbutils-Methoden, einschließlich Dateisystemvorgänge (dutils.fs) über einen definierten Snowflake FileSystem (SFFS)-Stagingbereich und übernimmt die Ausführung des Notebooks (dutils.notebook.run), indem dieses in EXECUTE NOTEBOOK SQL-Funktionen umgewandelt wird.

    • dbutils.notebook.exit wird entfernt, da es in Snowflake nicht erforderlich ist.

Korrigiert

  • Aktualisierungen in SnowConvert-Berichte: SnowConvert-Berichte enthalten jetzt die Spalte CellId, wenn Instanzen vom SMA stammen und die Spalte FileName den vollständigen Pfad anzeigt.

  • Aktualisierte Artefakt-Abhängigkeit für SnowConvert-Berichte: Der Artefakt-Inventarbericht von SMA, der zuvor durch die Integration von SnowConvert beeinträchtigt wurde, wurde wiederhergestellt. Diese Aktualisierung aktiviert das SMA-Tool zur genauen Erfassung und Analyse von Object References und Missing Object References direkt aus SnowConvert-Berichten, um sicherzustellen, dass die SQL-Abhängigkeiten für das Inventar korrekt abgerufen werden.

Version 2.7.4 (26. Juni 2025)

Anwendung und CLI Version 2.7.4

Desktop-App

Hinzugefügt

  • Verbesserungen für die Telemetrie wurden hinzugefügt.

Korrigiert

  • Korrektur der Dokumentationslinks im Popup-Fenster für Konvertierungseinstellungen und in Pandas EWIs.

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.16

Hinzugefügt

  • Transformieren von Spark XML in Snowpark

  • Databricks SQL-Option in der SQL-Quellsprache

  • Transformieren von JDBC-Leseverbindungen.

Geändert

  • Alle SnowConvert-Berichte werden in die Backup-ZIP-Datei kopiert.

  • Der Ordner wird von SqlReports in SnowConvertReports umbenannt.

  • SqlFunctionsInventory wird in den Ordner Berichte verschoben.

  • Alle SnowConvert-Berichte werden an die Telemetrie gesendet.

Korrigiert

  • Nicht deterministisches Problem mit SQL-Bereitschaftsbewertung.

  • Das Problem mit falsch-positivem kritischen Ergebnis wurde behoben, das den Desktop zum Absturz brachte.

  • Das Problem wurde behoben, durch das im Abhängigkeitsbericht für Artefakte die SQL-Objekte nicht angezeigt wurden.

Version 2.7.2 (10. Juni 2025)

Anwendung und CLI Version 2.7.2

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.2

Korrigiert

  • Das Problem mit der SMA-Ausführung unter dem neuesten Windows OS wurde behoben, wie bereits berichtet. Mit dieser Maßnahme werden die in Version 2.7.1 aufgetretenen Probleme behoben.

Version 2.7.1 (9. Juni 2025)

Anwendung und CLI Version 2.7.1

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 8.0.1

Hinzugefügt

Der Snowpark Migration Accelerator (SMA) orchestriert nun SnowConvert, um die in Benutzer-Workloads gefundene SQL zu verarbeiten, einschließlich eingebetteter SQL in Python- bzw. Scala-Code, Notebook SQL-Zellen, .sql-Dateien und .hql-Dateien.

SnowConvert verbessert nun die vorherigen SMA-Fähigkeiten:

Ein neuer Ordner in den Berichten mit dem Namen SQL Berichte enthält die von SnowConvert generierten Berichte.

Bekannte Probleme

Die vorherige SMA-Version für SQL-Berichte wird in folgenden Fällen leer angezeigt:

  • Für Berichte/SqlElementsInventory.csv, teilweise durch Berichte/SqlReports/Elements.yyyymmdd.hhmmss.csv. abgedeckt

  • Für Berichte/SqlFunctionsInventory.csv siehe den neuen Speicherort mit demselben Namen unter Berichte/SqlReports/SqlFunctionsInventory.csv

Das Inventar der Artefakt-Abhängigkeiten:

  • Im ArtifactDependencyInventory wird die Spalte für das SQL-Objekt leer angezeigt

Version 2.6.10 (5. Mai 2025)

Anwendung und CLI Version 2.6.10

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 7.4.0

Korrigiert

  • Das Problem mit falschen Werten in der Datei „checkpoints.json“ wurde behoben.

    • Der Wert „sample“ war ohne Dezimalstellen (bei ganzzahligen Werten) und Anführungszeichen.

    • Der Wert „entrypoint“ enthielt Punkte anstelle von Schrägstrichen, und es fehlte die Dateierweiterung.

  • Der Standardwert wurde in TRUE für die Einstellung „DBX-Notebooks in Snowflake-Notebooks konvertieren“ geändert

Version 2.6.8 (28. April 2025)

Anwendung und CLI Version 2.6.8

Desktop-App

  • Mechanismus zur Erkennung von Checkpoints und Ausführungseinstellungen hinzugefügt.

  • Mechanismus zum Sammeln von DBX-Magic-Befehlen in DbxElementsInventory.csv hinzugefügt

  • Die Generierung von „checkpoints.json“ wurde zum Eingabeverzeichnis hinzugefügt.

  • Eine neue EWI wurde für alle nicht unterstützten Magic-Befehle hinzugefügt.

  • Die Sammlung von dbutils wurde zu DbxElementsInventory.csv von Scala-Quell-Notebooks hinzugefügt

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 7.2.53

Geändert

  • Aktualisierungen zur Verarbeitung von Transformationen von DBX Scala-Elementen zu Jupyter Python-Elementen und zum Kommentieren des gesamten Codes der Zelle.

  • Aktualisierungen zur Verarbeitung von Transformationen aus den Befehlen dutils.notebook.run und „r“; für den letzten Befehl auch den gesamten Code der Zelle auskommentieren.

  • Name und Buchstabe des Schlüssels wurden aktualisiert, um die Konvertierung der Notebook-Dateien zu ermöglichen.

Korrigiert

  • Es wurde ein Fehler behoben, der bei der Transformation von DBX-Notebooks in .ipynb-Dateien dazu führte, dass das falsche Format vorhanden war.

  • Es wurde ein Fehler behoben, der dazu führte, dass .py DBX-Notebooks nicht in .ipynb-Dateien umgewandelt werden konnten.

  • Es wurde ein Fehler behoben, der dazu führte, dass Kommentare im Ausgabecode von DBX-Notebooks fehlten.

  • Es wurde ein Fehler behoben, der dazu führte, dass Scala-Rohdateien in ipynb-Dateien konvertiert wurden.

Version 2.6.7 (21. April 2025)

Anwendung und CLI Version 2.6.7

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 7.2.42

Geändert

DataFramesInventory wurde zum Füllen der Spalte EntryPoints aktualisiert

Version 2.6.6 (7. April 2025)

Anwendung und CLI Version 2.6.6

Desktop-App

Hinzugefügt

  • Aktualisierung von DBx EWI-Link in der UI-Ergebnisseite

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 7.2.39

Hinzugefügt

  • Generierung des Inventars für Ausführungsablauf hinzugefügt.

  • Implizites Sitzungs-Setup zu jeder DBx-Notebook-Transformation hinzugefügt

Geändert

  • DbUtilsUsagesInventory.csv wurde in DbxElementsInventory.csv umbenannt

Korrigiert

  • Es wurde ein Fehler behoben, der einen Fehler beim Parsen verursachte, wenn nach einem Typhinweis ein Backslash folgte.

  • Korrektur von relativen Importen, die nicht mit einem Punkt beginnen, und relativen Importen mit einem Stern.

Version 2.6.5 (27. März 2025)

Anwendung und CLI Version 2.6.5

Desktop-App

Hinzugefügt

  • Ein neuer Umschalter für Konvertierungseinstellungen wurde hinzugefügt, um das Sma-Checkpoints-Feature zu aktivieren oder zu deaktivieren.

  • Es wurde ein Berichtsfehler behoben, damit kein Absturz erfolgt, wenn die Post-API 500 zurückgibt

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 7.2.26

Hinzugefügt

  • Die Generierung der Datei „checkpoints.json“ im Ausgabeordner wurde auf der Grundlage von DataFramesInventory.csv hinzugefügt.

  • Flag „disableCheckpoints“ wurde zu CLI-Befehlen und zusätzlichen Parametern des Codeprozessors hinzugefügt.

  • Eine neue Ersetzung für Python wurde hinzugefügt, um den Knoten „dbutils.notebook.run“ zu transformieren.

  • Neue Ersetzungen wurden hinzugefügt, um den magischen Befehl %run umzuwandeln.

  • Neue Ersetzungen (Python und Scala) wurden hinzugefügt, um den Knoten „dbutils.notebook.exit“ zu entfernen.

  • Die Spalte „Speicherort“ wurde zum Inventar der Artefakte hinzugefügt.

Geändert

  • Das in einigen Teilen der Lösung verwendete normalisierte Trennzeichen für Verzeichnisse wurde überarbeitet.

  • Zentralisiert die Handhabung von Namen des DBC-Extraktionsarbeitsordners

  • Version von Snowpark und Pandas auf v1.27.0 aktualisiert

  • Inventarspalten für Artefakte wurden aktualisiert auf:

    • Name > Abhängigkeit

    • Datei -> FileId

    • Status > Status_detail

  • Eine neue Spalte zum Inventar von Artefakten wurde hinzugefügt:

    • Erfolg

Korrigiert

  • Datenframes-Inventar wurde nicht korrekt in den Stagingbereich hochgeladen.

Version 2.6.4 (12. März 2025)

Anwendung und CLI Version 2.6.4

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 7.2.0

wurde hinzugefügt

  • Ein Inventar der Artefaktabhängigkeiten

  • Eine Ersetzung und EWI für pyspark.sql.types.StructType.fieldNames-Methode für snowflake.snowpark.types.StructType.fieldNames-Attribut.

  • Die folgenden PySpark-Funktionen mit dem Status:

Direct Status
  • pyspark.sql.functions.bitmap_bit_position

  • pyspark.sql.functions.bitmap_bucket_number

  • pyspark.sql.functions.bitmap_construct_agg

  • pyspark.sql.functions.equal_null

  • pyspark.sql.functions.ifnull

  • pyspark.sql.functions.localtimestamp

  • pyspark.sql.functions.max_by

  • pyspark.sql.functions.min_by

  • pyspark.sql.functions.nvl

  • pyspark.sql.functions.regr_avgx

  • pyspark.sql.functions.regr_avgy

  • pyspark.sql.functions.regr_count

  • pyspark.sql.functions.regr_intercept

  • pyspark.sql.functions.regr_slope

  • pyspark.sql.functions.regr_sxx

  • pyspark.sql.functions.regr_sxy

  • pyspark.sql.functions.regr

NotSupported

  • pyspark.sql.functions.map_contains_key

  • pyspark.sql.functions.position

  • pyspark.sql.functions.regr_r2

  • pyspark.sql.functions.try_to_binary

Die folgenden Pandas-Funktionen mit Status

  • pandas.core.series.Series.str.ljust

  • pandas.core.series.Series.str.center

  • pandas.core.series.Series.str.pad

  • pandas.core.series.Series.str.rjust

Aktualisieren Sie die folgenden Pyspark-Funktionen mit dem Status

Von WorkAround zu „Direkt“

  • pyspark.sql.functions.acosh

  • pyspark.sql.functions.asinh

  • pyspark.sql.functions.atanh

  • pyspark.sql.functions.instr

  • pyspark.sql.functions.log10

  • pyspark.sql.functions.log1p

  • pyspark.sql.functions.log2

Von NotSupported zu „Direkt“

  • pyspark.sql.functions.bit_length

  • pyspark.sql.functions.cbrt

  • pyspark.sql.functions.nth_value

  • pyspark.sql.functions.octet_length

  • pyspark.sql.functions.base64

  • pyspark.sql.functions.unbase64

Die folgenden Pandas-Funktionen wurden mit dem Status aktualisiert

Von NotSupported zu „Direkt“

  • pandas.core.frame.DataFrame.pop

  • pandas.core.series.Series.between

  • pandas.core.series.Series.pop

Version 2.6.3 (6. März 2025)

Anwendung und CLI Version 2.6.3

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 7.1.13

wurde hinzugefügt

  • Die CSV-Generator-Klasse für neue Inventarerstellung wurde hinzugefügt.

  • Die Spalte „full_name“ zum Importieren des Nutzungsinventars wurde hinzugefügt.

  • Die Transformation von „pyspark.sql.functions.concat_ws“ zu „snowflake.snowpark.functions._concat_ws_ignore_nulls“ wurde hinzugefügt.

  • Die Logik zur Generierung von „checkpoints.json“ wurde hinzugefügt.

  • Inventare wurden hinzugefügt:

    • DataFramesInventory.csv.

    • CheckpointsInventory.csv

Version 2.6.0 (21. Februar 2025)

Anwendung und CLI Version 2.6.0

Desktop-App

  • Die Lizenzvereinbarung wurde aktualisiert, Akzeptanz ist erforderlich.

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 7.1.2

Hinzugefügt

Updated the mapping status for the following PySpark elements, from NotSupported to Direct
  • pyspark.sql.types.ArrayType.json

  • pyspark.sql.types.ArrayType.jsonValue

  • pyspark.sql.types.ArrayType.simpleString

  • pyspark.sql.types.ArrayType.typeName

  • pyspark.sql.types.AtomicType.json

  • pyspark.sql.types.AtomicType.jsonValue

  • pyspark.sql.types.AtomicType.simpleString

  • pyspark.sql.types.AtomicType.typeName

  • pyspark.sql.types.BinaryType.json

  • pyspark.sql.types.BinaryType.jsonValue

  • pyspark.sql.types.BinaryType.simpleString

  • pyspark.sql.types.BinaryType.typeName

  • pyspark.sql.types.BooleanType.json

  • pyspark.sql.types.BooleanType.jsonValue

  • pyspark.sql.types.BooleanType.simpleString

  • pyspark.sql.types.BooleanType.typeName

  • pyspark.sql.types.ByteType.json

  • pyspark.sql.types.ByteType.jsonValue

  • pyspark.sql.types.ByteType.simpleString

  • pyspark.sql.types.ByteType.typeName

  • pyspark.sql.types.DecimalType.json

  • pyspark.sql.types.DecimalType.jsonValue

  • pyspark.sql.types.DecimalType.simpleString

  • pyspark.sql.types.DecimalType.typeName

  • pyspark.sql.types.DoubleType.json

  • pyspark.sql.types.DoubleType.jsonValue

  • pyspark.sql.types.DoubleType.simpleString

  • pyspark.sql.types.DoubleType.typeName

  • pyspark.sql.types.FloatType.json

  • pyspark.sql.types.FloatType.jsonValue

  • pyspark.sql.types.FloatType.simpleString

  • pyspark.sql.types.FloatType.typeName

  • pyspark.sql.types.FractionalType.json

  • pyspark.sql.types.FractionalType.jsonValue

  • pyspark.sql.types.FractionalType.simpleString

  • pyspark.sql.types.FractionalType.typeName

  • pyspark.sql.types.IntegerType.json

  • pyspark.sql.types.IntegerType.jsonValue

  • pyspark.sql.types.IntegerType.simpleString

  • pyspark.sql.types.IntegerType.typeName

  • pyspark.sql.types.IntegralType.json

  • pyspark.sql.types.IntegralType.jsonValue

  • pyspark.sql.types.IntegralType.simpleString

  • pyspark.sql.types.IntegralType.typeName

  • pyspark.sql.types.LongType.json

  • pyspark.sql.types.LongType.jsonValue

  • pyspark.sql.types.LongType.simpleString

  • pyspark.sql.types.LongType.typeName

  • pyspark.sql.types.MapType.json

  • pyspark.sql.types.MapType.jsonValue

  • pyspark.sql.types.MapType.simpleString

  • pyspark.sql.types.MapType.typeName

  • pyspark.sql.types.NullType.json

  • pyspark.sql.types.NullType.jsonValue

  • pyspark.sql.types.NullType.simpleString

  • pyspark.sql.types.NullType.typeName

  • pyspark.sql.types.NumericType.json

  • pyspark.sql.types.NumericType.jsonValue

  • pyspark.sql.types.NumericType.simpleString

  • pyspark.sql.types.NumericType.typeName

  • pyspark.sql.types.ShortType.json

  • pyspark.sql.types.ShortType.jsonValue

  • pyspark.sql.types.ShortType.simpleString

  • pyspark.sql.types.ShortType.typeName

  • pyspark.sql.types.StringType.json

  • pyspark.sql.types.StringType.jsonValue

  • pyspark.sql.types.StringType.simpleString

  • pyspark.sql.types.StringType.typeName

  • pyspark.sql.types.StructType.json

  • pyspark.sql.types.StructType.jsonValue

  • pyspark.sql.types.StructType.simpleString

  • pyspark.sql.types.StructType.typeName

  • pyspark.sql.types.TimestampType.json

  • pyspark.sql.types.TimestampType.jsonValue

  • pyspark.sql.types.TimestampType.simpleString

  • pyspark.sql.types.TimestampType.typeName

  • pyspark.sql.types.StructField.simpleString

  • pyspark.sql.types.StructField.typeName

  • pyspark.sql.types.StructField.json

  • pyspark.sql.types.StructField.jsonValue

  • pyspark.sql.types.DataType.json

  • pyspark.sql.types.DataType.jsonValue

  • pyspark.sql.types.DataType.simpleString

  • pyspark.sql.types.DataType.typeName

  • pyspark.sql.session.SparkSession.getActiveSession

  • pyspark.sql.session.SparkSession.version

  • pandas.io.html.read_html

  • pandas.io.json._normalize.json_normalize

  • pyspark.sql.types.ArrayType.fromJson

  • pyspark.sql.types.MapType.fromJson

  • pyspark.sql.types.StructField.fromJson

  • pyspark.sql.types.StructType.fromJson

  • pandas.core.groupby.generic.DataFrameGroupBy.pct_change

  • pandas.core.groupby.generic.SeriesGroupBy.pct_change

Der Zuordnungsstatus für die folgenden Pandas-Elemente wurde von NotSupported auf Direkt aktualisiert

  • pandas.io.html.read_html

  • pandas.io.json._normalize.json_normalize

  • pandas.core.groupby.generic.DataFrameGroupBy.pct_change

  • pandas.core.groupby.generic.SeriesGroupBy.pct_change

Der Zuordnungsstatus für die folgenden PySpark-Elemente wurde von Umbenennen auf Direkt aktualisiert

  • pyspark.sql.functions.collect_list

  • pyspark.sql.functions.size

wurde behoben

  • Das Format der Versionsnummer in den Inventaren wurde vereinheitlicht.

Version 2.5.2 (5. Februar 2025)

Hotfix: Anwendung & CLI Version 2.5.2

Desktop-App

  • Ein Problem bei der Konvertierung in der Beispielprojektoption wurde behoben.

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 5.3.0

Version 2.5.1 (4. Februar 2025)

Anwendung & CLI Version 2.5.1

Desktop-App

  • Es wurde ein neues Modal hinzugefügt, wenn der Benutzer keine Schreibberechtigung hat.

  • Die Lizenzvereinbarung wurde aktualisiert, die Zustimmung ist erforderlich.

CLI

  • Die Jahreszahl auf dem CLI-Bildschirm bei der Anzeige von „–version“ oder „-v“ wurde korrigiert

Enthaltene SMA Core-Versionen included-sma-core-versions

  • Snowpark Conversion Core 5.3.0

Hinzugefügt

Added the following Python Third-Party libraries with Direct status:
  • about-time

  • affinegap

  • aiohappyeyeballs

  • alibi-detect

  • alive-progress

  • allure-nose2

  • allure-robotframework

  • anaconda-cloud-cli

  • anaconda-mirror

  • astropy-iers-data

  • asynch

  • asyncssh

  • autots

  • autoviml

  • aws-msk-iam-sasl-signer-python

  • azure-functions

  • backports.tarfile

  • blas

  • bottle

  • bson

  • cairo

  • capnproto

  • captum

  • categorical-distance

  • census

  • clickhouse-driver

  • clustergram

  • cma

  • conda-anaconda-telemetrie

  • configspace

  • cpp-expected

  • dask-expr

  • data-science-utils

  • databricks-sdk

  • datetime-distance

  • db-dtypes

  • dedupe

  • dedupe-variable-datetime

  • dedupe_lehvenshtein_search

  • dedupe_levenshtein_search

  • diff-cover

  • diptest

  • dmglib

  • docstring_parser

  • doppelmetaphon

  • dspy-ai

  • econml

  • emcee

  • emoji

  • environs

  • eth-abi

  • eth-hash

  • eth-typing

  • eth-utils

  • expat

  • filetype

  • fitter

  • flask-cors

  • fpdf2

  • frozendict

  • gcab

  • geojson

  • gettext

  • glib-tools

  • google-ads

  • google-ai-generativelanguage

  • google-api-python-client

  • google-auth-httplib2

  • google-cloud-bigquery

  • google-cloud-bigquery-core

  • google-cloud-bigquery-storage

  • google-cloud-bigquery-storage-core

  • google-cloud-ressourcen-manager

  • google-generativeai

  • googlemaps

  • grapheme

  • graphene

  • graphql-relay

  • gravis

  • greykite

  • grpc-google-iam-v1

  • harfbuzz

  • hatch-fancy-pypi-readme

  • haversine

  • hiclass

  • hicolor-icon-theme

  • highered

  • hmmlearn

  • holidays-ext

  • httplib2

  • icu

  • imbalanced-ensemble

  • immutabledict

  • importlib-metadata

  • importlib-resources

  • inquirerpy

  • iterative-telemetry

  • jaraco.context

  • jaraco.test

  • jiter

  • jiwer

  • joserfc

  • jsoncpp

  • jsonpath

  • jsonpath-ng

  • jsonpath-python

  • kagglehub

  • keplergl

  • kt-legacy

  • langchain-community

  • langchain-experimental

  • langchain-snowflake

  • langchain-text-splitters

  • libabseil

  • libflac

  • libgfortran-ng

  • libgfortran5

  • libglib

  • libgomp

  • libgrpc

  • libgsf

  • libmagic

  • libogg

  • libopenblas

  • libpostal

  • libprotobuf

  • libsentencepiece

  • libsndfile

  • libstdcxx-ng

  • libtheora

  • libtiff

  • libvorbis

  • libwebp

  • leichtgewicht-mmm

  • litestar

  • litestar-with-annotated-types

  • litestar-with-attrs

  • litestar-with-cryptography

  • litestar-with-jinja

  • litestar-with-jwt

  • litestar-with-prometheus

  • litestar-with-structlog

  • lunarcalendar-ext

  • matplotlib-venn

  • metricks

  • mimesis

  • modin-ray

  • momepy

  • mpg123

  • msgspec

  • msgspec-toml

  • msgspec-yaml

  • msitools

  • multipart

  • namex

  • nbconvert-all

  • nbconvert-core

  • nbconvert-pandoc

  • nlohmann_json

  • numba-cuda

  • numpyro

  • office365-rest-python-client

  • openapi-pydantic

  • opentelemetry-distro

  • opentelemetry-instrumentation

  • opentelemetry-instrumentation-system-metrics

  • optree

  • osmnx

  • pathlib

  • pdf2image

  • pfzy

  • pgpy

  • plumbum

  • pm4py

  • polars

  • polyfactory

  • poppler-cpp

  • postal

  • pre-commit

  • prompt-toolkit

  • propcache

  • py-partiql-parser

  • py_stringmatching

  • pyatlan

  • pyfakefs

  • pyfhel

  • pyhacrf-datamade

  • pyiceberg

  • pykrb5

  • pylbfgs

  • pymilvus

  • pymoo

  • pynisher

  • pyomo

  • pypdf

  • pypdf-with-crypto

  • pypdf-with-full

  • pypdf-with-image

  • pypng

  • pyprind

  • pyrfr

  • pysoundfile

  • pytest-codspeed

  • pytest-trio

  • python-barcode

  • python-box

  • python-docx

  • python-gssapi

  • python-iso639

  • python-magic

  • python-pandoc

  • python-zstd

  • pyuca

  • pyvinecopulib

  • pyxirr

  • qrcode

  • rai-sdk

  • ray-client

  • ray-observability

  • readline

  • rich-click

  • rouge-score

  • ruff

  • scikit-criteria

  • scikit-mobility

  • sentencepiece-python

  • sentencepiece-spm

  • setuptools-markdown

  • setuptools-scm

  • setuptools-scm-git-archive

  • shareplum

  • simdjson

  • simplecosine

  • sis-extras

  • slack-sdk

  • smac

  • snowflake-sqlalchemy

  • snowflake_legacy

  • socrata-py

  • spdlog

  • sphinxcontrib-images

  • sphinxcontrib-jquery

  • sphinxcontrib-youtube

  • splunk-opentelemetry

  • sqlfluff

  • squarify

  • st-theme

  • statistics

  • streamlit-antd-components

  • streamlit-condition-tree

  • streamlit-echarts

  • streamlit-feedback

  • streamlit-keplergl

  • streamlit-mermaid

  • streamlit-navigation-bar

  • streamlit-option-menu

  • strictyaml

  • stringdist

  • sybil

  • tensorflow-cpu

  • tensorflow-text

  • tiledb-ptorchaudio

  • torcheval

  • trio-websocket

  • trulens-connectors-snowflake

  • trulens-core

  • trulens-dashboard

  • trulens-feedback

  • trulens-otel-semconv

  • trulens-providers-cortex

  • tsdownsample

  • typing

  • typing-extensions

  • typing_extensions

  • unittest-xml-reporting

  • uritemplate

  • us

  • uuid6

  • wfdb

  • wsproto

  • zlib

  • zope.index

Added the following Python BuiltIn libraries with Direct status:
  • aifc

  • Array

  • ast

  • asynchat

  • asyncio

  • asyncore

  • atexit

  • audioop

  • base64

  • bdb

  • binascii

  • bitsect

  • builtins

  • bz2

  • calendar

  • cgi

  • cgitb

  • chunk

  • cmath

  • cmd

  • code

  • codecs

  • codeop

  • colorsys

  • compileall

  • concurrent

  • contextlib

  • contextvars

  • copy

  • copyreg

  • cprofile

  • crypt

  • csv

  • ctypes

  • curses

  • dbm

  • difflib

  • dis

  • distutils

  • doctest

  • email

  • ensurepip

  • enum

  • errno

  • faulthandler

  • fcntl

  • filecmp

  • fileinput

  • fnmatch

  • fractions

  • ftplib

  • functools

  • gc

  • getopt

  • getpass

  • gettext

  • graphlib

  • grp

  • gzip

  • hashlib

  • heapq

  • hmac

  • html

  • http

  • idlelib

  • imaplib

  • imghdr

  • imp

  • importlib

  • inspect

  • ipaddress

  • itertools

  • keyword

  • linecache

  • locale

  • lzma

  • mailbox

  • mailcap

  • marshal

  • math

  • mimetypes

  • mmap

  • modulefinder

  • msilib

  • multiprocessing

  • netrc

  • nis

  • nntplib

  • numbers

  • operator

  • optparse

  • ossaudiodev

  • pdb

  • pickle

  • pickletools

  • pipes

  • pkgutil

  • platform

  • plistlib

  • poplib

  • posix

  • pprint

  • profile

  • pstats

  • pty

  • pwd

  • py_compile

  • pyclbr

  • pydoc

  • queue

  • quopri

  • random

  • re

  • reprlib

  • ressource

  • rlcompleter

  • runpy

  • sched

  • Geheimnisse

  • select

  • selectors

  • shelve

  • shlex

  • signal

  • site

  • sitecustomize

  • smtpd

  • smtplib

  • sndhdr

  • socket

  • socketserver

  • spwd

  • sqlite3

  • ssl

  • stat

  • string

  • stringprep

  • struct

  • subprocess

  • sunau

  • symtable

  • sysconfig

  • syslog

  • tabnanny

  • tarfile

  • telnetlib

  • tempfile

  • termios

  • test

  • textwrap

  • threading

  • timeit

  • tkinter

  • Token

  • tokenize

  • tomllib

  • trace

  • traceback

  • tracemalloc

  • tty

  • turtle

  • turtledemo

  • types

  • unicodedata

  • urllib

  • uu

  • uuid

  • venv

  • warnings

  • wave

  • weakref

  • webbrowser

  • wsgiref

  • xdrlib

  • xml

  • xmlrpc

  • zipapp

  • zipfile

  • zipimport

  • zoneinfo

Added the following Python BuiltIn libraries with NotSupported status:
  • msvcrt

  • winreg

  • winsound

Geändert

  • Aktualisieren Sie .NET auf Version v9.0.0.

  • Verbessert EWI SPRKPY1068.

  • Die von SMA unterstützte Version von Snowpark Python API wurde von 1.24.0 auf 1.25.0 erhöht.

  • Die detaillierte Berichtsvorlage wurde aktualisiert und enthält jetzt die Snowpark-Version für Pandas.

  • Die folgenden Bibliotheken wurden von ThirdPartyLib auf BuiltIn geändert.

    • configparser

    • dataclasses

    • pathlib

    • readline

    • statistics

    • zlib

Updated the mapping status for the following Pandas elements, from Direct to Partial:
  • pandas.core.frame.DataFrame.add

  • pandas.core.frame.DataFrame.aggregate

  • pandas.core.frame.DataFrame.all

  • pandas.core.frame.DataFrame.apply

  • pandas.core.frame.DataFrame.astype

  • pandas.core.frame.DataFrame.cumsum

  • pandas.core.frame.DataFrame.div

  • pandas.core.frame.DataFrame.dropna

  • pandas.core.frame.DataFrame.eq

  • pandas.core.frame.DataFrame.ffill

  • pandas.core.frame.DataFrame.fillna

  • pandas.core.frame.DataFrame.floordiv

  • pandas.core.frame.DataFrame.ge

  • pandas.core.frame.DataFrame.groupby

  • pandas.core.frame.DataFrame.gt

  • pandas.core.frame.DataFrame.idxmax

  • pandas.core.frame.DataFrame.idxmin

  • pandas.core.frame.DataFrame.inf

  • pandas.core.frame.DataFrame.join

  • pandas.core.frame.DataFrame.le

  • pandas.core.frame.DataFrame.loc

  • pandas.core.frame.DataFrame.lt

  • pandas.core.frame.DataFrame.mask

  • pandas.core.frame.DataFrame.merge

  • pandas.core.frame.DataFrame.mod

  • pandas.core.frame.DataFrame.mul

  • pandas.core.frame.DataFrame.ne

  • pandas.core.frame.DataFrame.nunique

  • pandas.core.frame.DataFrame.pivot_table

  • pandas.core.frame.DataFrame.pow

  • pandas.core.frame.DataFrame.radd

  • pandas.core.frame.DataFrame.rank

  • pandas.core.frame.DataFrame.rdiv

  • pandas.core.frame.DataFrame.rename

  • pandas.core.frame.DataFrame.replace

  • pandas.core.frame.DataFrame.resample

  • pandas.core.frame.DataFrame.rfloordiv

  • pandas.core.frame.DataFrame.rmod

  • pandas.core.frame.DataFrame.rmul

  • pandas.core.frame.DataFrame.rolling

  • pandas.core.frame.DataFrame.round

  • pandas.core.frame.DataFrame.rpow

  • pandas.core.frame.DataFrame.rsub

  • pandas.core.frame.DataFrame.rtruediv

  • pandas.core.frame.DataFrame.shift

  • pandas.core.frame.DataFrame.skew

  • pandas.core.frame.DataFrame.sort_index

  • pandas.core.frame.DataFrame.sort_values

  • pandas.core.frame.DataFrame.sub

  • pandas.core.frame.DataFrame.to_dict

  • pandas.core.frame.DataFrame.transform

  • pandas.core.frame.DataFrame.transpose

  • pandas.core.frame.DataFrame.truediv

  • pandas.core.frame.DataFrame.var

  • pandas.core.indexes.datetimes.date_range

  • pandas.core.reshape.concat.concat

  • pandas.core.reshape.melt.melt

  • pandas.core.reshape.merge.merge

  • pandas.core.reshape.pivot.pivot_table

  • pandas.core.reshape.tile.cut

  • pandas.core.series.Series.add

  • pandas.core.series.Series.aggregate

  • pandas.core.series.Series.all

  • pandas.core.series.Series.any

  • pandas.core.series.Series.cumsum

  • pandas.core.series.Series.div

  • pandas.core.series.Series.dropna

  • pandas.core.series.Series.eq

  • pandas.core.series.Series.ffill

  • pandas.core.series.Series.fillna

  • pandas.core.series.Series.floordiv

  • pandas.core.series.Series.ge

  • pandas.core.series.Series.gt

  • pandas.core.series.series.lt

  • pandas.core.series.Series.mask

  • pandas.core.series.Series.mod

  • pandas.core.series.Series.mul

  • pandas.core.series.Series.multiply

  • pandas.core.series.Series.ne

  • pandas.core.series.Series.pow

  • pandas.core.series.Series.quantile

  • pandas.core.series.Series.radd

  • pandas.core.series.Series.rank

  • pandas.core.series.Series.rdiv

  • pandas.core.series.Series.rename

  • pandas.core.series.Series.replace

  • pandas.core.series.Series.resample

  • pandas.core.series.Series.rfloordiv

  • pandas.core.series.Series.rmod

  • pandas.core.series.Series.rmul

  • pandas.core.series.Series.rolling

  • pandas.core.series.Series.rpow

  • pandas.core.series.Series.rsub

  • pandas.core.series.Series.rtruediv

  • pandas.core.series.Series.sample

  • pandas.core.series.Series.shift

  • pandas.core.series.Series.skew

  • pandas.core.series.Series.sort_index

  • pandas.core.series.Series.sort_values

  • pandas.core.series.Series.std

  • pandas.core.series.Series.sub

  • pandas.core.series.Series.subtract

  • pandas.core.series.Series.truediv

  • pandas.core.series.Series.value_counts

  • pandas.core.series.Series.var

  • pandas.core.series.Series.where

  • pandas.core.tools.numeric.to_numeric

Updated the mapping status for the following Pandas elements, from NotSupported to Direct:
  • pandas.core.frame.DataFrame.attrs

  • pandas.core.indexes.base.Index.to_numpy

  • pandas.core.series.Series.str.len

  • pandas.io.html.read_html

  • pandas.io.xml.read_xml

  • pandas.core.indexes.datetimes.DatetimeIndex.mean

  • pandas.core.resample.Resampler.indices

  • pandas.core.resample.Resampler.nunique

  • pandas.core.series.Series.items

  • pandas.core.tools.datetimes.to_datetime

  • pandas.io.sas.sasreader.read_sas

  • pandas.core.frame.DataFrame.attrs

  • pandas.core.frame.DataFrame.style

  • pandas.core.frame.DataFrame.items

  • pandas.core.groupby.generic.DataFrameGroupBy.head

  • pandas.core.groupby.generic.DataFrameGroupBy.median

  • pandas.core.groupby.generic.DataFrameGroupBy.min

  • pandas.core.groupby.generic.DataFrameGroupBy.nunique

  • pandas.core.groupby.generic.DataFrameGroupBy.tail

  • pandas.core.indexes.base.Index.is_boolean

  • pandas.core.indexes.base.Index.is_floating

  • pandas.core.indexes.base.Index.is_integer

  • pandas.core.indexes.base.Index.is_monotonic_decreasing

  • pandas.core.indexes.base.Index.is_monotonic_increasing

  • pandas.core.indexes.base.Index.is_numeric

  • pandas.core.indexes.base.Index.is_object

  • pandas.core.indexes.base.Index.max

  • pandas.core.indexes.base.Index.min

  • pandas.core.indexes.base.Index.name

  • pandas.core.indexes.base.Index.names

  • pandas.core.indexes.base.Index.rename

  • pandas.core.indexes.base.Index.set_names

  • pandas.core.indexes.datetimes.DatetimeIndex.day_name

  • pandas.core.indexes.datetimes.DatetimeIndex.month_name

  • pandas.core.indexes.datetimes.DatetimeIndex.time

  • pandas.core.indexes.timedeltas.TimedeltaIndex.ceil

  • pandas.core.indexes.timedeltas.TimedeltaIndex.days

  • pandas.core.indexes.timedeltas.TimedeltaIndex.floor

  • pandas.core.indexes.timedeltas.TimedeltaIndex.microseconds

  • pandas.core.indexes.timedeltas.TimedeltaIndex.nanoseconds

  • pandas.core.indexes.timedeltas.TimedeltaIndex.round

  • pandas.core.indexes.timedeltas.TimedeltaIndex.seconds

  • pandas.core.reshape.pivot.crosstab

  • pandas.core.series.Series.dt.round

  • pandas.core.series.Series.dt.time

  • pandas.core.series.Series.dt.weekday

  • pandas.core.series.Series.is_monotonic_decreasing

  • pandas.core.series.Series.is_monotonic_increasing

Updated the mapping status for the following Pandas elements, from NotSupported to Partial:
  • pandas.core.frame.DataFrame.align

  • pandas.core.series.Series.align

  • pandas.core.frame.DataFrame.tz_convert

  • pandas.core.frame.DataFrame.tz_localize

  • pandas.core.groupby.generic.DataFrameGroupBy.fillna

  • pandas.core.groupby.generic.SeriesGroupBy.fillna

  • pandas.core.indexes.datetimes.bdate_range

  • pandas.core.indexes.datetimes.DatetimeIndex.std

  • pandas.core.indexes.timedeltas.TimedeltaIndex.mean

  • pandas.core.resample.Resampler.asfreq

  • pandas.core.resample.Resampler.quantile

  • pandas.core.series.Series.map

  • pandas.core.series.Series.tz_convert

  • pandas.core.series.Series.tz_localize

  • pandas.core.window.expanding.Expanding.count

  • pandas.core.window.rolling.Rolling.count

  • pandas.core.groupby.generic.DataFrameGroupBy.aggregate

  • pandas.core.groupby.generic.SeriesGroupBy.aggregate

  • pandas.core.frame.DataFrame.applymap

  • pandas.core.series.Series.apply

  • pandas.core.groupby.generic.DataFrameGroupBy.bfill

  • pandas.core.groupby.generic.DataFrameGroupBy.ffill

  • pandas.core.groupby.generic.SeriesGroupBy.bfill

  • pandas.core.groupby.generic.SeriesGroupBy.ffill

  • pandas.core.frame.DataFrame.backfill

  • pandas.core.frame.DataFrame.bfill

  • pandas.core.frame.DataFrame.compare

  • pandas.core.frame.DataFrame.unstack

  • pandas.core.frame.DataFrame.asfreq

  • pandas.core.series.Series.backfill

  • pandas.core.series.Series.bfill

  • pandas.core.series.Series.compare

  • pandas.core.series.Series.unstack

  • pandas.core.series.Series.asfreq

  • pandas.core.series.Series.argmax

  • pandas.core.series.Series.argmin

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.microsecond

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.nanosecond

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.day_name

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.month_name

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.month_start

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.month_end

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_year_start

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_year_end

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_quarter_start

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_quarter_end

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.is_leap_year

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.floor

  • pandas.core.indexes.accessors.CombinedDatetimelikeProperties.ceil

  • pandas.core.groupby.generic.DataFrameGroupBy.idxmax

  • pandas.core.groupby.generic.DataFrameGroupBy.idxmin

  • pandas.core.groupby.generic.DataFrameGroupBy.std

  • pandas.core.indexes.timedeltas.TimedeltaIndex.mean

  • pandas.core.tools.timedeltas.to_timedelta

Bekanntes Problem

  • Diese Version enthält ein Problem bei der Konvertierung des Beispielprojekts, das in dieser Version nicht funktioniert. Es wird im nächsten Release behoben werden

Version 2.4.3 (9. Januar 2025)

Anwendung & CLI Version 2.4.3

Desktop-App

  • Link zur Fehlerbehebungsanleitung im Modalfenster für Absturzberichte hinzugefügt.

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 4.15.0

Hinzugefügt

  • Die folgenden PySpark-Elemente wurden der ConversionStatusPySpark.csv-Datei als NotSupportedhinzugefügt:

    • pyspark.sql.streaming.readwriter.DataStreamReader.table

    • pyspark.sql.streaming.readwriter.DataStreamReader.schema

    • pyspark.sql.streaming.readwriter.DataStreamReader.options

    • pyspark.sql.streaming.readwriter.DataStreamReader.option

    • pyspark.sql.streaming.readwriter.DataStreamReader.load

    • pyspark.sql.streaming.readwriter.DataStreamReader.format

    • pyspark.sql.streaming.query.StreamingQuery.awaitTermination

    • pyspark.sql.streaming.readwriter.DataStreamWriter.partitionBy

    • pyspark.sql.streaming.readwriter.DataStreamWriter.toTable

    • pyspark.sql.streaming.readwriter.DataStreamWriter.trigger

    • pyspark.sql.streaming.readwriter.DataStreamWriter.queryName

    • pyspark.sql.streaming.readwriter.DataStreamWriter.outputMode

    • pyspark.sql.streaming.readwriter.DataStreamWriter.format

    • pyspark.sql.streaming.readwriter.DataStreamWriter.option

    • pyspark.sql.streaming.readwriter.DataStreamWriter.foreachBatch

    • pyspark.sql.streaming.readwriter.DataStreamWriter.start

Geändert

  • Aktualisiertes Hive SQL EWIs-Format.

    • SPRKHVSQL1001

    • SPRKHVSQL1002

    • SPRKHVSQL1003

    • SPRKHVSQL1004

    • SPRKHVSQL1005

    • SPRKHVSQL1006

  • Aktualisiertes Spark SQL EWIs-Format.

    • SPRKSPSQL1001

    • SPRKSPSQL1002

    • SPRKSPSQL1003

    • SPRKSPSQL1004

    • SPRKSPSQL1005

    • SPRKSPSQL1006

Korrigiert

  • Es wurde ein Fehler korrigiert, der dazu geführt hat, dass einige PySpark-Elemente vom Tool nicht erkannt wurden.

  • Die Nichtübereinstimmung zwischen den in ThirdParty identifizierten Anrufen und der Anzahl der importierten ThirdParty Anrufe wurde korrigiert.

Version 2.4.2 (13. Dezember 2024)

Anwendung und CLI Version 2.4.2

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 4.14.0

Hinzugefügt added

  • Die folgenden Spark-Elemente wurden zu ConversionStatusPySpark.csv hinzugefügt:

    • pyspark.broadcast.Broadcast.value

    • pyspark.conf.SparkConf.getAll

    • pyspark.conf.SparkConf.setAll

    • pyspark.conf.SparkConf.setMaster

    • pyspark.context.SparkContext.addFile

    • pyspark.context.SparkContext.addPyFile

    • pyspark.context.SparkContext.binaryFiles

    • pyspark.context.SparkContext.setSystemProperty

    • pyspark.context.SparkContext.version

    • pyspark.files.SparkFiles

    • pyspark.files.SparkFiles.get

    • pyspark.rdd.RDD.count

    • pyspark.rdd.RDD.distinct

    • pyspark.rdd.RDD.reduceByKey

    • pyspark.rdd.RDD.saveAsTextFile

    • pyspark.rdd.RDD.take

    • pyspark.rdd.RDD.zipWithIndex

    • pyspark.sql.context.SQLContext.udf

    • pyspark.sql.types.StructType.simpleString

Geändert

  • Die Dokumentation der Pandas EWIs, PNDSPY1001, PNDSPY1002 und PNDSPY1003 SPRKSCL1137 wurde an ein standardisiertes Format angepasst, um Konsistenz und Klarheit für alle EWIs zu gewährleisten.

  • Die Dokumentation der folgenden Scala EWIs wurde aktualisiert: SPRKSCL1106 und SPRKSCL1107. Zu erfolgende Anpassung an ein standardisiertes Format, um Konsistenz und Klarheit in allen EWIs zu gewährleisten.

Korrigiert

  • Es wurde ein Fehler korrigiert, der dazu geführt hat, dass die Symbole von UserDefined im Inventar der Drittanbieter-Nutzungen angezeigt wurden.

Version 2.4.1 (4. Dezember 2024)

Anwendung und CLI Version 2.4.1

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 4.13.1

Befehlszeilenschnittstelle

Geändert

  • Zeitstempel für den Ausgabeordner hinzugefügt.

Snowpark Conversion Core 4.13.1

Hinzugefügt

  • Spalte ‚Ausgangssprache‘ zur Tabelle der Bibliothekszuordnungen hinzugefügt

  • Andere als neue Kategorie in der Pandas API-Zusammenfassung-Tabelle der DetailedReport.docx-Datei hinzugefügt

Geändert

  • Die Dokumentation für Python EWI SPRKPY1058 wurde aktualisiert.

  • Die Meldung für pandas EWI PNDSPY1002 wurde aktualisiert, um das relate pandas-Element anzuzeigen.

  • Die Art und Weise, wie wir die .csv-Berichte erstellt haben, wurde aktualisiert und wird nun nach einem zweiten Durchlauf überschrieben.

Korrigiert

  • Es wurde ein Fehler korrigiert, der dazu geführt hat, dass Notebook-Dateien in der Ausgabe nicht erzeugt wurden.

  • Der Ersetzer für die Methoden get und set von pyspark.sql.conf wurde korrigiert.RuntimeConfig, der Ersetzer entspricht nun den korrekten vollständigen Namen.

  • Fehlerhafte Version des Abfrage-Tags wurde korrigiert.

  • Als ThirdPartyLib gemeldete UserDefined-Pakete wurden korrigiert.

\

Version 2.3.1 (14. November 2024)

Anwendung und CLI Version 2.3.1

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 4.12.0

Desktop-App

Korrigiert

  • Korrektur von Problemen mit der Groß- und Kleinschreibung in –sql Optionen.

Entfernt

  • Entfernen Sie den Plattformnamen aus der show-ac-Meldung.

Snowpark Conversion Core 4.12.0

Hinzugefügt

  • Unterstützung für Snowpark Python 1.23.0 und 1.24.0 wurde hinzugefügt.

  • Eine neue EWI für die pyspark.sql.dataframe.DataFrame.writeTo-Funktion wurde hinzugefügt. Alle Verwendungen dieser Funktion verfügen nun über die EWI SPRKPY1087.

Geändert

  • Die Dokumentation der Scala EWIs wurde von SPRKSCL1137 auf SPRKSCL1156 aktualisiert, um ein standardisiertes Format zu erhalten, das Konsistenz und Klarheit für alle EWIs gewährleistet.

  • Die Dokumentation der Scala EWIs wurde von SPRKSCL1117 auf SPRKSCL1136 aktualisiert, um ein standardisiertes Format zu erhalten, das Konsistenz und Klarheit für alle EWIs gewährleistet.

  • Die Meldung, die für die folgende EWIs angezeigt wird, wurde aktualisiert:

    • SPRKPY1082

    • SPRKPY1083

  • Die Dokumentation der Scala EWIs wurde von SPRKSCL1100 auf SPRKSCL1105, von SPRKSCL1108 auf SPRKSCL1116; von SPRKSCL1157 auf SPRKSCL1175 aktualisiert, um ein standardisiertes Format zu erhalten, das Konsistenz und Klarheit in allen EWIs gewährleistet.

  • Der Zuordnungsstatus der folgenden PySpark-Elemente wurde von NotSupported auf Direkt mit EWI aktualisiert:

    • pyspark.sql.readwriter.DataFrameWriter.option => snowflake.snowpark.DataFrameWriter.option: Alle Verwendungen dieser Funktion verfügen nun über die EWI SPRKPY1088

    • pyspark.sql.readwriter.DataFrameWriter.options => snowflake.snowpark.DataFrameWriter.options: Alle Verwendungen dieser Funktion verfügen nun über die EWI SPRKPY1089

  • Der Zuordnungsstatus der folgenden PySpark-Elemente wurde von Workaround auf Umbenennen aktualisiert:

    • pyspark.sql.readwriter.DataFrameWriter.partitionBy => snowflake.snowpark.DataFrameWriter.partition_by

  • Aktualisierte EWI-Dokumentation: SPRKSCL1000, SPRKSCL1001, SPRKSCL1002, SPRKSCL1100, SPRKSCL1101, SPRKSCL1102, SPRKSCL1103, SPRKSCL1104, SPRKSCL1105.

Entfernt

  • Das pyspark.sql.dataframe.DataFrameStatFunctions.writeTo-Element wurde aus dem Konvertierungsstatus entfernt, dieses Element existiert nicht.

Veraltet

  • Die folgenden EWI-Codes sind veraltet:

    • SPRKPY1081

    • SPRKPY1084

Version 2.3.0 (30. Oktober 2024)

Anwendung & CLI Version 2.3.0

  • Snowpark Conversion Core 4.11.0

Snowpark Conversion Core 4.11.0

Hinzugefügt

  • Der Issues.csv-Datei wurde eine neue Spalte namens Url hinzugefügt, die auf die entsprechende EWI Dokumentation weiterleitet.

  • Neue EWIs für die folgenden Spark-Elemente wurden hinzugefügt:

    • [SPRKPY1082] pyspark.sql.readwriter.DataFrameReader.load

    • [SPRKPY1083] pyspark.sql.readwriter.DataFrameWriter.save

    • [SPRKPY1084] pyspark.sql.readwriter.DataFrameWriter.option

    • [SPRKPY1085] pyspark.ml.feature.VectorAssembler

    • [SPRKPY1086] pyspark.ml.linalg.VectorUDT

  • 38 neue Pandas-Elemente wurden hinzugefügt:

    • pandas.core.frame.DataFrame.select

    • andas.core.frame.DataFrame.str

    • pandas.core.frame.DataFrame.str.replace

    • pandas.core.frame.DataFrame.str.upper

    • pandas.core.frame.DataFrame.to_list

    • pandas.core.frame.DataFrame.tolist

    • pandas.core.frame.DataFrame.unique

    • pandas.core.frame.DataFrame.values.tolist

    • pandas.core.frame.DataFrame.withColumn

    • pandas.core.groupby.generic._SeriesGroupByScalar

    • pandas.core.groupby.generic._SeriesGroupByScalar[S1].agg

    • pandas.core.groupby.generic._SeriesGroupByScalar[S1].aggregate

    • pandas.core.indexes.datetimes.DatetimeIndex.year

    • pandas.core.series.Series.columns

    • pandas.core.tools.datetimes.to_datetime.date

    • pandas.core.tools.datetimes.to_datetime.dt.strftime

    • pandas.core.tools.datetimes.to_datetime.strftime

    • pandas.io.parsers.readers.TextFileReader.apply

    • pandas.io.parsers.readers.TextFileReader.astype

    • pandas.io.parsers.readers.TextFileReader.columns

    • pandas.io.parsers.readers.TextFileReader.copy

    • pandas.io.parsers.readers.TextFileReader.drop

    • pandas.io.parsers.readers.TextFileReader.drop_duplicates

    • pandas.io.parsers.readers.TextFileReader.fillna

    • pandas.io.parsers.readers.TextFileReader.groupby

    • pandas.io.parsers.readers.TextFileReader.head

    • pandas.io.parsers.readers.TextFileReader.iloc

    • pandas.io.parsers.readers.TextFileReader.isin

    • pandas.io.parsers.readers.TextFileReader.iterrows

    • pandas.io.parsers.readers.TextFileReader.loc

    • pandas.io.parsers.readers.TextFileReader.merge

    • pandas.io.parsers.readers.TextFileReader.rename

    • pandas.io.parsers.readers.TextFileReader.shape

    • pandas.io.parsers.readers.TextFileReader.to_csv

    • pandas.io.parsers.readers.TextFileReader.to_excel

    • pandas.io.parsers.readers.TextFileReader.unique

    • pandas.io.parsers.readers.TextFileReader.values

    • pandas.tseries.offsets

Version 2.2.3 (24. Oktober 2024)

Anwendungsversion 2.2.3

Enthaltene SMA Core-Versionen

  • Snowpark Conversion Core 4.10.0

Desktop-App

Korrigiert

  • Es wurde ein Fehler korrigiert, der dazu führte, dass SMA in der Menüleiste der Windows-Version die Bezeichnung SnowConvert anstelle von Snowpark Migration Accelerator anzeigte.

  • Es wurde ein Fehler korrigiert, der zum Absturz von SMA führte, wenn das Programm keine Lese- und Schreibrechte für das Verzeichnis .config in macOS und das Verzeichnis AppData in Windows hatte.

Befehlszeilenschnittstelle

Geändert

  • Der Name der ausführbaren Datei CLI wurde von snowct in sma umbenannt.

  • Das Argument für die Quellsprache wurde entfernt, so dass Sie nicht mehr angeben müssen, ob Sie eine Python- oder Scala-Bewertung/Konvertierung durchführen.

  • Die von CLI unterstützten Befehlszeilenargumente wurden um die folgenden neuen Argumente erweitert:

    • --enableJupyter | -j: Flagge, die angibt, ob die Konvertierung von Databricks-Notebooks in Jupyter aktiviert ist oder nicht.

    • --sql | -f: Syntax der Datenbank-Engine, die verwendet werden soll, wenn ein SQL-Befehl erkannt wird.

    • --customerEmail | -e: Konfigurieren der Kunden-E-Mail.

    • --customerCompany | -c: Konfigurieren der Kundenfirma.

    • --projectName | -p: Konfigurieren Sie das Kundenprojekt.

  • Einige Texte wurden aktualisiert, um den korrekten Namen der Anwendung wiederzugeben und die Konsistenz und Klarheit aller Meldungen zu gewährleisten.

  • Aktualisieren Sie die Nutzungsbedingungen der Anwendung.

  • Die Dokumentation von CLI wurde aktualisiert und erweitert, um die neuesten Features, Verbesserungen und Änderungen zu berücksichtigen.

  • Der Text, der vor der Ausführung von SMA angezeigt wird, wurde verbessert.

  • Das CLI wurde aktualisiert, sodass „Ja“ als gültiges Argument akzeptiert wird, wenn der Benutzer zur Bestätigung aufgefordert wird.

  • Ermöglicht es CLI, die Ausführung fortzusetzen, ohne auf eine Interaktion des Benutzers zu warten, indem Sie das Argument -y oder --yes angeben.

  • Die Hilfeinformationen für das Argument --sql wurden aktualisiert, um die Werte anzuzeigen, die dieses Argument erwartet.

Snowpark Conversion Core Version 4.10.0

Hinzugefügt

  • Eine neue EWI für die Funktion pyspark.sql.readwriter.DataFrameWriter partitionBy wurde hinzugefügt. Alle Verwendungen dieser Funktion verfügen nun über die EWI SPRKPY1081.

  • Der Datei ImportUsagesInventory.csv wurde eine neue Spalte namens Technologie hinzugefügt.

Geändert

  • Die Bereitschaftsbewertung von Drittanbieter-Bibliotheken wurde aktualisiert, um auch die Unbekannten Bibliotheken zu berücksichtigen.

  • Die Datei AssessmentFiles.zip wurde aktualisiert und enthält nun .json-Dateien anstelle von .pam-Dateien.

  • Der Konvertierungsmechanismus von CSV zu JSON wurde verbessert, um die Verarbeitung von Beständen leistungsfähiger zu machen.

  • Die Dokumentation der folgenden EWIs wurde verbessert:

    • SPRKPY1029

    • SPRKPY1054

    • SPRKPY1055

    • SPRKPY1063

    • SPRKPY1075

    • SPRKPY1076

  • Der Zuordnungsstatus der folgenden Spark Scala-Elemente wurde von Direkt auf Umbenennen aktualisiert.

    • org.apache.spark.sql.functions.shiftLeft => com.snowflake.snowpark.functions.shiftleft

    • org.apache.spark.sql.functions.shiftRight => com.snowflake.snowpark.functions.shiftright

  • Der Zuordnungsstatus der folgenden Spark Scala-Elemente wurde von Nicht unterstütz auf Direkt aktualisiert.

    • org.apache.spark.sql.functions.shiftleft => com.snowflake.snowpark.functions.shiftleft

    • org.apache.spark.sql.functions.shiftright => com.snowflake.snowpark.functions.shiftright

Korrigiert

  • Es wurde ein Fehler korrigiert, der dazu führte, dass SMA die Spalte Herkunft der ImportUsagesInventory. csv-Datei falsch befüllt hat.

  • Es wurde ein Fehler korrigiert, der dazu führte, dass SMA-Importe der Bibliotheken io, json, logging und unittest in der ImportUsagesInventory.csv-Datei und in der DetailedReport.docx-Datei nicht als Python built-in Importe klassifizierte.

Version 2.2.2 (11. Oktober 2024)

Anwendungsversion 2.2.2

Features-Updates umfassen:

  • Snowpark Conversion Core 4.8.0

Snowpark Conversion Core Version 4.8.0

Hinzugefügt

  • EwiCatalog.csv und .md-Dateien hinzugefügt, um die Dokumentation zu reorganisieren

  • Der Zuordnungsstatus von pyspark.sql.functions.ln Direct wurde hinzugefügt.

  • Eine Transformation für pyspark.context.SparkContext.getOrCreate wurde hinzugefügt.

    • Weitere Einzelheiten finden Sie unter EWI SPRKPY1080.

  • Es wurde eine Verbesserung für SymbolTable hinzugefügt, um den Typ von Parametern in Funktionen zu ermitteln.

  • Hinzugefügte SymbolTable unterstützt statische Methoden und geht nicht davon aus, dass der erste Parameter bei diesen Methoden „self“ ist.

  • Eine Dokumentation für fehlende EWIs wurde hinzugefügt

    • SPRKHVSQL1005

    • SPRKHVSQL1006

    • SPRKSPSQL1005

    • SPRKSPSQL1006

    • SPRKSCL1002

    • SPRKSCL1170

    • SPRKSCL1171

    • SPRKPY1057

    • SPRKPY1058

    • SPRKPY1059

    • SPRKPY1060

    • SPRKPY1061

    • SPRKPY1064

    • SPRKPY1065

    • SPRKPY1066

    • SPRKPY1067

    • SPRKPY1069

    • SPRKPY1070

    • SPRKPY1077

    • SPRKPY1078

    • SPRKPY1079

    • SPRKPY1101

Geändert

  • Der Zuordnungsstatus wurde aktualisiert von:

    • pyspark.sql.functions.array_remove von NotSupported zu Direkt.

Korrigiert

  • Die Tabelle „Code-Dateigröße“ im Detailbericht wurde korrigiert, um .sql- und .hql-Dateien auszuschließen, und die Zeile „Extra groß“ wurde zur Tabelle hinzugefügt.

  • Das Fehlen des update_query_tag wurde korrigiert, wenn SparkSession in mehreren Zeilen auf Python definiert ist.

  • Das Fehlen des update_query_tag wurde korrigiert, wenn SparkSession in mehreren Zeilen auf Scala definiert ist.

  • Das Fehlen von EWI SPRKHVSQL1001 bei einigen SQL-Anweisungen mit Parsing-Fehlern wurde korrigiert.

  • Feste Werte für neue Zeilen innerhalb von Zeichenfolgenliteralen korrigiert

  • Die Anzeige der Gesamtanzahl der Codezeilen in der Dateityp-Übersichtstabelle wurde korrigiert

  • Als 0 angezeigter Parsing-Score bei erfolgreich erkannten Dateien wurde korrigiert

  • LOC-Zählung im Zellenbestand für Databricks Magic SQL-Zellen wurde korrigiert

Version 2.2.0 (26. September 2024)

Anwendungsversion 2.2.0

Feature-Updates umfassen:

  • Snowpark Conversion Core 4.6.0

Snowpark Conversion Core Version 4.6.0

Hinzugefügt

  • Hinzufügen der Transformation für pyspark.sql.readwriter.DataFrameReader.parquet.

  • Hinzufügen der Transformation für pyspark.sql.readwriter.DataFrameReader.option, wenn es sich um eine Parquet-Methode handelt.

Geändert

  • Der Zuordnungsstatus wurde aktualisiert von:

    • pyspark.sql.types.StructType.fields von NotSupported nach Direkt.

    • pyspark.sql.types.StructType.names von NotSupported nach Direkt.

    • pyspark.context.SparkContext.setLogLevel von Workaround zu Transformation.

      • Weitere Einzelheiten finden Sie unter EWIs SPRKPY1078 und SPRKPY1079

    • org.apache.spark.sql.functions.round von WorkAround zu Direkt.

    • org.apache.spark.sql.functions.udf von NotDefined zu Transformation.

      • Weitere Einzelheiten finden Sie unter EWIs SPRKSCL1174 und SPRKSCL1175

  • Der Zuordnungsstatus der folgenden Spark-Elemente wurde von DirectHelper auf Direkt aktualisiert:

    • org.apache.spark.sql.functions.hex

    • org.apache.spark.sql.functions.unhex

    • org.apache.spark.sql.functions.shiftleft

    • org.apache.spark.sql.functions.shiftright

    • org.apache.spark.sql.functions.reverse

    • org.apache.spark.sql.functions.isnull

    • org.apache.spark.sql.functions.unix_timestamp

    • org.apache.spark.sql.functions.randn

    • org.apache.spark.sql.functions.signum

    • org.apache.spark.sql.functions.sign

    • org.apache.spark.sql.functions.collect_list

    • org.apache.spark.sql.functions.log10

    • org.apache.spark.sql.functions.log1p

    • org.apache.spark.sql.functions.base64

    • org.apache.spark.sql.functions.unbase64

    • org.apache.spark.sql.functions.regexp_extract

    • org.apache.spark.sql.functions.expr

    • org.apache.spark.sql.functions.date_format

    • org.apache.spark.sql.functions.desc

    • org.apache.spark.sql.functions.asc

    • org.apache.spark.sql.functions.size

    • org.apache.spark.sql.functions.locate

    • org.apache.spark.sql.functions.ntile

Korrigiert

  • Der im Prozentsatz der gesamten Pandas Api angezeigte Wert wurde korrigiert

  • Gesamtprozentsatz auf ImportCalls in der DetailReport-Tabelle wurde korrigiert

Veraltet

  • Der folgende EWI-Code ist veraltet:

    • SPRKSCL1115

Version 2.1.7 (12. September 2024)

Anwendungsversion 2.1.7

Feature-Updates umfassen:

  • Snowpark Conversion Core 4.5.7

  • Snowpark Conversion Core 4.5.2

Snowpark Conversion Core Version 4.5.7

Fehlerbehebung per Hotfix

  • Die Gesamtzeile in den Spark-Nutzungsübersichten wurde hinzugefügt, wenn es keine Nutzungen gibt

  • Von Python Assembly auf Version=1.3.111 aktualisiert

    • Nachstehendes Komma in mehrzeiligen Argumenten parsen

Snowpark Conversion Core Version 4.5.2

Hinzugefügt

  • Transformation für pyspark.sql.readwriter.DataFrameReader.option wurde hinzugefügt:

    • Wenn die Kette aus einem CSV-Methodenaufruf stammt.

    • Wenn die Kette aus einem JSON-Methodenaufruf stammt.

  • Transformation für pyspark.sql.readwriter.DataFrameReader.json wurde hinzugefügt.

Geändert

  • Ausgeführt SMA auf SQL-Strings, die an Python/Scala-Funktionen übergeben werden

    • Erstellen Sie AST in Scala/Python, um eine temporäre SQL-Einheit auszugeben

    • Erstellen Sie einen SqlEmbeddedUsages.csv-Bestand

    • Verwerfen Sie SqlStatementsInventroy.csv und SqlExtractionInventory.csv

    • Integrieren Sie EWI, wenn das SQL-Literal nicht verarbeitet werden konnte

    • Erstellen Sie neue Aufgabe, um SQL-eingebetteten Code zu verarbeiten

    • Sammeln Sie Informationen für SqlEmbeddedUsages.csv-Bestand in Python

    • Ersetzen Sie mit SQL transformierten Code in Python durch Literal

    • Aktualisieren Sie Testfälle nach der Implementierung

    • Erstellen Sie eine Tabelle und Ansichten für Telemetrie in SqlEmbeddedUsages-Bestand

    • Sammeln Sie Informationen für SqlEmbeddedUsages.csv-Bericht in Scala

    • Ersetzen Sie SQL transformierten Code in Scala durch Literal

    • Prüfen Sie die Reihenfolge der Zeilennummern für die Berichterstattung von Embedded SQL

  • Füllen Sie die SqlFunctionsInfo.csv mit den SQL-Funktionen, die für SparkSQL und HiveSQL

  • Der Zuordnungsstatus wurde aktualisiert für:

    • org.apache.spark.sql.SparkSession. sparkContext von NotSupported zu „Transformation“.

    • org.apache.spark.sql.Builder.config von NotSupported zu Transformation. Mit diesem neuen Zuordnungsstatus wird die SMA alle Verwendungen dieser Funktion aus dem Quellcode entfernen.

Version 2.1.6 (5. September 2024)

Anwendungsversion 2.1.6

  • Hotfix-Änderung für Snowpark Engines Core Version 4.5.1

Spark Conversion Core Version 4.5.1

Hotfix

  • Es wurde ein Mechanismus zur Konvertierung der von SMA erzeugten temporalen Databricks-Notebooks in exportierte Databricks-Notebooks hinzugefügt

Version 2.1.5 (29. August 2024)

Anwendungsversion 2.1.5

Feature-Updates umfassen:

  • Aktualisierter Spark Conversion Core: 4.3.2

Spark Conversion Core Version 4.3.2

Hinzugefügt

  • Es wurde der Mechanismus hinzugefügt (über Dekoration), um die Zeile und Spalte der in Notizbuchzellen identifizierten Elemente abzurufen.

  • Ein EWI für pyspark.sql.functions.from_json wurde hinzugefügt.

  • Eine Transformation für pyspark.sql.readwriter.DataFrameReader.csv wurde hinzugefügt.

  • Aktiviert den Abfrage-Tag-Mechanismus für Scala-Dateien.

  • Der Analysis Score-Code und zusätzliche Links zum detaillierten Bericht wurden hinzugefügt.

  • InputFilesInventory.csv wurde eine Spalte namens OriginFilePath hinzugefügt

Geändert

  • Der Zuordnungsstatus von pyspark.sql.functions.from_json wurde von „Nicht unterstützt“ auf „Transformation“ aktualisiert.

  • Der Zuordnungsstatus der folgenden Spark-Elemente wurde von „Workaround“ auf „Direkt“ aktualisiert:

    • org.apache.spark.sql.functions.countDistinct

    • org.apache.spark.sql.functions.max

    • org.apache.spark.sql.functions.min

    • org.apache.spark.sql.functions.mean

Veraltet

  • Die folgenden EWI-Codes sind veraltet:

    • SPRKSCL1135

    • SPRKSCL1136

    • SPRKSCL1153

    • SPRKSCL1155

Korrigiert

  • Es wurde ein Fehler korrigiert, der zu einer falschen Berechnung des Spark API-Ergebnisses führte.

  • Ein Fehler wurde korrigiert, der das Kopieren von SQL leeren oder kommentierten Dateien im Ausgabeordner verhinderte.

  • Es wurde ein Fehler in DetailedReport korrigiert. Die Notebook-Statistiken LOC und die Zellenzahl sind nicht korrekt.

Version 2.1.2 (14. August 2024)

Anwendungsversion 2.1.2

Feature-Updates umfassen:

  • Aktualisierter Spark Conversion Core: 4.2.0

Spark Conversion Core Version 4.2.0

Hinzugefügt

  • Hinzufügen einer Technologie-Spalte zu SparkUsagesInventory

  • Ein EWI für nicht definierte SQL-Elemente wurde hinzugefügt.

  • SqlFunctions-Inventar hinzugefügt

  • Sammeln Sie Informationen für SqlFunctions-Inventar

Geändert

  • Die Engine verarbeitet und druckt jetzt teilweise geparste Python-Dateien, anstatt die Originaldatei unverändert zu lassen.

  • Python-Notebook-Zellen, die Parsing-Fehler aufweisen, werden ebenfalls verarbeitet und gedruckt.

Korrigiert

  • pandas.core.indexes.datetimes.DatetimeIndex.strftime, das fälschlicherweise gemeldet wurde, wurde korrigiert.

  • Korrektur der Diskrepanz zwischen SQL-Bereitschaftsbewertung und SQL-Verwendungen nach Unterstützungsstatus.

  • Es wurde ein Fehler korrigiert, der dazu führte, dass SMA pandas.core.series.Series.empty mit einem falschen Zuordnungsstatus meldete.

  • Korrektur der Diskrepanz zwischen Spark API-Verwendungen bereit zur Konvertierung in DetailedReport.docx unterscheidet sich von UsagesReadyForConversion-Zeile in Assessment.json.

Version 2.1.1 (8. August 2024)

Anwendungsversion 2.1.1

Feature-Updates umfassen:

  • Aktualisierter Spark Conversion Core: 4.1.0

Spark Conversion Core Version 4.1.0

Hinzugefügt

  • Die folgenden Informationen wurden der Datei AssessmentReport.json hinzugefügt

    • Die Bereitschaftsbewertung von Bibliotheken von Drittanbietern.

    • Die Anzahl der Aufrufe von Bibliotheken von Drittanbietern, die identifiziert wurden.

    • Die Anzahl der Aufrufe von Bibliotheken von Drittanbietern, die in Snowpark unterstützt werden.

    • Der Farbcode, der mit der Bereitschaftsbewertung von Drittanbietern, der Bereitschaftsbewertung von Spark API und der Bereitschaftsbewertung von SQL verbunden ist.

  • Transformierte SqlSimpleDataType in Spark erstelle Tabellen.

  • Die Zuordnung von pyspark.sql.functions.get wurde als „direkt“ hinzugefügt.

  • Die Zuordnung von pyspark.sql.functions.to_varchar wurde als „direkt“ hinzugefügt.

  • Im Rahmen der Änderungen nach der Vereinheitlichung erzeugt das Tool nun eine Ausführungsinformationsdatei in der Engine.

  • Ein Ersetzer für pyspark.sql.SparkSession.builder.appName wurde hinzugefügt.

Geändert

  • Der Zuordnungsstatus wurde für die folgenden Spark-Elemente aktualisiert

    • Von Zuordnung „Nicht unterstützt“ zu „Direkt“:

      • pyspark.sql.functions.sign

      • pyspark.sql.functions.signum

  • Der Bericht „Bestandsaufnahme der Notebook-Zellen“ wurde geändert, um die Art des Inhalts für jede Zelle in der Element-Spalte anzuzeigen

  • Es wurde eine Spalte SCALA_READINESS_SCORE hinzugefügt, die die Bereitschaftsbewertung nur in Bezug auf Verweise auf die Spark API in Scala-Dateien anzeigt.

  • Teilweise Unterstützung für die Transformation von Tabelleneigenschaften in ALTER TABLE und ALTER VIEW

  • Aktualisierung des Konvertierungsstatus des Knotens SqlSimpleDataType von „Ausstehend“ auf „Transformation“ in Spark erstellten Tabellen

  • Die von SMA unterstützte Version von Snowpark Scala API wurde von 1.7.0 auf 1.12.1 aktualisiert:

    • Der Zuordnungsstatus wurde aktualisiert von:

      • org.apache.spark.sql.SparkSession.getOrCreate von „Umbenennen“ zu „Direkt“

      • org.apache.spark.sql.functions.sum von „Workaround“ zu „Direkt“

  • Die von SMA unterstützte Version von Snowpark Python API wurde von 1.15.0 auf 1.20.0 aktualisiert:

    • Der Zuordnungsstatus wurde aktualisiert von:

      • pyspark.sql.functions.arrays_zip von „Nicht unterstützt“ zu „Direkt“

  • Der Zuordnungsstatus wurde für die folgenden Pandas-Elemente aktualisiert:

    • Direkte Zuordnungen:

      • pandas.core.frame.DataFrame.any

      • pandas.core.frame.DataFrame.applymap

  • Der Zuordnungsstatus wurde für die folgenden Pandas-Elemente aktualisiert:

    • Von Zuordnung „Nicht unterstützt“ zu „Direkt“:

      • pandas.core.frame.DataFrame.groupby

      • pandas.core.frame.DataFrame.index

      • pandas.core.frame.DataFrame.T

      • pandas.core.frame.DataFrame.to_dict

    • Zuordnung von „Nicht unterstützt“ zu „Umbenennen“:

      • pandas.core.frame.DataFrame.map

  • Der Zuordnungsstatus wurde für die folgenden Pandas-Elemente aktualisiert:

    • Direkte Zuordnungen:

      • pandas.core.frame.DataFrame.where

      • pandas.core.groupby.generic.SeriesGroupBy.agg

      • pandas.core.groupby.generic.SeriesGroupBy.aggregate

      • pandas.core.groupby.generic.DataFrameGroupBy.agg

      • pandas.core.groupby.generic.DataFrameGroupBy.aggregate

      • pandas.core.groupby.generic.DataFrameGroupBy.apply

    • Nicht unterstützte Zuordnungen:

      • pandas.core.frame.DataFrame.to_parquet

      • pandas.core.generic.NDFrame.to_csv

      • pandas.core.generic.NDFrame.to_excel

      • pandas.core.generic.NDFrame.to_sql

  • Der Zuordnungsstatus wurde für die folgenden Pandas-Elemente aktualisiert:

    • Direkte Zuordnungen:

      • pandas.core.series.Series.empty

      • pandas.core.series.Series.apply

      • pandas.core.reshape.tile.qcut

    • Direkte Zuordnungen mit EWI:

      • pandas.core.series.Series.fillna

      • pandas.core.series.Series.astype

      • pandas.core.reshape.melt.melt

      • pandas.core.reshape.tile.cut

      • pandas.core.reshape.pivot.pivot_table

  • Der Zuordnungsstatus wurde für die folgenden Pandas-Elemente aktualisiert:

    • Direkte Zuordnungen:

      • pandas.core.series.Series.dt

      • pandas.core.series.Series.groupby

      • pandas.core.series.Series.loc

      • pandas.core.series.Series.shape

      • pandas.core.tools.datetimes.to_datetime

      • pandas.io.excel._base.ExcelFile

    • Nicht unterstützte Zuordnungen:

      • pandas.core.series.Series.dt.strftime

  • Der Zuordnungsstatus wurde für die folgenden Pandas-Elemente aktualisiert:

    • Von Zuordnung „Nicht unterstützt“ zu „Direkt“:

      • pandas.io.parquet.read_parquet

      • pandas.io.parsers.readers.read_csv

  • Der Zuordnungsstatus wurde für die folgenden Pandas-Elemente aktualisiert:

    • Von Zuordnung „Nicht unterstützt“ zu „Direkt“:

      • pandas.io.pickle.read_pickle

      • pandas.io.sql.read_sql

      • pandas.io.sql.read_sql_query

  • Die Beschreibung von „Understanding the SQL Readiness Score“ wurde aktualisiert.

  • PyProgramCollector wurde aktualisiert, um die Pakete zu sammeln und das aktuelle Paketinventar mit Daten aus dem Python-Quellcode aufzufüllen.

  • Der Zuordnungsstatus von pyspark.sql.SparkSession.builder.appName wurde von „Umbenennen“ auf „Transformation“ aktualisiert.

  • Die folgenden Scala-Integrationstests wurden entfernt:

    • AssesmentReportTest_AssessmentMode.ValidateReports_AssessmentMode

    • AssessmentReportTest_PythonAndScala_Files.ValidateReports_PythonAndScala

    • AssessmentReportTestWithoutSparkUsages.ValidateReports_WithoutSparkUsages

  • Der Zuordnungsstatus von pandas.core.generic.NDFrame.shape wurde von „Nicht unterstützt“ auf „Direkt“ aktualisiert.

  • Der Zuordnungsstatus von pandas.core.series wurde von „Nicht unterstützt“ auf „Direkt“ aktualisiert.

Veraltet

  • Der Code EWI SPRKSCL1160 ist veraltet, da org.apache.spark.sql.functions.sum jetzt eine direkte Zuordnung ist.

Korrigiert

  • Ein Fehler wurde korrigiert, indem Custom Magics ohne Argumente in Jupyter Notebook-Zellen nicht unterstützt werden.

  • Fehlerhafte Generierung von EWIs im Bericht issues.csv bei Parsing-Fehlern wurde korrigiert.

  • Es wurde ein Fehler korrigiert, der dazu führte, dass SMA das exportierte Databricks-Notizbuch nicht als Databricks-Notizbuch verarbeiten konnte.

  • Es wurde ein Stapelüberlauffehler bei der Verarbeitung kollidierender Typnamen von Deklarationen korrigiert, die innerhalb von Paketobjekten erstellt wurden.

  • Die Verarbeitung von komplexen Lambda-Typ-Namen, die Generika beinhalten, wurde korrigiert, z. B. def func [X,Y](f: (Map[Option[X], Y] => Map[Y, X]))...

  • Es wurde ein Fehler korrigiert, der dazu führte, dass SMA den Pandas-Elementen, die noch nicht erkannt werden, einen PySpark EWI Code anstelle eines Pandas EWI-Codes hinzufügte.

  • Tippfehler in der detaillierten Berichtsvorlage wurde korrigiert: Umbenennung einer Spalte von „Prozentsatz aller Python-Dateien„ in „Prozentsatz aller Dateien“.

  • Ein Fehler wurde korrigiert, bei dem pandas.core.series.Series.shape fälschlicherweise gemeldet wurde.