Snowflake ML Python-Versionshinweise

Dieser Artikel enthält die Versionshinweise für Snowflake ML Python, einschließlich der folgenden, sofern zutreffend:

  • Verhaltensänderungen

  • Neue Features

  • Fehlerkorrekturen für Kunden

Bemerkung

Diese Hinweise enthalten keine Änderungen an Features, die noch nicht angekündigt wurden. Solche Features können im Quellcode von Snowflake ML Python erscheinen, aber nicht in der öffentlichen Dokumentation.

Siehe Snowflake ML: Umfassendes maschinelles Lernen für die Dokumentation.

Überprüfen Sie das snowflake-ml-python-Paket

Alle Snowflake-Pakete sind signiert, sodass Sie ihre Herkunft überprüfen können. Um das Paket snowflake.ml.python zu überprüfen, führen Sie die folgenden Schritte aus:

  1. Installieren Sie cosign. Dieses Beispiel verwendet die Go-Installation: Installation von cosign mit Go.

  2. Laden Sie die Datei von einem Repository wie PyPi herunter.

  3. Laden Sie eine .sig-Datei für dieses Release von der GitHub Releases-Seite herunter.

  4. Überprüfen Sie die Signatur mit cosign. Beispiel:

cosign verify-blob snowflake_ml_python-1.7.0.tar.gz --key snowflake-ml-python-1.7.0.pub --signature resources.linux.snowflake_ml_python-1.7.0.tar.gz.sig

cosign verify-blob snowflake_ml_python-1.7.0.tar.gz --key snowflake-ml-python-1.7.0.pub --signature resources.linux.snowflake_ml_python-1.7.0
Copy

Bemerkung

Dieses Beispiel verwendet die Bibliothek und die Signatur für Version 1.7.0 des Pakets. Verwenden Sie die Dateinamen der Version, die Sie überprüfen.

Hinweise zum Veralten

  • snowflake.ml.fileset.FileSet ist veraltet und wird in einer zukünftigen Version entfernt werden. Verwenden Sie stattdessen snowflake.ml.dataset.Dataset und snowflake.ml.data.DataConnector.

  • Die „CamelCase“-Funktionsnamen in snowflake.ml.cortex sind veraltet und werden in einer zukünftigen Version entfernt. Verwenden Sie stattdessen die „snake_case“-Namen für diese Funktionen. Verwenden Sie zum Beispiel classify_text anstelle von ClassifyText.

  • Der partitioned_inference_api-Decorator ist veraltet und wird in einem zukünftigen Release entfernt. Verwenden Sie stattdessen custom_model.partitioned_api.

  • Das additional_payloads-Argument der MLJob.submit_*-Methoden ist veraltet und wird in einem zukünftigen Release entfernt werden. Verwenden Sie stattdessen das imports-Argument.

  • Die snowflake.ml.model.models.huggingface_pipeline.HuggingfacePipelineModel-Klasse ist veraltet und wird in einem zukünftigen Release entfernt.

Version 1.24.0 (22.01.2026)

Neue Features

Neue Funktionen im Feature Store:

  • Kachelbasierte Aggregationsunterstützung mit einer neuen Feature API für eine effiziente und zeitpunktgenaue Berechnung von Zeitreihen-Features unter Verwendung von vorberechneten Kacheln.

Neue Features der Modell-Registry:

  • SentenceTransformer-Modelle unterstützen jetzt die automatische Signaturableitung. Beim Protokollieren eines SentenceTransformer-Modells ist sample_input_data optional. Die Signatur wird automatisch aus der Einbettungsdimension des Modells abgeleitet, wenn keine Beispiel-Eingabedaten bereitgestellt werden. Die Methoden encode, encode_query, encode_document, encode_queries, encode_documents werden unterstützt.

    import sentence_transformers
    from snowflake.ml.registry import Registry
    
    # Create model
    model = sentence_transformers.SentenceTransformer("all-MiniLM-L6-v2")
    
    # Log model without sample_input_data - signature is auto-inferred
    registry = Registry(session)
    mv = registry.log_model(
        model=model,
        model_name="my_sentence_transformer",
        version_name="v1",
    )
    
    # Run inference with auto-inferred signature (input: "text", output: "output")
    import pandas as pd
    result = mv.run(pd.DataFrame({"text": ["Hello world"]}))
    
    Copy

Version 1.23.0 (2026-01-165)

Neue Features

Neue ML-Job-Features:

  • ML-Jobs unterstützen jetzt Python 3.11 und Python 3.12. Jobs wählen automatisch eine Laufzeitumgebung aus, die der Python-Version des Clients entspricht.

Fehlerkorrekturen

Fehlerkorrekturen an der Modell-Registry:

  • Leere Ausgabe in HuggingFace Token-Klassifizierungmodellen (namens Entity Recognition) verursacht keine Fehler mehr.

Fehlerkorrekturen bei der Modellbereitstellung:

  • Containerstatus wird jetzt korrekt gemeldet und sollte nicht leer sein.

Version 1.22.0 (2026-01-09)

Neue Features

Neue Features der Modell-Registry:

  • Sie können jetzt ein Transformer-Pipeline-Modell mithilfe eines Snowpark Container Services (SPCS)-Jobs extern protokollieren.

    # create reference to the model
    model = huggingface.TransformersPipeline(
        model="TinyLlama/TinyLlama-1.1B-Chat-v1.0",
        task="text-generation",
    )
    
    # Remotely log the model, a SPCS job will run async and log the model
    mv = registry.log_model(
        model=model,
        model_name="tinyllama_remote_log",
        target_platforms=["SNOWPARK_CONTAINER_SERVICES"],
        signatures=openai_signatures.OPENAI_CHAT_SIGNATURE,
    )
    
    Copy

Version 1.21.0 (2026-01-05)

Verhaltensänderungen

Das Verhalten der ML-Jobs ändert sich:

  • Das Verhalten des Parameters additional_payloads ändert sich Verwenden Sie das imports-Argument, um zusätzliche Abhängigkeiten zu deklarieren, wie z. B. ZIP-Dateien und Python-Module. Lokale Verzeichnisse und Python-Dateien werden automatisch komprimiert, und ihr internes Layout wird durch den angegebenen Importpfad bestimmt. Der Importpfad gilt nur für lokale Verzeichnisse, Python-Dateien und Python-Stagingdateien. Dies hat keine Auswirkungen auf andere Importtypen. Beim Verweis auf Dateien in einem Stagingbereich werden nur einzelne Dateien unterstützt, keine Verzeichnisse.

Änderungen der Verhaltensweise der Experimentverfolgung:

  • ExperimentTracking ist jetzt eine Singleton-Klasse.

Fehlerkorrekturen

Korrekturen bei der Verfolgung von Experimenten:

  • Das Erreichen der Größenbeschränkung der Ausführungsmetadaten in log_metrics oder log_params gibt jetzt eine Warnung aus, anstatt eine Ausnahme auszulösen.

Fehlerkorrekturen an der Modell-Registry:

  • ModelVersion.run löst nun einen ValueError-Fehler aus, wenn das Modell ein Nur-SPCS-Modell ist und service_name nicht angegeben wurde.

Neue Vorschau-Features

  • Die create_service-Methode akzeptiert jetzt das boolesche Argument autocapture, um anzugeben, ob Inferenzdaten automatisch erfasst werden.

Neue Release-Features

Neue Features der Modell-Registry:

  • Die neue Klasse snowflake.ml.model.models.huggingface.TransformersPipeline soll snowflake.ml.model.models.huggingface_pipeline.HuggingfacePipelineModel ersetzen, obwohl die ältere Klasse noch nicht veraltet ist. Die neue Klasse kennt Modellsignaturen für allgemeine Aufgaben, sodass Sie diese nicht manuell angeben müssen. Folgende Aufgaben werden derzeit unterstützt:

    • fill-mask

    • question-answering

    • summarization

    • table-question-answering

    • text2text-generation

    • text-classification (Alias sentiment-analysis)

    • text-generation

    • token-classification (Alias ner)

    • translation

    • translation_xx_to_yy

    • zero-shot-classification (ermöglicht es Ihnen, Modelle zu protokollieren, ohne sie in den Speicher zu laden)

  • Die list_services API zeigt jetzt einen internen Endpunkt an, der von einem anderen SPCS-Knoten oder Notebook ohne Enterprise Application Integration aus aufgerufen werden kann. Außerdem wird angezeigt, ob die automatische Erfassung für den jeweiligen Dienst aktiviert ist.

Neue DataConnector-Features:

  • Die neue Methode to_huggingface_dataset konvertiert Snowflake-Daten in HuggingFace-Datensets. Unterstützt die Modi In-Memory-Dataset (streaming=False) und Streaming von IterableDataset (streaming=True).

Hinweise zum Veralten

  • Die snowflake.ml.model.models.huggingface_pipeline.HuggingfacePipelineModel-Klasse ist veraltet und wird in einem zukünftigen Release entfernt.