Juin 2023

Les nouvelles fonctionnalités, les changements de comportement et les mises à jour (améliorations, corrections, etc.) suivants ont été introduits ce mois-ci. Si vous avez des questions sur ces ajouts, veuillez contacter le support Snowflake.

Important

Chaque version peut inclure des mises à jour nécessitant l’actualisation de l’interface Web.

En règle générale, pour éviter que ces mises à jour nuisent à votre utilisation, nous vous recommandons d’actualiser l’interface Web après le déploiement de chaque version de Snowflake.

Dans ce chapitre :

Nouvelles fonctionnalités

Tables dynamiques - Avant-première

Nous avons le plaisir d’annoncer la disponibilité en avant-première des tables dynamiques.

Les tables dynamiques sont les éléments constitutifs des pipelines déclaratifs de transformation des données. Elles simplifient considérablement l’ingénierie des données dans Snowflake et fournissent un moyen fiable, rentable et automatisé de transformer vos données pour la consommation. Au lieu de définir les étapes de transformation des données comme une série de tâches et de devoir surveiller les dépendances et la planification, vous pouvez simplement définir l’état final de la transformation à l’aide de tables dynamiques et laisser la gestion complexe du pipeline de données à Snowflake.

Pour plus d’informations, reportez-vous à Tables dynamiques.

Stockage compatible avec Amazon S3 — Disponibilité générale

Nous avons le plaisir d’annoncer la disponibilité générale de la prise en charge de l’accès aux données dans un stockage compatible avec Amazon S3. Vous pouvez créer des zones de préparation externes pour des services de stockage on-premises ou d’autres services de stockage dans le cloud et des périphériques qui sont hautement conformes à l’API REST Amazon S3. Grâce à cette fonction, vous pouvez gérer, gouverner et analyser efficacement vos données, quel que soit l’endroit où elles sont stockées.

Pour plus d’informations, reportez-vous à Utilisation d’un stockage compatible avec Amazon S3.

Transmission des références des tables, vues, fonctions et requêtes à une procédure stockée — Avant-première

Nous avons le plaisir d’annoncer en avant-première la possibilité de transmettre les références des tables, vues, fonctions et requêtes à une procédure stockée.

Une référence est un identificateur unique pour une table, une vue, une fonction ou une requête. Lorsque vous transmettez une référence à une procédure stockée, celle-ci effectue des actions en utilisant le rôle actif ou les rôles secondaires de l’utilisateur qui a créé la référence. Par exemple, si vous appelez une procédure stockée avec droits du propriétaire, vous pouvez créer et transmettre une référence à une table pour permettre à la procédure stockée d’effectuer des actions sur la table à l’aide de votre rôle actif.

En outre, si la table, la vue ou la fonction n’est pas entièrement qualifiée, le nom de l’objet est résolu en utilisant la base de données et le schéma en vigueur au moment de la création de la référence (c’est-à-dire la base de données et le schéma de l’utilisateur qui a créé la référence).

Pour plus d’informations, reportez-vous à Transmission de références pour les tables, les vues, les fonctions et les requêtes aux procédures stockées.

Snowpark ML : machine learning à l’échelle — Avant-première

Nous avons le plaisir d’annoncer l’avant-première de Snowpark ML. Snowpark ML est un ensemble d’outils Python, comprenant les SDKs et l’infrastructure sous-jacente, pour construire et déployer des modèles de machine learning au sein de Snowflake. Cette avant-première comprend des classes de prétraitement et de modélisation basées sur des bibliothèques de machine learning populaires telles que scikit-learn, xgboost et lightgbm.

Snowpark ML fonctionne avec Snowpark Python. Vous utilisez les DataFrames Snowpark pour conserver vos données d’entraînement ou de test et pour recevoir vos résultats de prédiction.

Pour plus d’informations, reportez-vous à Snowpark ML : boîte à outils de machine learning pour Snowflake.

Fonctions basées sur le ML — Avant-première

Nous avons le plaisir de vous annoncer la disponibilité en avant-première de trois nouveaux outils d’analyse basés sur des algorithmes de machine learning.

Ces trois outils entraînent un modèle de machine learning sur vos données de séries temporelles afin de déterminer comment une métrique spécifiée varie dans le temps et par rapport à d’autres caractéristiques. Le modèle fournit ensuite des informations et des prédictions basées sur les tendances détectées dans les données.

  • Prévision : prédit les valeurs métriques futures à partir des tendances des données historiques.

  • Détection d’anomalies : signale les valeurs métriques qui diffèrent des attentes habituelles.

  • Contribution Explorer : vous aide à trouver les dimensions et les valeurs qui affectent la métrique de manière surprenante.

Pour plus d’informations, reportez-vous à Fonctions basées sur Cortex Snowflake ML.

Native Applications Framework — Avant-première

Nous avons le plaisir d’annoncer la disponibilité en avant-première du Native Apps Framework qui vous permet de créer des applications de données qui étendent les capacités d’autres fonctions de Snowflake en partageant des données et la logique métier associée avec d’autres comptes Snowflake.

Pour plus d’informations, reportez-vous à À propos du Native Apps Framework et Tutoriel : Développement d’une application avec le Native Apps Framework.

Custom Event Billing pour les applications — Avant-première

Nous avons le plaisir de vous annoncer la disponibilité en avant-première de Custom Event Billing, un plan de tarification basé sur l’utilisation que les fournisseurs peuvent utiliser pour facturer aux consommateurs l’utilisation d’applications développées avec le Framework Native Apps de Snowflake.

Pour plus d’informations, reportez-vous à Modèles de tarification des annonces payantes et Ajout d’événements facturables aux applications.

Marketplace Capacity Drawdown Program — Disponibilité générale

Nous avons le plaisir d’annoncer la disponibilité générale de Marketplace Capacity Drawdown Program, qui permet aux clients éligibles ayant un contrat de capacité chez Snowflake de payer des annonces avec leur capacité engagée.

Voir Modèles de tarification des annonces payantes pour plus d’informations.

Prise en charge de la réplication du streaming Snowpipe — Avant-première

Avec cette version, nous avons le plaisir d’annoncer la prise en charge de Snowpipe Streaming avec la réplication Snowflake. Snowflake prend en charge la réplication et le basculement des tables Snowflake remplies par Snowpipe Streaming et ses décalages de canaux associés d’un compte source vers un compte cible dans différentes régions et sur les plateformes Cloud avec la réplication. Snowpipe Streaming prend en charge à la fois la réplication de base de données et la réplication basée sur les groupes.

Pour plus d’informations, reportez-vous à Réplication et Streaming Snowpipe.

Procédures anonymes — Disponibilité générale

Avec cette version, nous avons le plaisir d’annoncer la disponibilité générale de la prise en charge de la création de procédures anonymes. Une procédure anonyme est similaire à une procédure stockée, mais elle n’est pas stockée en vue d’une utilisation ultérieure.

Vous pouvez créer une procédure anonyme en utilisant la syntaxe WITH…CALL. Avec cette commande, vous créez une procédure anonyme définie par des paramètres dans la clause WITH et vous appelez cette procédure. Vous n’avez pas besoin d’avoir un rôle avec des privilèges de schéma CREATE PROCEDURE pour cette commande.

Lecture de fichiers avec une fonction Java ou un gestionnaire de procédure — Disponibilité générale

Avec cette version, nous avons le plaisir d’annoncer la disponibilité générale de la prise en charge de la lecture de fichiers en zone de préparation à l’aide d’un code UDF ou d’un code de gestionnaire de procédure écrit en Java.

Pour plus d’informations, reportez-vous à Lecture d’un fichier à l’aide d’une UDF Java et à Lecture d’un fichier à l’aide d’une procédure Java.

Lecture de fichiers avec une fonction Scala ou un gestionnaire de procédure — Avant-première

Avec cette version, nous avons le plaisir d’annoncer une avant-première de la prise en charge de la lecture de fichiers en zone de préparation à l’aide d’un code UDF ou d’un code de gestionnaire de procédure écrit en Scala.

Pour plus d’informations, reportez-vous à Lecture d’un fichier à l’aide d’une UDF Scala et à Lecture d’un fichier avec une procédure Scala.

Lecture de fichiers à l’aide d’une fonction ou d’une procédure Python — Avant-première

Avec cette version, nous avons le plaisir d’annoncer la disponibilité de la prise en charge de lecture de fichiers avec la classe SnowflakeFile en avant-première.

SnowflakeFile est une nouvelle classe du module snowflake.snowpark.files qui fournit un accès dynamique en lecture pour des fichiers sur une zone de préparation interne ou externe. Avec SnowflakeFile, vous pouvez diffuser des fichiers en continu pour accomplir des tâches telles que la lecture de données non structurées ou l’utilisation de votre propre modèle de machine learning dans une fonction définie par l’utilisateur (UDF), une fonction de table définie par l’utilisateur (UDTF) ou une procédure stockée.

Pour plus d’informations, reportez-vous à :

Détection de schémas pour JSON et CSV — Avant-première

Avec cette version, nous avons le plaisir d’annoncer la disponibilité de la fonction de détection de schémas pour JSON et CSV en avant-première. La fonction de détection de schéma utilise la fonction INFER_SCHEMA pour détecter automatiquement le schéma dans un ensemble de fichiers de données en zone de préparation et récupérer les définitions de colonnes. La fonction INFER_SCHEMA, généralement disponible, s’applique aux fichiers Apache Parquet, Apache Avro et ORC. Cette fonction de prévisualisation étend la prise en charge aux fichiers JSON et CSV.

Pour plus d’informations, reportez-vous à Détection de définitions de colonnes dans les fichiers de données semi-structurées en zone de préparation.

Évolution du schéma de table — Avant-première

Avec cette version, nous avons le plaisir d’annoncer la disponibilité de la fonction d’évolution du schéma de table en avant-première. La structure des tables dans Snowflake peut désormais évoluer automatiquement pour prendre en charge la structure des nouvelles données reçues des sources de données. Snowflake permet d’ajouter de nouvelles colonnes ou de supprimer la contrainte NOT NULL pour les colonnes manquantes dans les nouveaux fichiers de données. Snowflake prend également en charge la suppression de colonnes ou la modification du type de données, de la longueur ou de la précision des colonnes existantes.

Pour permettre l’évolution du schéma d’une table, vous pouvez définir le paramètre ENABLE_SCHEMA_EVOLUTION sur TRUE lorsque vous créez ou modifiez une table.

Pour plus d’informations, reportez-vous à Évolution du schéma de table.

Mises à jour de sécurité

Contrôle d’accès : nouveau privilège pour la délégation de la gestion des entrepôts — Avant-première

Avec cette version, nous sommes heureux d’annoncer en avant-première l’introduction d’un nouveau privilège pour la gestion des entrepôts.

Si vous devez déléguer à un rôle personnalisé la capacité de modifier, suspendre ou reprendre un entrepôt de votre compte, vous pouvez accorder le privilège MANAGE WAREHOUSES à ce rôle. L’attribution du privilège MANAGE WAREHOUSES équivaut à l’attribution des privilèges MODIFY, MONITOR et OPERATE sur tous les entrepôts du compte.

Pour plus d’informations, reportez-vous à Délégation de la gestion des entrepôts.

Mises à jour SQL

Nouvelles fonctions SQL

Les fonctions suivantes sont désormais disponibles avec cette version :

Catégorie de fonction

Nouvelle fonction

Description

Fonctions géospatiales (Transformation)

ST_TRANSFORM

Convertit un objet GEOMETRY d’un système de référence spatiale (SRS) à un autre.

Cette fonction est une fonction disponible en avant-première.

Amélioration des performances pour les instructions SELECT avec les clauses LIMIT et ORDER BY — Disponibilité générale

Avec cette version, nous avons le plaisir d’annoncer que les performances de certaines instructions SELECT de longue durée contenant à la fois des clauses LIMIT et ORDER BY ont été considérablement améliorées. Cette amélioration est immédiatement disponible pour tous les clients, sans frais supplémentaires.

L’amélioration consiste à nettoyer les micropartitions qui ne peuvent pas affecter les résultats de ces requêtes « Top K ». Le nettoyage supplémentaire s’applique aux requêtes dans lesquelles une valeur représentée par un nombre entier (horodatage ou nombre entier, ou variante explicitement convertie en nombre entier, mais pas une expression) est la première ou la seule colonne spécifiée dans la clause ORDER BY. Si la requête contient une clause JOIN, la colonne ORDER BY doit provenir de la table des faits (ou côté sonde), généralement la plus grande des deux tables.

Les requêtes portant sur de petites tables ne bénéficient généralement pas de cette amélioration. Les requêtes qui renvoient moins de lignes que le nombre de lignes spécifié dans la clause LIMIT ou qui utilisent des agrégations n’en bénéficient pas non plus.

Notez que ce ne sont pas toutes les requêtes, ni même toutes les requêtes qui répondent à ces exigences, qui en bénéficieront.

Pour plus d’informations sur les micro-partitions et le nettoyage des requêtes, reportez-vous à Micro-partitions et clustering de données.

Prise en charge de Python 3.10 dans Snowpark, dans les UDFs, dans les UDTFs et dans les procédures stockées — Avant-première

Avec cette version, nous avons le plaisir d’annoncer la prise en charge de Python 3.10 dans Snowpark Python, dans les UDFs Python, dans les UDTFs Python et dans les procédures stockées Python en tant que fonctionnalité en avant-première pour tous les comptes.

Pour plus d’informations, reportez-vous à :

Prise en charge de Python 3.9 dans Snowpark, dans les UDFs et dans les procédures stockées — Avant-première

Avec cette version, nous avons le plaisir d’annoncer la prise en charge de Python 3.9 dans Snowpark Python, dans les UDFs et dans les procédures stockées Python en tant que fonctionnalité en avant-premère pour tous les comptes.

Pour plus d’informations, reportez-vous à :

Les UDFs, les UDTFs et les procédures stockées prennent en charge la transmission d’arguments par nom

Lors de l’appel d’une UDF, d’une UDTF ou d’une procédure stockée, vous pouvez désormais transmettre des arguments par nom, en plus de la position.

Par exemple, supposons que vous ayez créé une UDF avec l’instruction suivante :

CREATE OR REPLACE FUNCTION add_numbers (n1 NUMBER, n2 NUMBER)
  RETURNS NUMBER
  AS 'n1 + n2';
Copy

Pour transmettre les arguments par leur nom, indiquez le nom de l’argument suivi de => et de la valeur de l’argument. Par exemple :

SELECT add_numbers(n1 => 10, n2 => 5);
Copy

Vous pouvez transmettre les arguments dans n’importe quel ordre :

SELECT add_numbers(n2 => 5, n1 => 10);
Copy

Pour plus d’informations, reportez-vous à :

S’il existe plusieurs fonctions ou procédures portant le même nom, ayant le même nombre d’arguments et des types de données différents pour les arguments, vous pouvez spécifier les noms des arguments dans l’appel afin d’indiquer quelle fonction ou procédure doit être exécutée. Les noms des arguments que vous spécifiez dans l’appel sont prioritaires sur les positions des arguments. Pour plus d’informations, reportez-vous à Surcharge de procédures et de fonctions.

Enfin, les fonctions intégrées suivantes permettent de transmettre des arguments par leur nom :

Mises à jour de la science des données

Travailler avec les fonctions ML à venir de Snowflake

Cette version introduit un nouveau schéma « ML » dans la base de données Snowflake, ainsi qu’un rôle de base de données ML_USER SNOWFLAKE, qui est accordé au rôle PUBLIC dans tous les comptes Snowflake contenant une base de données SNOWFLAKE partagée.

Pour plus d’informations, reportez-vous à :

Le schéma, les rôles et les privilèges prennent en charge des fonctions qui seront mises à disposition en avant-première publique lors du Snowflake Summit 2023.

Mises à jour de l’organisation

Vue ACCOUNTS (utilisation de l’organisation) — Avant-première

Avec cette version, nous avons le plaisir d’annoncer la disponibilité de la vue ACCOUNTS dans le schéma ORGANIZATION_USAGE en avant-première. La vue ACCOUNTS permet à un administrateur d’organisation d’obtenir des détails sur les comptes d’une organisation, y compris les comptes supprimés au cours de l’année écoulée.

Pour plus d’informations, reportez-vous à Vue ACCOUNTS.

Mises à jour du chargement des données

Prise en charge des REPLACE_INVALID_CHARACTERS pour Avro, Parquet, Orc et XML

Avec cette version, nous avons le plaisir de vous annoncer que les commandes COPY INTO et CREATE EXTERNAL TABLE prennent en charge l’option de format de fichier REPLACE_INVALID_CHARACTERS pour Avro, Parquet, Orc et XML. Auparavant, cette option de format de fichier ne fonctionnait qu’avec CSV et JSON.

Pour plus d’informations, reportez-vous à CREATE FILE FORMAT.

Mises à jour de la gouvernance des données

Politique de masquage basée sur des balises : prise en charge de la base de données et du schéma — Avant-première

Avec cette version, nous avons le plaisir de vous annoncer en avant-première la possibilité de définir une politique de masquage basée sur des balises sur une base de données et un schéma. Cette mise à jour permet aux ingénieurs des données de protéger toutes les colonnes d’un schéma ou d’une base de données lorsque le type de données de la colonne correspond au type de données de la politique définie sur la balise. En outre, une nouvelle colonne est protégée lorsque son type de données correspond au type de données de la politique définie pour la balise. La définition de la politique de masquage basée sur les balises dans la base de données ou le schéma simplifie la gestion de la protection des données, car vous pouvez définir la politique basée sur les balises une seule fois et ne pas avoir à définir une politique de masquage pour chaque colonne de la base de données ou du schéma.

Pour plus d’informations, reportez-vous à Politiques de masquage basées sur les balises.

Historique des accès : suivez les objets modifiés par une opération DDL — Avant-première

Avec cette version, nous avons le plaisir de vous annoncer en avant-première la possibilité de suivre les objets modifiés par une opération DDL dans la vue ACCESS_HISTORY Account Usage. Ces opérations comprennent :

  • Suivre l’évolution des attributions de balises et de politiques.

  • Suivre le cycle de vie des tables et des colonnes.

La colonne object_modified_by_ddl enregistre ces changements. Vous pouvez utiliser cette colonne pour améliorer vos pratiques d’audit des données et détecter de nouveaux objets à classer pour répondre aux exigences de détection de PII.

Pour plus d’informations, reportez-vous à Historique des accès.

Mises à jour de l’interface Web

Charger des fichiers en zone de préparation dans une table — Disponibilité générale

Avec cette version, nous avons le plaisir d’annoncer la disponibilité générale du chargement de fichiers en zone de préparation de fichiers dans une table en utilisant Snowsight.

Pour plus d’informations, reportez-vous à Charger un fichier depuis une zone de préparation dans une table existante.

Les nouvelles organisations n’ont que accès à Snowsight

Depuis le 30 mai 2023, les nouvelles organisations de Snowflake n’ont accès qu’à Snowsight et n’ont plus accès à la console classique.

Pour plus d’informations, reportez-vous à À propos de la mise à niveau de Snowsight.