Février 2022¶
Les nouvelles fonctionnalités, les changements de comportement et les mises à jour (améliorations, corrections, etc.) suivants ont été introduits ce mois-ci. Si vous avez des questions sur ces ajouts, veuillez contacter le support Snowflake.
Important
Chaque version peut inclure des mises à jour nécessitant l’actualisation de l’interface Web.
En règle générale, pour éviter que ces mises à jour nuisent à votre utilisation, nous vous recommandons d’actualiser l’interface Web après le déploiement de chaque version de Snowflake.
Dans ce chapitre :
Nouvelles fonctionnalités¶
UDTFs Java sur Amazon Web Services — Disponibilité générale¶
Avec cette version, Snowflake a le plaisir d’annoncer la disponibilité générale de la prise en charge des UDTFs Java (fonctions tabulaires définies par l’utilisateur) sur Amazon Web Services (AWS).
Les UDTFs Java étendent les capacités de développement natives de Snowflake en combinant les avantages des fonctions de table avec la puissance, la flexibilité et la facilité de la programmation en Java.
Pour plus d’informations, voir UDFs Java tabulaires (UDTFs).
Classification des données — Avant-première¶
Avec cette version, Snowflake est heureux d’annoncer la disponibilité en avant-première de la classification des données pour tous les comptes utilisant Snowflake Enterprise Edition (ou une version supérieure).
La classification permet de catégoriser les données potentiellement personnelles et/ou sensibles stockées dans les tables et les vues Snowflake, qui peuvent ensuite être utilisées pour permettre une variété de cas d’utilisation de gouvernance, partage et confidentialité des données, notamment :
Classification des données PII (informations d’identification personnelle).
Gestion des politiques pour définir et contrôler l’accès aux données privées.
Anonymisation des données personnelles.
Pour plus d’informations, voir Introduction à la classification.
Dépendances d’objets — Avant-première¶
Avec cette version, Snowflake a le plaisir d’annoncer la prise en charge en avant-première des dépendances d’objets. Une dépendance d’objet signifie que pour pouvoir opérer sur un objet, l’objet sur lequel on opère doit référencer des métadonnées pour lui-même ou référencer des métadonnées pour au moins un autre objet.
Snowflake réalise un suivi des dépendances d’objets dans la vue OBJECT_DEPENDENCIES Account Usage. Pour découvrir les dépendances d’objets, interrogez la vue OBJECT_DEPENDENCIES.
Pour plus d’informations, voir Dépendances d’objets.
Procédures stockées Snowpark — Avant-première¶
Avec cette version, nous avons le plaisir d’annoncer la prise en charge des procédures stockées Snowpark, ce qui vous permet d’écrire des procédures stockées en Scala en utilisant l’API Snowpark.
Dans votre procédure stockée, vous pouvez utiliser l’API Snowpark pour Scala pour héberger vos pipelines de données dans Snowflake. Par exemple, vous pouvez écrire des procédures stockées dans les cas où vous devez exécuter votre code Snowpark sans lancer une application client (par exemple, à partir d’une tâche).
Nouvelles régions¶
Nous avons le plaisir d’annoncer la disponibilité immédiate de la nouvelle région suivante :
Plate-forme Cloud |
Région |
---|---|
Microsoft Azure |
UAE Nord (Dubaï) |
Avec l’ajout de cette région, Snowflake prend désormais en charge 30 régions du monde sur trois plates-formes de Cloud (AWS, GCP et Azure), dont trois régions qui répondent à la conformité avec les réglementations gouvernementales US.
La nouvelle région prend en charge toutes les éditions de Snowflake. Vous pouvez provisionner les comptes initiaux dans la région par le biais du libre-service ou d’un représentant de Snowflake.
Mises à jour SQL¶
Account Usage : nouvelles vues¶
La vue suivante dans le schéma ACCOUNT_USAGE est maintenant disponible avec cette version :
Vue |
Description |
---|---|
Cette vue ACCOUNT_USAGE affiche une ligne pour chaque dépendance d’objet. Par exemple, en créant une vue à partir d’une seule table, la vue dépend de la table. Snowflake renvoie une ligne pour enregistrer la dépendance de la vue sur la table. Pour plus d’informations, voir Dépendances d’objets — Avant-première (dans ce chapitre). |
Mises à jour du chargement des données¶
Snowpipe : chargements automatisés en utilisant les notifications d’événements de Google Cloud Storage — Disponibilité générale¶
Avec cette version, nous avons le plaisir d’annoncer la disponibilité générale des chargements de données Snowpipe déclenchés par les notifications d’événements Google Cloud Storage (GCS) délivrées à l’aide de Google Cloud Pub/Sub (c’est-à-dire « intégration automatique Snowpipe pour GCS »).
Notez que l’intégration automatique Snowpipe pour le stockage blob Amazon S3 ou Microsoft Azure est déjà disponible pour tous.
Mises à jour des pipelines de données¶
Tâches : exécution manuelle des cycles — Avant-première¶
Avec cette version, nous avons le plaisir d’annoncer la disponibilité en avant-première de la possibilité d’exécuter manuellement une seule exécution d’une tâche planifiée (c’est-à-dire une tâche autonome ou une tâche racine dans une arborescence de tâches). L’exécution d’un cycle de tâche racine déclenche une exécution en cascade des tâches enfants de l’arborescence, comme si la tâche racine s’était exécutée selon son calendrier défini. Auparavant, une tâche planifiée ne pouvait démarrer que lors de sa prochaine exécution planifiée.
Cette fonctionnalité est mise en œuvre par le biais d’une nouvelle commande SQL, EXECUTE TASK, qui peut être exécutée par le propriétaire de la tâche (c’est-à-dire le rôle qui a le privilège OWNERSHIP sur les tâches) ou tout rôle qui a le privilège OPERATE sur les tâches. La commande SQL déclenche l’exécution asynchrone d’une tâche.
La commande EXECUTE TASK est utile pour tester des tâches autonomes nouvelles ou modifiées avant de les intégrer dans une planification de production. Appelez cette commande SQL dans des scripts ou des procédures stockées, ou exécutez la commande à l’aide d’outils ou de services tiers pour intégrer des tâches dans des pipelines de données externes.
Mises à jour du data lake¶
Prise en charge des tables externes pour Delta Lake — Avant-première¶
Avec cette version, nous avons le plaisir d’annoncer en avant-première la prise en charge de Delta Lake dans les tables externes. Delta Lake est un format de table sur votre data lake qui prend en charge les transactions ACID (atomicité, cohérence, isolation, durabilité), entre autres fonctionnalités. Toutes les données de Delta Lake sont stockées au format Apache Parquet.
Interrogez les fichiers Parquet dans un Delta Lake en créant des tables externes qui font référence à vos emplacements de stockage dans le Cloud améliorés avec Delta Lake.
Les fonctionnalités disponibles en avant-première sont destinées à des fins d’évaluation et de test et ne sont pas recommandées pour une utilisation en production.
Mises à jour du partage des données¶
Mises à jour des écosystèmes¶
API SQL : mises à jour des points de terminaison¶
Avec cette version, les points de terminaison pour les API SQL incluent maintenant la version de l’API. Les points de terminaison mis à jour sont :
/api/v2/statements/
/api/v2/statements/statementHandle
/api/v2/statements/statementHandle/cancel
Lorsque vous envoyez une requête à ces nouveaux points de terminaison, vous n’avez pas besoin de définir le champ format
sur jsonv2
dans le champ resultSetMetaData
. Si le champ format
est défini dans la requête, l’API SQL ignore le champ.
La version ancienne et obsolète de l’API SQL ne prend pas en charge les modifications des points de terminaison ou le champ format
. Lorsque vous utilisez cette version de l’API SQL, vous devez utiliser les points de terminaison d’origine et fournir le champ format
dans le cadre de la requête.
API SQL : prise en charge des récupérations simultanées¶
Avec cette version, l’API SQL supprime les limitations sur la récupération des résultats de manière simultanée (c’est-à-dire en parallèle avec plusieurs threads). L’API SQL prend en charge les requêtes provenant de plusieurs threads.
Cette modification n’est pas applicable à l’ancienne version obsolète de l’API SQL.