Catégories :

Table, vue et séquence DDL

ALTER TABLE

Modifie les propriétés, les colonnes ou les contraintes d’une table existante.

Voir aussi :

CREATE TABLE , SHOW TABLES

Dans ce chapitre :

Syntaxe

ALTER TABLE [ IF EXISTS ] <name> RENAME TO <new_table_name>

ALTER TABLE [ IF EXISTS ] <name> SWAP WITH <target_table_name>

ALTER TABLE [ IF EXISTS ] <name> { clusteringAction | tableColumnAction | constraintAction  }

ALTER TABLE [ IF EXISTS ] <name> extTableColumnAction

ALTER TABLE [ IF EXISTS ] <name> searchOptimizationAction

ALTER TABLE [ IF EXISTS ] <name> SET
  [ STAGE_FILE_FORMAT = ( { FORMAT_NAME = '<file_format_name>' | TYPE = { CSV | JSON | AVRO | ORC | PARQUET | XML } [ formatTypeOptions ] } ) ]
  [ STAGE_COPY_OPTIONS = ( copyOptions ) ]
  [ DATA_RETENTION_TIME_IN_DAYS = <num> ]
  [ CHANGE_TRACKING = { TRUE | FALSE  } ]
  [ DEFAULT_DDL_COLLATION = '<collation_specification>' ]
  [ COMMENT = '<string_literal>' ]

ALTER TABLE [ IF EXISTS ] <name> UNSET {
                                       DATA_RETENTION_TIME_IN_DAYS |
                                       CHANGE_TRACKING             |
                                       DEFAULT_DDL_COLLATION       |
                                       COMMENT
                                       }
                                       [ , ... ]

Où :

clusteringAction ::=
  {
     CLUSTER BY ( <expr> [ , <expr> , ... ] )
   | RECLUSTER [ MAX_SIZE = <budget_in_bytes> ] [ WHERE <condition> ]
     /* RECLUSTER is deprecated */
   | { SUSPEND | RESUME } RECLUSTER
   | DROP CLUSTERING KEY
  }
tableColumnAction ::=
  {
     ADD COLUMN <col_name> <col_type>
        [ { DEFAULT <expr> | { AUTOINCREMENT | IDENTITY } [ { ( <start_num> , <step_num> ) | START <num> INCREMENT <num> } ] } ]
                            /* AUTOINCREMENT (or IDENTITY) supported only for columns with numeric data types (NUMBER, INT, FLOAT, etc.). */
                            /* Also, if the table is not empty (i.e. rows exist in the table), only DEFAULT can be altered.               */
        [ inlineConstraint ]
   | RENAME COLUMN <col_name> TO <new_col_name>

   | ALTER | MODIFY [ ( ]
                            [ COLUMN ] <col1_name> DROP DEFAULT
                          , [ COLUMN ] <col1_name> SET DEFAULT <seq_name>.NEXTVAL
                          , [ COLUMN ] <col1_name> { [ SET ] NOT NULL | DROP NOT NULL }
                          , [ COLUMN ] <col1_name> [ [ SET DATA ] TYPE ] <type>
                          , [ COLUMN ] <col1_name> COMMENT '<string>'
                          , COLUMN <col1_name> [UN]SET MASKING POLICY <policy_name>
                        [ , [ COLUMN ] <col2_name> ... ]
                        [ , ... ]
                    [ ) ]
   | DROP [ COLUMN ] <col1_name> [, <col2_name> ... ]
  }

  inlineConstraint ::=
    [ NOT NULL ]
    [ CONSTRAINT <constraint_name> ]
    { UNIQUE | PRIMARY KEY | { [ FOREIGN KEY ] REFERENCES <ref_table_name> [ ( <ref_col_name> ) ] } }
    [ <constraint_properties> ]

Pour une syntaxe détaillée et des exemples pour modifier des colonnes, voir ALTER TABLE … ALTER COLUMN. .

Pour une syntaxe détaillée et des exemples de création/modification de contraintes en ligne, voir CREATE | ALTER TABLE … CONSTRAINT.

extTableColumnAction ::=
  {
     ADD COLUMN ( <col_name> <col_type> AS <expr> )

   | RENAME COLUMN <col_name> TO <new_col_name>

   | DROP [ COLUMN ] <col1_name> [, <col2_name> ... ]
  }
constraintAction ::=
  {
     ADD outoflineConstraint
   | RENAME CONSTRAINT <constraint_name> TO <new_constraint_name>
   | { ALTER | MODIFY } { CONSTRAINT <constraint_name> | PRIMARY KEY | UNIQUE | FOREIGN KEY } ( <col_name> [ , ... ] )
                         [ [ NOT ] ENFORCED ] [ VALIDATE | NOVALIDATE ]
   | DROP { CONSTRAINT <constraint_name> | PRIMARY KEY | UNIQUE | FOREIGN KEY } ( <col_name> [ , ... ] )
                         [ CASCADE | RESTRICT ]
  }

  outoflineConstraint ::=
    [ CONSTRAINT <constraint_name> ]
    {
       UNIQUE [ ( <col_name> [ , <col_name> , ... ] ) ]
     | PRIMARY KEY [ ( <col_name> [ , <col_name> , ... ] ) ]
     | [ FOREIGN KEY ] [ ( <col_name> [ , <col_name> , ... ] ) ]
                          REFERENCES <ref_table_name> [ ( <ref_col_name> [ , <ref_col_name> , ... ] ) ]
    }
    [ <constraint_properties> ]

Pour une syntaxe détaillée et des exemples de création/modification des contraintes hors ligne, voir CREATE | ALTER TABLE … CONSTRAINT.

searchOptimizationAction ::=
  {
     ADD SEARCH OPTIMIZATION
   | DROP SEARCH OPTIMIZATION
  }

Pour plus de détails, voir Actions d’optimisation de la recherche (searchOptimizationAction).

formatTypeOptions ::=
-- If TYPE = CSV
     COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
     RECORD_DELIMITER = '<character>' | NONE
     FIELD_DELIMITER = '<character>' | NONE
     FILE_EXTENSION = '<string>'
     SKIP_HEADER = <integer>
     SKIP_BLANK_LINES = TRUE | FALSE
     DATE_FORMAT = '<string>' | AUTO
     TIME_FORMAT = '<string>' | AUTO
     TIMESTAMP_FORMAT = '<string>' | AUTO
     BINARY_FORMAT = HEX | BASE64 | UTF8
     ESCAPE = '<character>' | NONE
     ESCAPE_UNENCLOSED_FIELD = '<character>' | NONE
     TRIM_SPACE = TRUE | FALSE
     FIELD_OPTIONALLY_ENCLOSED_BY = '<character>' | NONE
     NULL_IF = ( '<string>' [ , '<string>' ... ] )
     ERROR_ON_COLUMN_COUNT_MISMATCH = TRUE | FALSE
     REPLACE_INVALID_CHARACTERS = TRUE | FALSE
     VALIDATE_UTF8 = TRUE | FALSE
     EMPTY_FIELD_AS_NULL = TRUE | FALSE
     SKIP_BYTE_ORDER_MARK = TRUE | FALSE
     ENCODING = '<string>' | UTF8
-- If TYPE = JSON
     COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
     DATE_FORMAT = '<string>' | AUTO
     TIME_FORMAT = '<string>' | AUTO
     TIMESTAMP_FORMAT = '<string>' | AUTO
     BINARY_FORMAT = HEX | BASE64 | UTF8
     TRIM_SPACE = TRUE | FALSE
     NULL_IF = ( '<string>' [ , '<string>' ... ] )
     FILE_EXTENSION = '<string>'
     ENABLE_OCTAL = TRUE | FALSE
     ALLOW_DUPLICATE = TRUE | FALSE
     STRIP_OUTER_ARRAY = TRUE | FALSE
     STRIP_NULL_VALUES = TRUE | FALSE
     IGNORE_UTF8_ERRORS = TRUE | FALSE
     SKIP_BYTE_ORDER_MARK = TRUE | FALSE
-- If TYPE = AVRO
     COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
     TRIM_SPACE = TRUE | FALSE
     NULL_IF = ( '<string>' [ , '<string>' ... ] )
-- If TYPE = ORC
     TRIM_SPACE = TRUE | FALSE
     NULL_IF = ( '<string>' [ , '<string>' ... ] )
-- If TYPE = PARQUET
     COMPRESSION = AUTO | LZO | SNAPPY | NONE
     SNAPPY_COMPRESSION = TRUE | FALSE
     BINARY_AS_TEXT = TRUE | FALSE
     TRIM_SPACE = TRUE | FALSE
     NULL_IF = ( '<string>' [ , '<string>' ... ] )
-- If TYPE = XML
     COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
     IGNORE_UTF8_ERRORS = TRUE | FALSE
     PRESERVE_SPACE = TRUE | FALSE
     STRIP_OUTER_ELEMENT = TRUE | FALSE
     DISABLE_SNOWFLAKE_DATA = TRUE | FALSE
     DISABLE_AUTO_CONVERT = TRUE | FALSE
     SKIP_BYTE_ORDER_MARK = TRUE | FALSE
     TRIM_SPACE = TRUE | FALSE
     NULL_IF = ( '<string>' [ , '<string>' ... ] )
copyOptions ::=
     ON_ERROR = { CONTINUE | SKIP_FILE | SKIP_FILE_<num> | SKIP_FILE_<num>% | ABORT_STATEMENT }
     SIZE_LIMIT = <num>
     PURGE = TRUE | FALSE
     RETURN_FAILED_ONLY = TRUE | FALSE
     MATCH_BY_COLUMN_NAME = CASE_SENSITIVE | CASE_INSENSITIVE | NONE
     ENFORCE_LENGTH = TRUE | FALSE
     TRUNCATECOLUMNS = TRUE | FALSE
     FORCE = TRUE | FALSE

Paramètres

nom

Identifiant de la table à modifier. Si l’identificateur contient des espaces ou des caractères spéciaux, toute la chaîne doit être délimitée par des guillemets doubles. Les identificateurs entre guillemets doubles sont également sensibles à la casse.

RENAME TO nom_nouvelle_table

Renomme la table spécifiée avec un nouvel identifiant qui n’est actuellement utilisé par aucune autre table du schéma.

Pour plus de détails sur les identificateurs de table, voir Exigences relatives à l’identificateur.

Lorsqu’un objet (table, colonne, etc.) est renommé, les autres objets qui le référencent doivent être mis à jour avec le nouveau nom.

SWAP WITH nom_table_cible

Permet d’échanger tous les contenus et les métadonnées entre deux tables spécifiées, y compris toutes les contraintes d’intégrité définies pour les tables. Permet également d’échanger toutes les autorisations de contrôle d’accès. Les deux tables sont essentiellement renommées en une seule transaction.

Note

Pour renommer une table ou intervertir deux tables, le rôle utilisé pour effectuer l’opération doit avoir les privilèges OWNERSHIP sur la ou les tables. De plus, renommer une table nécessite le privilège CREATE TABLE sur le schéma de la table.

SET ...

Spécifie un (ou plusieurs) paramètre(s)/propriété(s) à définir pour la table (séparés par des espaces, des virgules ou de nouvelles lignes).

STAGE_FILE_FORMAT = ( FORMAT_NAME = 'nom_format_fichier' ) ou . STAGE_FILE_FORMAT = ( TYPE = CSV | JSON | AVRO | ORC | PARQUET | XML [ ... ] )

Modifie le format de fichier de la table (pour le chargement et le déchargement des données), qui peut être, au choix :

FORMAT_NAME = nom_format_fichier

Spécifie un objet de format de fichier existant à utiliser pour le chargement/déchargement de données. L’objet de format de fichier spécifié détermine le type de format (CSV, JSON, etc.) et les autres options de format des fichiers de données.

Notez qu’aucune option de format supplémentaire n’est spécifiée dans la chaîne. Au lieu de cela, l’objet de format de fichier nommé définit les autres options de format de fichier utilisées pour charger/décharger les données. Pour plus d’informations, voir CREATE FILE FORMAT.

TYPE = CSV | JSON | AVRO | ORC | PARQUET | XML [ ... ]

Spécifie le type de fichiers à charger/décharger. D’autres options spécifiques au format peuvent être incluses dans la chaîne. Pour plus d’informations, voir les Options de type de format (dans ce chapitre).

Note

FORMAT_NAME et TYPE s’excluent mutuellement ; vous ne pouvez spécifier que l’un ou l’autre pour une table.

STAGE_COPY_OPTIONS = ( ... )

Modifie les options de copie à utiliser lors du chargement de données à partir de fichiers dans la table. Pour plus de détails, voir Options de copie (dans ce chapitre).

DATA_RETENTION_TIME_IN_DAYS = nb

Paramètre au niveau de l’objet qui modifie la période de conservation de la table pour Time Travel. Pour plus de détails, voir Comprendre et utiliser la fonction « Time Travel » et Utilisation de tables temporaires et transitoires.

Pour une description détaillée de ce paramètre, ainsi que pour plus d’informations sur les paramètres d’objet, voir Paramètres.

Valeurs :

  • Édition Standard : 0 ou 1

  • Édition Enterprise :

    • 0 à 90 pour les tables permanentes

    • 0 ou 1 pour les tables temporaires et transitoires

Note

Une valeur de 0 désactive effectivement Time Travel pour la table.

CHANGE_TRACKING = TRUE | FALSE

Spécifie d’activer ou de désactiver le suivi des modifications sur la table.

  • TRUE active le suivi des modifications sur la table. Cette option ajoute une paire de colonnes masquées à la table source et commence à stocker les métadonnées de suivi des modifications dans les colonnes. Ces colonnes consomment une petite quantité de stockage.

    Les métadonnées de suivi des modifications peuvent être interrogées à l’aide de la clause CHANGES pour les instructions SELECT, ou en créant et en interrogeant un ou plusieurs flux sur la table.

  • FALSE désactive le suivi des modifications sur la table. La paire de colonnes masquées est détruite de la table.

DEFAULT_DDL_COLLATION = 'spécification_classement'

Spécifie une spécification de classement par défaut pour toutes les nouvelles colonnes ajoutées à la table.

La définition du paramètre ne modifie pas la spécification de classement des colonnes existantes.

Pour plus de détails sur le paramètre, voir DEFAULT_DDL_COLLATION.

COMMENT = 'litéral_chaine'

Ajoute un commentaire ou écrase le commentaire existant pour la table.

UNSET ...

Spécifie une (ou plusieurs) propriété(s)/paramètres à désactiver pour la table, ce qui les réinitialise à leurs valeurs par défaut :

  • DATA_RETENTION_TIME_IN_DAYS

  • CHANGE_TRACKING

  • DEFAULT_DDL_COLLATION

  • COMMENT

Note

Vous ne pouvez pas utiliser UNSET pour réinitialiser le format de fichier et les options de copie. Pour réinitialiser ces options, vous devez utiliser SET.

Action de clustering (clusteringAction)

CLUSTER BY ( expr [ , expr , ... ] )

Spécifie (ou modifie) une ou plusieurs colonnes de table ou expressions de colonne en tant que clé de clustering pour la table. Ce sont les colonnes/expressions pour lesquelles le clustering est assuré par le clustering automatique.

Important

Les clés de clustering ne sont pas recommandées ni conçues pour toutes les tables. Elles sont généralement intéressantes pour les tables très importantes (de plusieurs téraoctets).

Avant de spécifier une clé de clustering pour une table, consultez Fonctionnement des structures de table dans Snowflake.

RECLUSTER ...

Obsolète

Effectue un regroupement manuel et incrémentiel d’une table dont la clé de clustering est définie :

MAX_SIZE = budget_en_octets

Obsolète — utiliser un entrepôt plus grand pour obtenir un reclustering manuel plus efficace

Spécifie la limite supérieure de la quantité de données (en octets) dans la table à regrouper.

WHERE condition

Spécifie une condition ou une plage sur laquelle regrouper les données dans la table.

Note

Seuls les rôles avec le privilège OWNERSHIP ou INSERT sur une table peuvent regrouper la table.

SUSPEND | RESUME RECLUSTER

Active ou désactive Clustering automatique pour la table.

DROP CLUSTERING KEY

Détruit la clé de clustering pour la table.

Pour plus d’informations sur les clés de clustering et le reclustering à proprement parler, voir Fonctionnement des structures de table dans Snowflake.

Actions de la colonne de table (tableColumnAction)

ADD COLUMN nom_colonne type_données_colonne [ DEFAULT | AUTOINCREMENT ... ] [ ContrainteEnLigne ] [, ...]

Ajoute une nouvelle colonne, y compris l’ajout facultatif d’une contrainte par défaut et/ou en ligne pour la colonne, à la table :

Cette opération peut être effectuée sur plusieurs colonnes d’une même commande.

RENAME COLUMN nom_colonne to nouveau_nom_colonne

Renomme la colonne spécifiée en un nouveau nom qui n’est actuellement utilisé pour aucune autre colonne de la table.

Vous ne pouvez pas renommer une colonne qui fait partie d’une clé de clustering.

Lorsqu’un objet (table, colonne, etc.) est renommé, les autres objets qui le référencent doivent être mis à jour avec le nouveau nom.

ALTER | MODIFY [ COLUMN ] ...

Modifie une ou plusieurs propriétés pour une colonne. Cette opération peut être effectuée sur plusieurs colonnes dans la même commande, à l’exception de la modification d’une colonne pour définir ou annuler une politique de masquage. Pour plus d’informations sur cette exception, consultez Limitations de sécurité au niveau de la colonne.

Pour une syntaxe détaillée et des exemples pour modifier des colonnes, voir ALTER TABLE … ALTER COLUMN.

DROP COLUMN nom_colonne [ CASCADE | RESTRICT ]

Supprime la colonne spécifiée de la table.

La destruction d’une colonne est une opération comportant uniquement des métadonnées. Elle ne réécrit pas immédiatement la ou les micro-partitions et ne libère donc pas immédiatement l’espace utilisé par la colonne. En règle générale, l’espace d’une micro-partition est libéré lors de la réécriture de la micro-partition, généralement lorsqu’une écriture est effectuée en raison d’une opération DML (INSERT, UPDATE, DELETE) ou un re-clustering.

Actions de la colonne de table externe (extTableColumnAction)

Pour toutes les autres modifications de table externes, voir ALTER EXTERNAL TABLE.

ADD COLUMN ( <col_name> <col_type> AS <expr> ) [, ...]

Ajoute une nouvelle colonne à la table externe.

Cette opération peut être effectuée sur plusieurs colonnes d’une même commande.

RENAME COLUMN nom_colonne to nouveau_nom_colonne

Renomme la colonne spécifiée en un nouveau nom qui n’est actuellement utilisé pour aucune autre colonne de la table externe.

DROP COLUMN nom_colonne

Supprime la colonne spécifiée de la table externe.

Actions de contrainte (constraintAction)

ADD CONSTRAINT

Ajoute une contrainte d’intégrité hors ligne à une ou plusieurs colonnes de la table. Pour ajouter une contrainte en ligne (pour une colonne), voir Actions de la colonne (dans ce chapitre).

RENAME CONSTRAINT nom_contrainte TO nouveau_nom_contrainte

Renomme la contrainte spécifiée.

ALTER | MODIFY CONSTRAINT ...

Modifie les propriétés de la contrainte spécifiée.

DROP CONSTRAINT nom_contrainte | PRIMARY KEY | UNIQUE | FOREIGN KEY ( nom_colonne [ , ... ] ) [ CASCADE | RESTRICT ]

Détruit la contrainte spécifiée pour la colonne ou l’ensemble de colonnes spécifié.

Pour une syntaxe détaillée et des exemples d’ajout ou de modification de contraintes, voir CREATE | ALTER TABLE … CONSTRAINT.

Actions d’optimisation de la recherche (searchOptimizationAction)

ADD SEARCH OPTIMIZATION

Ajoute une optimisation de la recherche pour la table.

Remarque :

  • L’optimisation de la recherche peut être coûteuse à maintenir, en particulier si les données du tableau changent fréquemment. Pour plus d’informations, voir Gestion des coûts du service d’optimisation de la recherche.

  • Si vous essayez d’ajouter une optimisation de recherche sur une vue matérialisée, Snowflake renvoie un message d’erreur.

DROP SEARCH OPTIMIZATION

Supprime l’optimisation de la recherche du tableau.

Remarque :

  • Si une table a la propriété d’optimisation de recherche, alors le fait de supprimer et de rétablir la table préserve la propriété d’optimisation de recherche.

  • La suppression de la propriété d’optimisation de recherche d’une table puis son rétablissement entraînent le même coût que lors du premier ajout.

Options de type de format (formatTypeOptions)

Les options de type de format sont utilisées pour charger des données dans des tables et décharger des données depuis des tables.

En fonction du type de format de fichier spécifié (STAGE_FILE_FORMAT = ( TYPE = ... )), vous pouvez inclure une ou plusieurs des options suivantes, spécifiques au format (séparées par des espaces, des virgules ou de nouvelles lignes) :

TYPE = CSV

COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
Utilisation

Chargement et déchargement des données

Définition
  • Lors du chargement des données, spécifie l’algorithme de compression actuel pour le fichier de données. Snowflake utilise cette option pour détecter comment un fichier de données déjà compressé a été compressé afin que les données compressées dans le fichier puissent être extraites pour le chargement.

  • Lors du déchargement des données, compresse le fichier de données en utilisant l’algorithme de compression spécifié.

Valeurs

Valeurs prises en charge

Remarques

AUTO

Lors du chargement des données, l’algorithme de compression est détecté automatiquement, sauf pour les fichiers compressés par Brotli, qui ne peuvent actuellement pas être détectés automatiquement. Lors du déchargement des données, les fichiers sont automatiquement compressés en utilisant la valeur par défaut, qui est gzip.

GZIP

BZ2

BROTLI

Doit être spécifié lors du chargement/déchargement de fichiers compressés Brotli.

ZSTD

Zstandard v0.8 (et supérieur) est pris en charge.

DEFLATE

Fichiers compressés Deflate (avec en-tête zlib, RFC1950).

RAW_DEFLATE

Fichiers bruts compressés Deflate (sans en-tête, RFC1951).

NONE

Lors du chargement des données, indique que les fichiers n’ont pas été compressés. Lors du déchargement des données, spécifie que les fichiers déchargés ne sont pas compressés.

Par défaut

AUTO

RECORD_DELIMITER = 'caractère' | NONE
Utilisation

Chargement et déchargement des données

Définition

Un ou plusieurs caractères à un octet ou à plusieurs octets qui séparent les enregistrements dans un fichier d’entrée (chargement de données) ou un fichier déchargé (déchargement de données).

Accepte les séquences d’échappement courantes, les valeurs octales (préfixées par \\) ou les valeurs hexadécimales (préfixées par 0x). Par exemple, pour les enregistrements délimités par le caractère thorn (Þ), spécifiez la valeur octale (\\336) ou hexadécimale (0xDE). Accepte également une valeur de NONE.

Le délimiteur spécifié doit être un caractère UTF-8 valide et non une séquence aléatoire d’octets.

Les délimiteurs à plusieurs caractères sont également pris en charge ; cependant, le délimiteur pour RECORD_DELIMITER ou FIELD_DELIMITER ne peut pas être une sous-chaîne du délimiteur pour l’autre option de format de fichier (par exemple FIELD_DELIMITER = 'aa' RECORD_DELIMITER = 'aabb'). Le délimiteur est limité à un maximum de 20 caractères. Ne spécifiez pas les caractères utilisés pour les autres options de format de fichier, tels que ESCAPE ou ESCAPE_UNENCLOSED_FIELD.

Par défaut
Chargement des données

Caractère de nouvelle ligne. Notez que « nouvelle ligne » fait sens, de sorte que \r\n sera compris comme une nouvelle ligne pour les fichiers sur une plate-forme Windows.

Déchargement des données

Caractère de nouvelle ligne (\n).

FIELD_DELIMITER = 'caractère' | NONE
Utilisation

Chargement et déchargement des données

Définition

Un ou plusieurs caractères à un octet ou à plusieurs octets qui séparent les champs d’un fichier d’entrée (chargement de données) ou d’un fichier déchargé (déchargement de données).

Accepte les séquences d’échappement courantes, les valeurs octales (préfixées par \\) ou les valeurs hexadécimales (préfixées par 0x). Par exemple, pour les champs délimités par le caractère thorn (Þ), spécifiez la valeur octale (\\336) ou hexadécimale (0xDE). Accepte également une valeur de NONE.

Le délimiteur spécifié doit être un caractère UTF-8 valide et non une séquence aléatoire d’octets.

Les délimiteurs à plusieurs caractères sont également pris en charge ; cependant, le délimiteur pour RECORD_DELIMITER ou FIELD_DELIMITER ne peut pas être une sous-chaîne du délimiteur pour l’autre option de format de fichier (par exemple FIELD_DELIMITER = 'aa' RECORD_DELIMITER = 'aabb'). Le délimiteur est limité à un maximum de 20 caractères. Ne spécifiez pas les caractères utilisés pour les autres options de format de fichier, tels que ESCAPE ou ESCAPE_UNENCLOSED_FIELD.

Par défaut

virgule (,)

FILE_EXTENSION = 'chaîne' | NONE
Utilisation

Déchargement des données uniquement

Définition

Spécifie l’extension des fichiers déchargés dans une zone de préparation. Accepte toute extension. L’utilisateur est chargé de spécifier une extension de fichier qui peut être lue par tout logiciel ou service désiré.

Par défaut

null, ce qui signifie que l’extension du fichier est déterminée par le type de format : .csv[compression] , où compression est l’extension ajoutée par la méthode de compression, si COMPRESSION est défini.

Note

Si l’option de copie SINGLE est TRUE, alors la commande COPY décharge un fichier sans extension par défaut. Pour spécifier une extension de fichier, fournissez un nom et une extension de fichier dans le chemin emplacement_interne ou emplacement_externe (par ex. copy into @stage/data.csv).

SKIP_HEADER = entier
Utilisation

Chargement des données uniquement

Définition

Nombre de lignes au début du fichier à ignorer.

Notez que SKIP_HEADER n’utilise pas les valeurs RECORD_DELIMITER ou FIELD_DELIMITER pour déterminer la nature d’une ligne d’en-tête. Au lieu de cela, il ignore simplement le nombre spécifié de lignes délimitées par CRLF (retour chariot, saut de ligne) dans le fichier. RECORD_DELIMITER et FIELD_DELIMITER sont ensuite utilisés pour déterminer les lignes de données à charger.

Par défaut

0

SKIP_BLANK_LINES = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui indique d’ignorer toutes les lignes vides rencontrées dans les fichiers de données ; sinon, les lignes vides produisent une erreur de fin d’enregistrement (comportement par défaut).

Par défaut : FALSE

DATE_FORMAT = 'chaîne' | AUTO
Utilisation

Chargement et déchargement des données

Définition

Définit le format des valeurs de date dans les fichiers de données (chargement des données) ou la table (déchargement des données). Si une valeur n’est pas spécifiée ou est AUTO, la valeur du paramètre DATE_INPUT_FORMAT (chargement de données) ou DATE_OUTPUT_FORMAT (déchargement de données) est utilisée.

Par défaut

AUTO

TIME_FORMAT = 'chaîne' | AUTO
Utilisation

Chargement et déchargement des données

Définition

Définit le format des valeurs temporelles dans les fichiers de données (chargement des données) ou la table (déchargement des données). Si une valeur n’est pas spécifiée ou est AUTO, la valeur du paramètre TIME_INPUT_FORMAT (chargement de données) ou TIME_OUTPUT_FORMAT (déchargement de données) est utilisée.

Par défaut

AUTO

TIMESTAMP_FORMAT = chaîne' | AUTO
Utilisation

Chargement et déchargement des données

Définition

Définit le format des valeurs d’horodatage dans les fichiers de données (chargement des données) ou la table (déchargement des données). Si une valeur n’est pas spécifiée ou est AUTO, la valeur du paramètre TIMESTAMP_INPUT_FORMAT (chargement de données) ou TIMESTAMP_OUTPUT_FORMAT (déchargement de données) est utilisée.

Par défaut

AUTO

BINARY_FORMAT = HEX | BASE64 | UTF8
Utilisation

Chargement et déchargement des données

Définition

Définit le format d’encodage pour l’entrée ou la sortie binaire. L’option peut être utilisée pour charger ou décharger des données à partir de colonnes binaires dans une table.

Par défaut

HEX

ESCAPE = 'caractère' | NONE
Utilisation

Chargement et déchargement des données

Définition

Chaîne d’un caractère unique utilisée comme caractère d’échappement pour les valeurs de champ. Un caractère d’échappement appelle une autre interprétation sur les caractères suivants dans une séquence de caractères. Vous pouvez utiliser le caractère ESCAPE pour interpréter les instances des caractères FIELD_DELIMITER, RECORD_DELIMITER ou FIELD_OPTIONALLY_ENCLOSED_BY dans les données comme des littéraux. Le caractère d’échappement peut également être utilisé pour échapper les instances de lui-même dans les données.

Accepte les séquences d’échappement, les valeurs octales ou les valeurs hexadécimales courantes.

  • Lors du chargement des données, spécifie le caractère d’échappement pour les champs délimités. Spécifiez le caractère utilisé pour délimiter les champs en définissant FIELD_OPTIONALLY_ENCLOSED_BY.

  • Lors du déchargement des données, si cette option est activée, elle remplace le jeu de caractères d’échappement pour ESCAPE_UNENCLOSED_FIELD.

Par défaut

NONE

ESCAPE_UNENCLOSED_FIELD = 'caractère' | NONE
Utilisation

Chargement et déchargement des données

Définition

Chaîne d’un caractère unique utilisée comme caractère d’échappement pour les valeurs de champs non délimitées uniquement. Un caractère d’échappement appelle une autre interprétation sur les caractères suivants dans une séquence de caractères. Vous pouvez utiliser le caractère ESCAPE pour interpréter les instances des caractères FIELD_DELIMITER ou RECORD_DELIMITER dans les données comme des littéraux. Le caractère d’échappement peut également être utilisé pour échapper les instances de lui-même dans les données.

Accepte les séquences d’échappement, les valeurs octales ou les valeurs hexadécimales courantes.

Notez que lors du déchargement des données, si ESCAPE est défini, le jeu de caractères d’échappement pour cette option de format de fichier l’emporte sur cette option.

Par défaut

barre oblique inverse (\\)

TRIM_SPACE = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie s’il faut supprimer les espaces blancs des champs.

Par exemple, si votre logiciel de base de données externe contient des champs entre guillemets, mais insère un espace d’en-tête, Snowflake lit l’espace d’en-tête plutôt que le caractère guillemet comme début du champ (c’est-à-dire que les guillemets sont interprétés comme faisant partie de la chaîne des données du champ). Définissez cette option sur TRUE pour supprimer les espaces indésirables pendant le chargement des données.

Comme autre exemple, si les espaces d’en-tête ou de fin entourent des guillemets qui délimitent les chaînes de caractères, vous pouvez supprimer les espaces environnants en utilisant cette option et le caractère guillemet en utilisant l’option FIELD_OPTIONALLY_ENCLOSED_BY. Notez que tous les espaces entre les guillemets sont préservés. Par exemple, en supposant que FIELD_DELIMITER = '|' et FIELD_OPTIONALLY_ENCLOSED_BY = '"' :

|"Hello world"|    /* loads as */  >Hello world<
|" Hello world "|  /* loads as */  > Hello world <
| "Hello world" |  /* loads as */  >Hello world<

(les parenthèses dans cet exemple ne sont pas chargées ; elles sont utilisées pour délimiter le début et la fin des chaînes chargées)

Par défaut

FALSE

FIELD_OPTIONALLY_ENCLOSED_BY = 'caractère' | NONE
Utilisation

Chargement et déchargement des données

Définition

Caractère utilisé pour délimiter des chaînes. La valeur peut être NONE, un caractère guillemet simple (') ou un caractère guillemet double ("). Pour utiliser le caractère guillemet simple, utilisez la représentation octale ou hexadécimale (0x27) ou le double échappement en guillemet simple ('').

Lorsqu’un champ contient ce caractère, effectuez un échappement en utilisant le même caractère. Par exemple, si la valeur est le caractère de guillemet double et qu’un champ contient la chaîne A "B" C, effectuez un échappement des guillemets doubles comme suit :

A ""B"" C

Par défaut

NONE

NULL_IF = ( 'chaîne1' [ , 'chaîne2' , ... ] )
Utilisation

Chargement et déchargement des données

Définition

Chaîne utilisée pour les conversions entrante et sortante de SQL NULL :

  • Lors du chargement des données, Snowflake remplace ces chaînes de la source de chargement des données par SQL NULL. Pour spécifier plus d’une chaîne, mettez la liste des chaînes entre parenthèses et utilisez des virgules pour séparer chaque valeur.

    Par exemple :

    NULL_IF = ('\\N', 'NULL', 'NUL', '')

    Notez que cette option peut inclure des chaînes vides.

  • Lors du déchargement des données, Snowflake convertit les valeurs NULL SQL vers la première valeur de la liste.

Par défaut

\\N (c.-à-d. NULL, qui suppose que la valeur ESCAPE_UNENCLOSED_FIELD est \\)

ERROR_ON_COLUMN_COUNT_MISMATCH = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie s’il faut générer une erreur d’analyse si le nombre de colonnes délimitées (c’est-à-dire de champs) dans un fichier d’entrée ne correspond pas au nombre de colonnes de la table correspondante.

Si ce paramètre est réglé sur FALSE, aucune erreur n’est générée et le chargement continue. Si le fichier est chargé correctement :

  • Si le fichier d’entrée contient des enregistrements contenant plus de champs que de colonnes dans la table, les champs correspondants sont chargés par ordre d’occurrence dans le fichier et les autres champs ne sont pas chargés.

  • Si le fichier d’entrée contient des enregistrements avec moins de champs que de colonnes dans la table, les colonnes qui ne correspondent pas dans la table sont chargées avec des valeurs NULL.

Cette option suppose que tous les enregistrements du fichier d’entrée ont la même longueur (c’est-à-dire qu’un fichier contenant des enregistrements de longueur variable renvoie une erreur quelle que soit la valeur spécifiée pour ce paramètre).

Par défaut

TRUE

Note

Lors de la transformation des données pendant le chargement (c’est-à-dire, en utilisant une requête comme source pour la commande COPY), cette option est ignorée. Il n’est pas nécessaire que vos fichiers de données aient le même nombre et le même ordre de colonnes que votre table cible.

REPLACE_INVALID_CHARACTERS = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie s’il faut remplacer les caractères UTF-8 non valides par le caractère de remplacement Unicode ().

S’il est défini sur TRUE, Snowflake remplace les caractères UTF-8 non valides par le caractère de remplacement Unicode.

S’il est défini sur FALSE, l’opération de chargement génère une erreur lorsqu’un codage de caractères UTF-8 non valide est détecté.

Par défaut

FALSE

VALIDATE_UTF8 = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie s’il faut valider l’encodage des caractères UTF-8 dans les données de colonne de chaîne.

S’il est réglé sur TRUE, Snowflake valide l’encodage des caractères UTF-8 dans les données de colonne de chaîne. Lorsqu’un encodage de caractères UTF-8 non valide est détecté, la commande COPY produit une erreur.

Par défaut

TRUE

Important

Cette option n’est fournie que pour assurer une rétrocompatibilité avec les versions antérieures de Snowflake. Nous vous recommandons de conserver cette option à moins que l’assistance de Snowflake ne vous demande de la désactiver.

EMPTY_FIELD_AS_NULL = TRUE | FALSE
Utilisation

Chargement et déchargement des données

Définition
  • Lors du chargement de données, spécifie s’il faut insérer SQL NULL pour les champs vides dans un fichier d’entrée, qui sont représentés par deux délimiteurs successifs (par ex., ,,).

    Si l’option est définie sur FALSE, Snowflake essaie de placer un champ vide dans le type de colonne correspondant. Une chaîne vide est insérée dans les colonnes de type STRING. Pour les autres types de colonne, la commande COPY produit une erreur.

  • Lors du déchargement des données, cette option est utilisée en combinaison avec FIELD_OPTIONALLY_ENCLOSED_BY. Lorsque FIELD_OPTIONALLY_ENCLOSED_BY = NONE, le paramètre EMPTY_FIELD_AS_NULL = FALSE spécifie de décharger les chaînes vides dans les tables pour vider les valeurs de chaîne sans guillemets entourant les valeurs de champ.

    S’il est défini sur TRUE, FIELD_OPTIONALLY_ENCLOSED_BY doit spécifier un caractère pour entourer les chaînes.

Par défaut

TRUE

SKIP_BYTE_ORDER_MARK = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie s’il faut ignorer le BOM (marque d’ordre d’octet), s’il est présent dans un fichier de données. Une marque BOM est un code de caractère placé au début d’un fichier de données qui définit l’ordre des octets et la forme de l’encodage.

S’il est réglé sur FALSE, Snowflake reconnaît n’importe quel BOM dans les fichiers de données, ce qui pourrait entraîner une erreur BOM ou une fusion dans la première colonne du tableau.

Par défaut

TRUE

ENCODING = 'chaîne'
Utilisation

Chargement des données uniquement

Définition

Chaîne (constante) qui spécifie le jeu de caractères des données sources lors du chargement des données dans une table.

Jeu de caractères

Valeur ENCODING 

Langues acceptées

Remarques

Big5

BIG5

Chinois traditionnel

EUC-JP

EUCJP

Japonais

EUC-KR

EUCKR

Coréen

GB18030

GB18030

Chinois

IBM420

IBM420

Arabe

IBM424

IBM424

Hébreu

ISO-2022-CN

ISO2022CN

Chinois simplifié

ISO-2022-JP

ISO2022JP

Japonais

ISO-2022-KR

ISO2022KR

Coréen

ISO-8859-1

ISO88591

Allemand, anglais, danois, français, italien, norvégien, néerlandais, portugais, suédois

ISO-8859-2

ISO88592

Tchèque, hongrois, polonais, roumain

ISO-8859-5

ISO88595

Russe

ISO-8859-6

ISO88596

Arabe

ISO-8859-7

ISO88597

Grec

ISO-8859-8

ISO88598

Hébreu

ISO-8859-9

ISO88599

Turc

KOI8-R

KOI8R

Russe

Shift_JIS

SHIFTJIS

Japonais

UTF-8

UTF8

Toutes les langues

Pour charger des données à partir de fichiers délimités (CSV, TSV, etc.), UTF-8 est la valeur par défaut. . . Pour charger des données à partir de tous les autres formats de fichier pris en charge (JSON, Avro, etc.), ainsi que pour décharger des données, UTF-8 est le seul jeu de caractères pris en charge.

UTF-16

UTF16

Toutes les langues

UTF-16BE

UTF16BE

Toutes les langues

UTF-16LE

UTF16LE

Toutes les langues

UTF-32

UTF32

Toutes les langues

UTF-32BE

UTF32BE

Toutes les langues

UTF-32LE

UTF32LE

Toutes les langues

windows-1250

WINDOWS1250

Tchèque, hongrois, polonais, roumain

windows-1251

WINDOWS1251

Russe

windows-1252

WINDOWS1252

Allemand, anglais, danois, français, italien, norvégien, néerlandais, portugais, suédois

windows-1253

WINDOWS1253

Grec

windows-1254

WINDOWS1254

Turc

windows-1255

WINDOWS1255

Hébreu

windows-1256

WINDOWS1256

Arabe

Par défaut

UTF8

Note

Snowflake stocke toutes les données en interne dans le jeu de caractères UTF-8. Les données sont converties en UTF-8 avant d’être chargées dans Snowflake. Si l’option de format de fichier VALIDATE_UTF8 est TRUE, Snowflake valide l’encodage de caractères UTF-8 dans les données de colonnes de chaînes après sa conversion à partir de son encodage de caractères original.

TYPE = JSON

COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
Utilisation

Chargement et déchargement des données

Définition
  • Lors du chargement des données, spécifie l’algorithme de compression actuel pour le fichier de données. Snowflake utilise cette option pour détecter comment un fichier de données déjà compressé a été compressé afin que les données compressées dans le fichier puissent être extraites pour le chargement.

  • Lors du déchargement des données, compresse le fichier de données en utilisant l’algorithme de compression spécifié.

Valeurs

Valeurs prises en charge

Remarques

AUTO

Lors du chargement des données, l’algorithme de compression est détecté automatiquement, sauf pour les fichiers compressés par Brotli, qui ne peuvent actuellement pas être détectés automatiquement. Lors du déchargement des données, les fichiers sont automatiquement compressés en utilisant la valeur par défaut, qui est gzip.

GZIP

BZ2

BROTLI

Doit être spécifié lors du chargement/déchargement de fichiers compressés Brotli.

ZSTD

Zstandard v0.8 (et supérieur) est pris en charge.

DEFLATE

Fichiers compressés Deflate (avec en-tête zlib, RFC1950).

RAW_DEFLATE

Fichiers bruts compressés Deflate (sans en-tête, RFC1951).

NONE

Lors du chargement des données, indique que les fichiers n’ont pas été compressés. Lors du déchargement des données, spécifie que les fichiers déchargés ne sont pas compressés.

Par défaut

AUTO

DATE_FORMAT = 'chaîne' | AUTO
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données JSON dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Définit le format des valeurs de chaînes de date dans les fichiers de données. Si une valeur n’est pas spécifiée ou est AUTO, la valeur du paramètre DATE_INPUT_FORMAT est utilisée.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

AUTO

TIME_FORMAT = 'chaîne' | AUTO
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données JSON dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Définit le format des valeurs de chaînes d’heure dans les fichiers de données. Si une valeur n’est pas spécifiée ou est AUTO, la valeur du paramètre TIME_INPUT_FORMAT est utilisée.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

AUTO

TIMESTAMP_FORMAT = chaîne' | AUTO
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données JSON dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Définit le format des valeurs de chaînes d’horodatage dans les fichiers de données. Si une valeur n’est pas spécifiée ou est AUTO, la valeur du paramètre TIMESTAMP_INPUT_FORMAT est utilisée.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

AUTO

BINARY_FORMAT = HEX | BASE64 | UTF8
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données JSON dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Définit le format d’encodage des valeurs de chaînes binaires dans les fichiers de données. L’option peut être utilisée pour charger des données à partir de colonnes binaires dans une table.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

HEX

TRIM_SPACE = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données JSON dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Booléen qui spécifie s’il faut supprimer les espaces blancs de début et de fin des chaînes.

Par exemple, si votre logiciel de base de données externe contient des champs entre guillemets, mais insère un espace d’en-tête, Snowflake lit l’espace d’en-tête plutôt que le caractère guillemet comme début du champ (c’est-à-dire que les guillemets sont interprétés comme faisant partie de la chaîne des données du champ). Définissez cette option sur TRUE pour supprimer les espaces indésirables pendant le chargement des données.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

FALSE

NULL_IF = ( 'chaîne1' [ , 'chaîne2' , ... ] )
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données JSON dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Chaîne utilisée pour effectuer des conversions vers et depuis SQL NULL. Snowflake remplace ces chaînes de la source de chargement des données par SQL NULL. Pour spécifier plus d’une chaîne, mettez la liste des chaînes entre parenthèses et utilisez des virgules pour séparer chaque valeur.

Par exemple :

NULL_IF = ('\\N', 'NULL', 'NUL', '')

Notez que cette option peut inclure des chaînes vides.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

\\N (c.-à-d. NULL, qui suppose que la valeur ESCAPE_UNENCLOSED_FIELD est \\)

FILE_EXTENSION = 'chaîne' | NONE
Utilisation

Déchargement des données uniquement

Définition

Spécifie l’extension des fichiers déchargés dans une zone de préparation. Accepte toute extension. L’utilisateur est chargé de spécifier une extension de fichier qui peut être lue par tout logiciel ou service désiré.

Par défaut

null, ce qui signifie que l’extension du fichier est déterminée par le type de format : .json[compression] , où compression est l’extension ajoutée par la méthode de compression, si COMPRESSION est défini.

ENABLE_OCTAL = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui permet d’analyser les nombres octaux.

Par défaut

FALSE

ALLOW_DUPLICATE = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui indique d’autoriser les noms de champs d’objets dupliqués (seul le dernier sera conservé).

Par défaut

FALSE

STRIP_OUTER_ARRAY = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui demande à l’analyseur JSON de supprimer les crochets extérieurs (comme [ ]).

Par défaut

FALSE

STRIP_NULL_VALUES = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui demande à l’analyseur JSON de supprimer les champs d’objets ou les éléments de tableau contenant des valeurs null. Par exemple, lorsque défini sur TRUE :

Avant

Après

[null]

[]

[null,null,3]

[,,3]

{"a":null,"b":null,"c":123}

{"c":123}

{"a":[1,null,2],"b":{"x":null,"y":88}}

{"a":[1,,2],"b":{"y":88}}

Par défaut

FALSE

IGNORE_UTF8_ERRORS = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie si les erreurs d’encodage UTF-8 produisent des conditions d’erreur. Si ce paramètre est réglé sur TRUE, toute séquence UTF-8 non valide est remplacée discrètement par un caractère Unicode U+FFFD (c.-à-d. un « caractère de remplacement »).

Par défaut

FALSE

SKIP_BYTE_ORDER_MARK = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie s’il faut ignorer le BOM (marque d’ordre d’octet), s’il est présent dans un fichier de données. Une marque BOM est un code de caractère placé au début d’un fichier de données qui définit l’ordre des octets et la forme de l’encodage.

S’il est réglé sur FALSE, Snowflake reconnaît n’importe quel BOM dans les fichiers de données, ce qui pourrait entraîner une erreur BOM ou une fusion dans la première colonne du tableau.

Par défaut

TRUE

TYPE = AVRO

COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
Utilisation

Chargement et déchargement des données

Définition
  • Lors du chargement des données, spécifie l’algorithme de compression actuel pour le fichier de données. Snowflake utilise cette option pour détecter comment un fichier de données déjà compressé a été compressé afin que les données compressées dans le fichier puissent être extraites pour le chargement.

  • Lors du déchargement des données, compresse le fichier de données en utilisant l’algorithme de compression spécifié.

Valeurs

Valeurs prises en charge

Remarques

AUTO

Lors du chargement des données, l’algorithme de compression est détecté automatiquement, sauf pour les fichiers compressés par Brotli, qui ne peuvent actuellement pas être détectés automatiquement. Lors du déchargement des données, les fichiers sont automatiquement compressés en utilisant la valeur par défaut, qui est gzip.

GZIP

BZ2

BROTLI

Doit être spécifié lors du chargement/déchargement de fichiers compressés Brotli.

ZSTD

Zstandard v0.8 (et supérieur) est pris en charge.

DEFLATE

Fichiers compressés Deflate (avec en-tête zlib, RFC1950).

RAW_DEFLATE

Fichiers bruts compressés Deflate (sans en-tête, RFC1951).

NONE

Lors du chargement des données, indique que les fichiers n’ont pas été compressés. Lors du déchargement des données, spécifie que les fichiers déchargés ne sont pas compressés.

Par défaut

AUTO

TRIM_SPACE = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données Avro dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Booléen qui spécifie s’il faut supprimer les espaces blancs de début et de fin des chaînes.

Par exemple, si votre logiciel de base de données externe contient des champs entre guillemets, mais insère un espace d’en-tête, Snowflake lit l’espace d’en-tête plutôt que le caractère guillemet comme début du champ (c’est-à-dire que les guillemets sont interprétés comme faisant partie de la chaîne des données du champ). Définissez cette option sur TRUE pour supprimer les espaces indésirables pendant le chargement des données.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

FALSE

NULL_IF = ( 'chaîne1' [ , 'chaîne2' , ... ] )
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données Avro dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Chaîne utilisée pour effectuer des conversions vers et depuis SQL NULL. Snowflake remplace ces chaînes de la source de chargement des données par SQL NULL. Pour spécifier plus d’une chaîne, mettez la liste des chaînes entre parenthèses et utilisez des virgules pour séparer chaque valeur.

Par exemple :

NULL_IF = ('\\N', 'NULL', 'NUL', '')

Notez que cette option peut inclure des chaînes vides.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

\\N (c.-à-d. NULL, qui suppose que la valeur ESCAPE_UNENCLOSED_FIELD est \\)

TYPE = ORC

TRIM_SPACE = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données ORC dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Booléen qui spécifie s’il faut supprimer les espaces blancs de début et de fin des chaînes.

Par exemple, si votre logiciel de base de données externe contient des champs entre guillemets, mais insère un espace d’en-tête, Snowflake lit l’espace d’en-tête plutôt que le caractère guillemet comme début du champ (c’est-à-dire que les guillemets sont interprétés comme faisant partie de la chaîne des données du champ). Définissez cette option sur TRUE pour supprimer les espaces indésirables pendant le chargement des données.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

FALSE

NULL_IF = ( 'chaîne1' [ , 'chaîne2' , ... ] )
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données ORC dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Chaîne utilisée pour effectuer des conversions vers et depuis SQL NULL. Snowflake remplace ces chaînes de la source de chargement des données par SQL NULL. Pour spécifier plus d’une chaîne, mettez la liste des chaînes entre parenthèses et utilisez des virgules pour séparer chaque valeur.

Par exemple :

NULL_IF = ('\\N', 'NULL', 'NUL', '')

Notez que cette option peut inclure des chaînes vides.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

\\N (c.-à-d. NULL, qui suppose que la valeur ESCAPE_UNENCLOSED_FIELD est \\)

TYPE = PARQUET

COMPRESSION = AUTO | LZO | SNAPPY | NONE
Utilisation

Chargement et déchargement des données

Définition

  • Lors du chargement des données, spécifie l’algorithme de compression actuel pour les colonnes des fichiers Parquet.

  • Lors du déchargement des données, compresse le fichier de données en utilisant l’algorithme de compression spécifié.

Valeurs

Valeurs prises en charge

Remarques

AUTO

Lors du chargement des données, l’algorithme de compression est détecté automatiquement. Prend en charge les algorithmes de compression suivants : Brotli, gzip, Lempel–Ziv–Oberhumer (LZO), LZ4, Snappy ou Zstandard v0.8 (et versions ultérieures). . Lors du déchargement des données, les fichiers déchargés sont compressés en utilisant l’algorithme de compression Snappy par défaut.

LZO

Lors du déchargement des données, les fichiers sont compressés à l’aide de l’algorithme Snappy par défaut. Si vous déchargez des données dans des fichiers LZO compressés, spécifiez cette valeur.

SNAPPY

Lors du déchargement des données, les fichiers sont compressés à l’aide de l’algorithme Snappy par défaut. Vous pouvez spécifier cette valeur en option.

NONE

Lors du chargement des données, indique que les fichiers n’ont pas été compressés. Lors du déchargement des données, spécifie que les fichiers déchargés ne sont pas compressés.

Par défaut

AUTO

SNAPPY_COMPRESSION = TRUE | FALSE
Utilisation

Déchargement des données uniquement

AUTO | Les fichiers déchargés sont compressés à l’aide de l’algorithme de compression Snappy par défaut. SNAPPY | Peut être spécifié lors du déchargement de fichiers compressés par Snappy. NONE | Lors du chargement des données, indique que les fichiers n’ont pas été compressés. Lors du déchargement des données, spécifie que les fichiers déchargés ne sont pas compressés.

Définition

Booléen qui spécifie si les fichiers déchargés sont compressés en utilisant l’algorithme SNAPPY.

Note

Obsolète. Utilisez plutôt COMPRESSION = SNAPPY.

Limites

Uniquement pris en charge pour les opérations de déchargement de données.

Par défaut

TRUE

BINARY_AS_TEXT = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie s’il faut interpréter les colonnes sans type de données logiques défini comme du texte UTF-8. Lorsqu’il est réglé sur FALSE, Snowflake interprète ces colonnes comme des données binaires.

Limites

Uniquement pris en charge pour les opérations de chargement de données.

Par défaut

TRUE

TRIM_SPACE = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données Parquet dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Booléen qui spécifie s’il faut supprimer les espaces blancs de début et de fin des chaînes.

Par exemple, si votre logiciel de base de données externe contient des champs entre guillemets, mais insère un espace d’en-tête, Snowflake lit l’espace d’en-tête plutôt que le caractère guillemet comme début du champ (c’est-à-dire que les guillemets sont interprétés comme faisant partie de la chaîne des données du champ). Définissez cette option sur TRUE pour supprimer les espaces indésirables pendant le chargement des données.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

FALSE

NULL_IF = ( 'chaîne1' [ , 'chaîne2' , ... ] )
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données Parquet dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Chaîne utilisée pour effectuer des conversions vers et depuis SQL NULL. Snowflake remplace ces chaînes de la source de chargement des données par SQL NULL. Pour spécifier plus d’une chaîne, mettez la liste des chaînes entre parenthèses et utilisez des virgules pour séparer chaque valeur.

Par exemple :

NULL_IF = ('\\N', 'NULL', 'NUL', '')

Notez que cette option peut inclure des chaînes vides.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

\\N (c.-à-d. NULL, qui suppose que la valeur ESCAPE_UNENCLOSED_FIELD est \\)

TYPE = XML

COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
Utilisation

Chargement et déchargement des données

Définition
  • Lors du chargement des données, spécifie l’algorithme de compression actuel pour le fichier de données. Snowflake utilise cette option pour détecter comment un fichier de données déjà compressé a été compressé afin que les données compressées dans le fichier puissent être extraites pour le chargement.

  • Lors du déchargement des données, compresse le fichier de données en utilisant l’algorithme de compression spécifié.

Valeurs

Valeurs prises en charge

Remarques

AUTO

Lors du chargement des données, l’algorithme de compression est détecté automatiquement, sauf pour les fichiers compressés par Brotli, qui ne peuvent actuellement pas être détectés automatiquement. Lors du déchargement des données, les fichiers sont automatiquement compressés en utilisant la valeur par défaut, qui est gzip.

GZIP

BZ2

BROTLI

Doit être spécifié lors du chargement/déchargement de fichiers compressés Brotli.

ZSTD

Zstandard v0.8 (et supérieur) est pris en charge.

DEFLATE

Fichiers compressés Deflate (avec en-tête zlib, RFC1950).

RAW_DEFLATE

Fichiers bruts compressés Deflate (sans en-tête, RFC1951).

NONE

Lors du chargement des données, indique que les fichiers n’ont pas été compressés. Lors du déchargement des données, spécifie que les fichiers déchargés ne sont pas compressés.

Par défaut

AUTO

IGNORE_UTF8_ERRORS = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie si les erreurs d’encodage UTF-8 produisent des conditions d’erreur. Si ce paramètre est réglé sur TRUE, toute séquence UTF-8 non valide est remplacée discrètement par un caractère Unicode U+FFFD (c.-à-d. un « caractère de remplacement »).

Par défaut

FALSE

PRESERVE_SPACE = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie si l’analyseur XML préserve les espaces d’en-tête et de fin dans le contenu des éléments.

Par défaut

FALSE

STRIP_OUTER_ELEMENT = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie si l’analyseur XML supprime l’élément externe XML, exposant les éléments de 2e niveau comme des documents séparés.

Par défaut

FALSE

DISABLE_SNOWFLAKE_DATA = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie si l’analyseur XML désactive la reconnaissance des balises de données semi-structurées Snowflake.

Par défaut

FALSE

DISABLE_AUTO_CONVERT = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie si l’analyseur XML désactive la conversion automatique des valeurs numériques et booléennes du texte en représentation native.

Par défaut

FALSE

SKIP_BYTE_ORDER_MARK = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

Booléen qui spécifie s’il faut sauter n’importe quel BOM (marque d’ordre d’octet) présent dans un fichier d’entrée. Une marque BOM est un code de caractère placé au début d’un fichier de données qui définit l’ordre des octets et la forme de l’encodage.

S’il est réglé sur FALSE, Snowflake reconnaît n’importe quel BOM dans les fichiers de données, ce qui pourrait entraîner une erreur BOM ou une fusion dans la première colonne du tableau.

Par défaut

TRUE

TRIM_SPACE = TRUE | FALSE
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données XML dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Booléen qui spécifie s’il faut supprimer les espaces blancs de début et de fin des chaînes.

Par exemple, si votre logiciel de base de données externe contient des champs entre guillemets, mais insère un espace d’en-tête, Snowflake lit l’espace d’en-tête plutôt que le caractère guillemet comme début du champ (c’est-à-dire que les guillemets sont interprétés comme faisant partie de la chaîne des données du champ). Définissez cette option sur TRUE pour supprimer les espaces indésirables pendant le chargement des données.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

FALSE

NULL_IF = ( 'chaîne1' [ , 'chaîne2' , ... ] )
Utilisation

Chargement des données uniquement

Définition

S’applique uniquement lors du chargement de données XML dans des colonnes distinctes (c’est-à-dire en utilisant l’option de copie MATCH_BY_COLUMN_NAME ou une transformation COPY). Chaîne utilisée pour effectuer des conversions vers et depuis SQL NULL. Snowflake remplace ces chaînes de la source de chargement des données par SQL NULL. Pour spécifier plus d’une chaîne, mettez la liste des chaînes entre parenthèses et utilisez des virgules pour séparer chaque valeur.

Par exemple :

NULL_IF = ('\\N', 'NULL', 'NUL', '')

Notez que cette option peut inclure des chaînes vides.

Cette option de format de fichier est actuellement une fonction d’aperçu.

Par défaut

\\N (c.-à-d. NULL, qui suppose que la valeur ESCAPE_UNENCLOSED_FIELD est \\)

Options de copie (copyOptions)

Les options de copie sont utilisées pour charger des données dans et décharger des données de tables.

Vous pouvez spécifier une ou plusieurs des options de copie suivantes (séparées par des espaces, des virgules ou de nouvelles lignes) :

ON_ERROR = CONTINUE | SKIP_FILE | SKIP_FILE_nb | SKIP_FILE_nb% | ABORT_STATEMENT

Chaîne (constante) qui spécifie l’action à effectuer lorsqu’une erreur se produit lors du chargement de données à partir d’un fichier :

Valeurs prises en charge

Remarques

CONTINUE

Continuez à charger le fichier. L’instruction COPY renvoie un message d’erreur pour un maximum d’une erreur rencontrée par fichier de données. Notez que la différence entre les valeurs des colonnes ROWS_PARSED et ROWS_LOADED représente le nombre de lignes qui incluent les erreurs détectées. Cependant, chacune de ces lignes peut contenir plusieurs erreurs. Pour afficher toutes les erreurs dans les fichiers de données, utilisez le paramètre VALIDATION_MODE ou interrogez la fonction VALIDATE.

SKIP_FILE

Ignorez le fichier s’il y a des erreurs rencontrées dans le fichier.

SKIP_FILE_nb (par exemple SKIP_FILE_10)

Ignorez le fichier lorsque le nombre d’erreurs dans le fichier est égal ou supérieur au nombre spécifié.

SKIP_FILE_nb% (par exemple SKIP_FILE_10%)

Ignorez le fichier lorsque le pourcentage d’erreurs dans le fichier dépasse le pourcentage spécifié.

ABORT_STATEMENT

Annulez l’instruction COPY en cas d’erreur.

Par défaut :

Chargement en lot à l’aide de COPY

ABORT_STATEMENT

Snowpipe

SKIP_FILE

SIZE_LIMIT = nb

Nombre (> 0) qui spécifie la taille maximale (en octets) des données à charger pour une instruction COPY donnée. Lorsque le seuil est dépassé, l’opération COPY interrompt le chargement des fichiers. Cette option est couramment utilisée pour charger un groupe commun de fichiers en utilisant plusieurs instructions COPY. Pour chaque instruction, la charge de données continue jusqu’à ce que le SIZE_LIMIT spécifié soit dépassé, avant de passer à l’instruction suivante.

Par exemple, supposons que des fichiers dans un chemin d’accès de zone de préparation présentent chacun une taille de 10 MB. Si plusieurs instructions COPY établissent SIZE_LIMIT à 25000000 (25 MB), chacune chargerait 3 fichiers. En d’autres termes, chaque opération COPY serait interrompue après le dépassement du seuil SIZE_LIMIT.

Notez qu’au moins un fichier est chargé, quelle que soit la valeur spécifiée pour SIZE_LIMIT:code: à moins qu’il n’y ait aucun fichier à charger.

Valeur par défaut : null (aucune limite de taille)

PURGE = TRUE | FALSE

Booléen qui spécifie s’il faut supprimer automatiquement les fichiers de données de la zone de préparation une fois que les données ont été chargées avec succès.

Si cette option est définie sur TRUE, nous faisons de notre mieux pour supprimer les fichiers de données chargés avec succès. Si l’opération de purge échoue pour une raison quelconque, aucune erreur n’est renvoyée actuellement. Nous vous recommandons de répertorier périodiquement les fichiers mis en zone de préparation (à l’aide de LIST) et de supprimer manuellement les fichiers correctement chargés, le cas échéant.

Par défaut : FALSE

RETURN_FAILED_ONLY = TRUE | FALSE

Booléen qui spécifie s’il faut renvoyer uniquement les fichiers qui n’ont pas réussi à se charger dans le résultat de l’instruction.

Par défaut : FALSE

MATCH_BY_COLUMN_NAME = CASE_SENSITIVE | CASE_INSENSITIVE | NONE

Chaîne qui spécifie si elle doit charger des données semi-structurées dans des colonnes de la table cible qui correspondent aux colonnes correspondantes représentées dans les données.

Pour qu’une colonne corresponde, les critères suivants doivent être remplis :

  • La colonne représentée dans les données doit avoir exactement le même nom que la colonne de la table. L’option de copie prend en charge la casse pour les noms de colonne. L’ordre des colonnes n’a pas d’importance.

  • La colonne de la table doit avoir un type de données compatible avec les valeurs de la colonne représentée dans les données. Par exemple, la chaîne, le nombre et les valeurs booléennes peuvent tous être chargés dans une colonne de variantes.

Les options suivantes sont prises en charge :

CASE_SENSITIVE | CASE_INSENSITIVE

Chargez des données semi-structurées dans des colonnes de la table cible qui correspondent aux colonnes correspondantes représentées dans les données. Les noms de colonne sont sensibles à la casse (CASE_SENSITIVE) ou ne sont pas sensibles à la casse (CASE_INSENSITIVE).

L’opération COPY vérifie qu’au moins une colonne de la table cible correspond à une colonne représentée dans les fichiers de données. Si une correspondance est trouvée, les valeurs des fichiers de données sont chargées dans la ou les colonnes. Si aucune correspondance n’est trouvée, un ensemble de valeurs NULL pour chaque enregistrement des fichiers est chargé dans la table.

Note

  • Si des colonnes supplémentaires non correspondantes sont présentes dans les fichiers de données, les valeurs de ces colonnes ne sont pas chargées.

  • Si des colonnes non correspondantes supplémentaires sont présentes dans la table cible, l’opération COPY insère des valeurs NULL dans ces colonnes. Ces colonnes doivent prendre en charge les valeurs NULL.

  • L’instruction COPY ne permet pas de spécifier une requête pour transformer davantage les données pendant le chargement (c’est-à-dire transformation COPY).

NONE

L’opération COPY charge les données semi-structurées dans une colonne variante ou, si une requête est incluse dans l’instruction COPY, transforme les données.

Par défaut

NONE

Note

Les limitations suivantes s’appliquent actuellement :

  • MATCH_BY_COLUMN_NAME ne peut pas être utilisé avec le paramètre VALIDATION_MODE dans une instruction COPY pour valider les données de zone de préparation plutôt que de les charger dans la table cible.

  • Données Parquet uniquement. Lorsque MATCH_BY_COLUMN_NAME est défini sur CASE_SENSITIVE ou CASE_INSENSITIVE, une valeur de colonne vide (par exemple "col1": "") génère une erreur.

ENFORCE_LENGTH = TRUE | FALSE

Syntaxe alternative pour TRUNCATECOLUMNS avec logique inverse (pour assurer une compatibilité avec les autres systèmes)

Booléen qui spécifie s’il faut tronquer les chaînes de texte qui dépassent la longueur de colonne cible :

  • Si TRUE, l’instruction COPY produit une erreur si une chaîne chargée dépasse la longueur de la colonne cible.

  • Si FALSE, les chaînes sont automatiquement tronquées suivant la longueur de colonne cible.

Actuellement, cette option de copie prend uniquement en charge les données CSV.

Par défaut : TRUE

Note

  • Si la longueur de la colonne de la chaîne de caractères cible est réglée au maximum (par exemple, VARCHAR (16777216)), une chaîne entrante ne peut pas dépasser cette longueur ; sinon, la commande COPY produit une erreur.

  • Ce paramètre est fonctionnellement équivalent à TRUNCATECOLUMNS, mais a le comportement inverse. Il est fourni pour assurer une compatibilité avec d’autres bases de données. Il n’est nécessaire d’inclure qu’un seul de ces deux paramètres dans une instruction COPY pour produire le résultat souhaité.

TRUNCATECOLUMNS = TRUE | FALSE

Syntaxe alternative pour ENFORCE_LENGTH avec logique inverse (pour assurer une compatibilité avec les autres systèmes)

Booléen qui spécifie s’il faut tronquer les chaînes de texte qui dépassent la longueur de colonne cible :

  • Si TRUE, les chaînes sont automatiquement tronquées suivant la longueur de colonne cible.

  • Si FALSE, l’instruction COPY produit une erreur si une chaîne chargée dépasse la longueur de la colonne cible.

Actuellement, cette option de copie prend uniquement en charge les données CSV.

Par défaut : FALSE

Note

  • Si la longueur de la colonne de la chaîne de caractères cible est réglée au maximum (par exemple, VARCHAR (16777216)), une chaîne entrante ne peut pas dépasser cette longueur ; sinon, la commande COPY produit une erreur.

  • Ce paramètre est fonctionnellement équivalent à ENFORCE_LENGTH, mais a le comportement inverse. Il est fourni pour assurer une compatibilité avec d’autres bases de données. Il n’est nécessaire d’inclure qu’un seul de ces deux paramètres dans une instruction COPY pour produire le résultat souhaité.

FORCE = TRUE | FALSE

Booléen qui demande de charger tous les fichiers, qu’ils aient été chargés précédemment ou non et qu’ils n’aient pas changé depuis leur chargement. Notez que cette option recharge les fichiers, dupliquant potentiellement les données dans une table.

Par défaut : FALSE

LOAD_UNCERTAIN_FILES = TRUE | FALSE

Booléen qui spécifie de charger les fichiers pour lesquels le statut de chargement est inconnu. La commande COPY ignore ces fichiers par défaut.

Le statut de chargement est inconnu si toutes les conditions suivantes sont réunies :

  • La date LAST_MODIFIED du fichier (c.-à-d. la date à laquelle le fichier a été mis en zone de préparation) remonte à plus de 64 jours.

  • L’ensemble initial de données a été chargé dans la table il y a plus de 64 jours.

  • Si le fichier a déjà été chargé avec succès dans la table, cet événement s’est produit plus de 64 jours auparavant.

Pour forcer la commande COPY à charger tous les fichiers, que le statut de chargement soit connu ou non, utilisez plutôt l’option FORCE.

Pour plus d’informations sur les statuts de chargement incertains, voir Chargement d’anciens fichiers.

Par défaut : FALSE

Notes sur l’utilisation

  • Les modifications apportées à une table ne sont pas automatiquement propagées aux vues créées sur cette table. Par exemple, si vous détruisez une colonne dans une table et qu’une vue est définie pour inclure cette colonne, la vue n’est plus valide. La vue n’est pas ajustée pour supprimer la colonne.

  • Le fait de détruire une colonne ne libère pas nécessairement immédiatement l’espace de stockage de la colonne.

    • L’espace dans chaque micro-partition n’est pas récupéré tant que cette micro-partition n’est pas réécrite. Les opérations d’écriture (insertion, mise à jour, suppression, etc.) sur 1 ou plusieurs lignes de cette micro-partition entraînent la réécriture de la micro-partition. Si vous souhaitez forcer la récupération d’espace, vous pouvez forcer la mise à jour de chaque ligne de la table ou vous pouvez utiliser CREATE TABLE AS ... pour créer une nouvelle table contenant uniquement les colonnes de l’ancienne table que vous souhaitez conserver. Ensuite, vous pouvez détruire l’ancienne table. Chacune de ces opérations peut être coûteuse si le volume de données restant dans la table est élevé.

    • Si la table est protégée par la fonctionnalité Time Travel, l’espace utilisé par le stockage Time Travel n’est pas récupéré avant l’expiration de la période de conservation de Time Travel.

  • Si une nouvelle colonne avec une valeur par défaut est ajoutée à une table avec des lignes existantes, toutes les lignes existantes sont remplies avec la valeur par défaut.

  • L’ajout d’une nouvelle colonne avec une valeur par défaut contenant une fonction n’est pas pris en charge actuellement. L’erreur suivante est renvoyée :

    Invalid column default expression (expr)

  • Pour modifier une table, vous devez utiliser un rôle disposant du privilège de propriété sur la table.

Exemples

Renommer la table t1 en a1 :

CREATE OR REPLACE TABLE t1(a1 number);

SHOW TABLES LIKE 't1';

---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------+----------------+
           created_on            | name | database_name | schema_name | kind  | comment | cluster_by | rows | bytes | owner  | retention_time |
---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------+----------------+
 Tue, 17 Mar 2015 16:52:33 -0700 | T1   | TESTDB        | MY_SCHEMA   | TABLE |         |            | 0    | 0     | PUBLIC | 1              |
---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------+----------------+

ALTER TABLE t1 RENAME TO tt1;

SHOW TABLES LIKE 'tt1';

---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------+----------------+
           created_on            | name | database_name | schema_name | kind  | comment | cluster_by | rows | bytes | owner  | retention_time |
---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------+----------------+
 Tue, 17 Mar 2015 16:52:33 -0700 | TT1  | TESTDB        | MY_SCHEMA   | TABLE |         |            | 0    | 0     | PUBLIC | 1              |
---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------+----------------+

Intervertir les tables t1 et t2 :

CREATE OR REPLACE TABLE t1(a1 number, a2 varchar, a3 date);
CREATE OR REPLACE TABLE t2(b1 varchar);

DESC TABLE t1;

------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 name |       type        |  kind  | null? | default | primary key | unique key | check  | expression | comment |
------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 A1   | NUMBER(38,0)      | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A2   | VARCHAR(16777216) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A3   | DATE              | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+

DESC TABLE t2;

------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 name |       type        |  kind  | null? | default | primary key | unique key | check  | expression | comment |
------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 B1   | VARCHAR(16777216) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+

ALTER TABLE t1 SWAP WITH t2;

DESC TABLE t1;

------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 name |       type        |  kind  | null? | default | primary key | unique key | check  | expression | comment |
------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 B1   | VARCHAR(16777216) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+

DESC TABLE t2;

------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 name |       type        |  kind  | null? | default | primary key | unique key | check  | expression | comment |
------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 A1   | NUMBER(38,0)      | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A2   | VARCHAR(16777216) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A3   | DATE              | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
------+-------------------+--------+-------+---------+-------------+------------+--------+------------+---------+

Ajouter des colonnes à la table t1, puis renommer une colonne et détruire une colonne dans la table :

CREATE OR REPLACE TABLE t1(a1 number);

DESC TABLE t1;

------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 name |     type     |  kind  | null? | default | primary key | unique key | check  | expression | comment |
------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 A1   | NUMBER(38,0) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+

-- Add a new column to table T1
ALTER TABLE t1 ADD COLUMN a2 number;

-- Add another column with NOT NULL constraint
ALTER TABLE t1 ADD COLUMN a3 number NOT NULL;

-- Add another column with a default value and a NOT NULL constraint
ALTER TABLE t1 ADD COLUMN a4 number DEFAULT 0 NOT NULL;

DESC TABLE t1;

------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 name |     type     |  kind  | null? | default | primary key | unique key | check  | expression | comment |
------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 A1   | NUMBER(38,0) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A2   | NUMBER(38,0) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A3   | NUMBER(38,0) | COLUMN | N     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A4   | NUMBER(38,0) | COLUMN | N     | 0       | N           | N          | [NULL] | [NULL]     | [NULL]  |
------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+

-- Rename a column in table T1
ALTER TABLE t1 RENAME COLUMN a1 TO b1;

DESC TABLE t1;

------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 name |     type     |  kind  | null? | default | primary key | unique key | check  | expression | comment |
------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 B1   | NUMBER(38,0) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A2   | NUMBER(38,0) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A3   | NUMBER(38,0) | COLUMN | N     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A4   | NUMBER(38,0) | COLUMN | N     | 0       | N           | N          | [NULL] | [NULL]     | [NULL]  |
------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+

-- Drop a column from table T1
ALTER TABLE t1 DROP COLUMN a2;

DESC TABLE t1;

------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 name |     type     |  kind  | null? | default | primary key | unique key | check  | expression | comment |
------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+
 B1   | NUMBER(38,0) | COLUMN | Y     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A3   | NUMBER(38,0) | COLUMN | N     | [NULL]  | N           | N          | [NULL] | [NULL]     | [NULL]  |
 A4   | NUMBER(38,0) | COLUMN | N     | 0       | N           | N          | [NULL] | [NULL]     | [NULL]  |
------+--------------+--------+-------+---------+-------------+------------+--------+------------+---------+

Similaire au dernier exemple, mais ajouter, renommer et détruire une colonne dans la table externe exttable1 :

CREATE EXTERNAL TABLE exttable1(
  LOCATION=@mystage/logs/
  AUTO_REFRESH = true
  FILE_FORMAT = (TYPE = PARQUET)
  );

 DESC EXTERNAL TABLE exttable1;

 +-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------+
 | name      | type              | kind      | null? | default | primary key | unique key | check | expression                                               | comment               |
 |-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------|
 | VALUE     | VARIANT           | COLUMN    | Y     | NULL    | N           | N          | NULL  | NULL                                                     | The value of this row |
 +-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------+

 -- Add a new column to table EXTTABLE1
 ALTER TABLE exttable1 ADD COLUMN a1 varchar AS (value:a1::varchar);

 DESC EXTERNAL TABLE exttable1;

 +-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------+
 | name      | type              | kind      | null? | default | primary key | unique key | check | expression                                               | comment               |
 |-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------|
 | VALUE     | VARIANT           | COLUMN    | Y     | NULL    | N           | N          | NULL  | NULL                                                     | The value of this row |
 | A1        | VARCHAR(16777216) | VIRTUAL   | Y     | NULL    | N           | N          | NULL  | TO_CHAR(GET(VALUE, 'a1'))                                | NULL                  |
 +-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------+

 -- Rename a column in table T1
 ALTER TABLE exttable1 RENAME COLUMN a1 TO b1;

 DESC EXTERNAL TABLE exttable1;

 +-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------+
 | name      | type              | kind      | null? | default | primary key | unique key | check | expression                                               | comment               |
 |-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------|
 | VALUE     | VARIANT           | COLUMN    | Y     | NULL    | N           | N          | NULL  | NULL                                                     | The value of this row |
 | B1        | VARCHAR(16777216) | VIRTUAL   | Y     | NULL    | N           | N          | NULL  | TO_CHAR(GET(VALUE, 'a1'))                                | NULL                  |
 +-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------+

 -- Drop a column from table T1
 ALTER TABLE exttable1 DROP COLUMN b1;

 DESC EXTERNAL TABLE exttable1;

 +-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------+
 | name      | type              | kind      | null? | default | primary key | unique key | check | expression                                               | comment               |
 |-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------|
 | VALUE     | VARIANT           | COLUMN    | Y     | NULL    | N           | N          | NULL  | NULL                                                     | The value of this row |
 +-----------+-------------------+-----------+-------+---------+-------------+------------+-------+----------------------------------------------------------+-----------------------+

Modifier l’ordre de la clé de clustering pour une table :

CREATE OR REPLACE TABLE T1 (id NUMBER, date TIMESTAMP_NTZ, name STRING) CLUSTER BY (id, date);

SHOW TABLES LIKE 'T1';

---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------------+----------------+
           created_on            | name | database_name | schema_name | kind  | comment | cluster_by | rows | bytes |    owner     | retention_time |
---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------------+----------------+
 Tue, 21 Jun 2016 15:42:12 -0700 | T1   | TESTDB        | TESTSCHEMA  | TABLE |         | (ID,DATE)  | 0    | 0     | ACCOUNTADMIN | 1              |
---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------------+----------------+

-- Change the order of the clustering key
ALTER TABLE t1 CLUSTER BY (date, id);

SHOW TABLES LIKE 'T1';

---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------------+----------------+
           created_on            | name | database_name | schema_name | kind  | comment | cluster_by | rows | bytes |    owner     | retention_time |
---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------------+----------------+
 Tue, 21 Jun 2016 15:42:12 -0700 | T1   | TESTDB        | TESTSCHEMA  | TABLE |         | (DATE,ID)  | 0    | 0     | ACCOUNTADMIN | 1              |
---------------------------------+------+---------------+-------------+-------+---------+------------+------+-------+--------------+----------------+