- Kategorien:
CREATE STAGE¶
Erstellt einen neuen benannten internen oder externen Stagingbereich, der zum Laden von Daten aus Dateien in Snowflake-Tabellen und zum Entladen von Daten aus Tabellen in Dateien verwendet werden kann:
- Interner Stagingbereich
Speichert Datendateien intern in Snowflake. Interne Stagingbereiche können entweder permanent oder temporär sein. Weitere Details dazu finden Sie unter Auswahl eines Stagingbereichs für lokale Dateien.
- Externer Stagingbereich
Ein externer Stagingbereich verweist auf Datendateien, die an einem Ort außerhalb von Snowflake gespeichert sind. Derzeit werden die folgenden Cloudspeicherdienste unterstützt:
Amazon S3-Buckets
Google Cloud Storage-Bucket
Microsoft Azure-Container
Der Speicherort kann entweder privat/geschützt oder öffentlich sein.
- Siehe auch:
Unter diesem Thema:
Syntax¶
-- Internal stage
CREATE [ OR REPLACE ] [ TEMPORARY ] STAGE [ IF NOT EXISTS ] <internal_stage_name>
[ FILE_FORMAT = ( { FORMAT_NAME = '<file_format_name>' | TYPE = { CSV | JSON | AVRO | ORC | PARQUET | XML } [ formatTypeOptions ] ) } ]
[ COPY_OPTIONS = ( copyOptions ) ]
[ COMMENT = '<string_literal>' ]
-- External stage
CREATE [ OR REPLACE ] [ TEMPORARY ] STAGE [ IF NOT EXISTS ] <external_stage_name>
externalStageParams
[ FILE_FORMAT = ( { FORMAT_NAME = '<file_format_name>' | TYPE = { CSV | JSON | AVRO | ORC | PARQUET | XML } [ formatTypeOptions ] ) } ]
[ COPY_OPTIONS = ( copyOptions ) ]
[ COMMENT = '<string_literal>' ]
Wobei:
externalStageParams (for Amazon S3) ::= URL = 's3://<bucket>[/<path>/]' [ { STORAGE_INTEGRATION = <integration_name> } | { CREDENTIALS = ( { { AWS_KEY_ID = '<string>' AWS_SECRET_KEY = '<string>' [ AWS_TOKEN = '<string>' ] } | AWS_ROLE = '<string>' } ) ) } ] [ ENCRYPTION = ( [ TYPE = 'AWS_CSE' ] [ MASTER_KEY = '<string>' ] | [ TYPE = 'AWS_SSE_S3' ] | [ TYPE = 'AWS_SSE_KMS' [ KMS_KEY_ID = '<string>' ] | [ TYPE = NONE ] ) ]externalStageParams (for Google Cloud Storage) ::= URL = 'gcs://<bucket>[/<path>/]' [ STORAGE_INTEGRATION = <integration_name> ] [ ENCRYPTION = ( [ TYPE = 'GCS_SSE_KMS' ] [ KMS_KEY_ID = '<string>' ] | [ TYPE = NONE ] ) ]externalStageParams (for Microsoft Azure) ::= URL = 'azure://<account>.blob.core.windows.net/<container>[/<path>/]' [ { STORAGE_INTEGRATION = <integration_name> } | { CREDENTIALS = ( [ AZURE_SAS_TOKEN = <string> ] ) } ] [ ENCRYPTION = ( [TYPE = { 'AZURE_CSE' | NONE } ] [ MASTER_KEY = '<string>' ] ) ]formatTypeOptions ::= -- If TYPE = CSV COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE RECORD_DELIMITER = '<character>' | NONE FIELD_DELIMITER = '<character>' | NONE FILE_EXTENSION = '<string>' SKIP_HEADER = <integer> SKIP_BLANK_LINES = TRUE | FALSE DATE_FORMAT = '<string>' | AUTO TIME_FORMAT = '<string>' | AUTO TIMESTAMP_FORMAT = '<string>' | AUTO BINARY_FORMAT = HEX | BASE64 | UTF8 ESCAPE = '<character>' | NONE ESCAPE_UNENCLOSED_FIELD = '<character>' | NONE TRIM_SPACE = TRUE | FALSE FIELD_OPTIONALLY_ENCLOSED_BY = '<character>' | NONE NULL_IF = ( '<string>' [ , '<string>' ... ] ) ERROR_ON_COLUMN_COUNT_MISMATCH = TRUE | FALSE REPLACE_INVALID_CHARACTERS = TRUE | FALSE VALIDATE_UTF8 = TRUE | FALSE EMPTY_FIELD_AS_NULL = TRUE | FALSE SKIP_BYTE_ORDER_MARK = TRUE | FALSE ENCODING = '<string>' | UTF8 -- If TYPE = JSON COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE DATE_FORMAT = '<string>' | AUTO TIME_FORMAT = '<string>' | AUTO TIMESTAMP_FORMAT = '<string>' | AUTO BINARY_FORMAT = HEX | BASE64 | UTF8 TRIM_SPACE = TRUE | FALSE NULL_IF = ( '<string>' [ , '<string>' ... ] ) FILE_EXTENSION = '<string>' ENABLE_OCTAL = TRUE | FALSE ALLOW_DUPLICATE = TRUE | FALSE STRIP_OUTER_ARRAY = TRUE | FALSE STRIP_NULL_VALUES = TRUE | FALSE REPLACE_INVALID_CHARACTERS = TRUE | FALSE IGNORE_UTF8_ERRORS = TRUE | FALSE SKIP_BYTE_ORDER_MARK = TRUE | FALSE -- If TYPE = AVRO COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE TRIM_SPACE = TRUE | FALSE NULL_IF = ( '<string>' [ , '<string>' ... ] ) -- If TYPE = ORC TRIM_SPACE = TRUE | FALSE NULL_IF = ( '<string>' [ , '<string>' ... ] ) -- If TYPE = PARQUET COMPRESSION = AUTO | LZO | SNAPPY | NONE SNAPPY_COMPRESSION = TRUE | FALSE BINARY_AS_TEXT = TRUE | FALSE TRIM_SPACE = TRUE | FALSE NULL_IF = ( '<string>' [ , '<string>' ... ] ) -- If TYPE = XML COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE IGNORE_UTF8_ERRORS = TRUE | FALSE PRESERVE_SPACE = TRUE | FALSE STRIP_OUTER_ELEMENT = TRUE | FALSE DISABLE_SNOWFLAKE_DATA = TRUE | FALSE DISABLE_AUTO_CONVERT = TRUE | FALSE SKIP_BYTE_ORDER_MARK = TRUE | FALSEcopyOptions ::= ON_ERROR = { CONTINUE | SKIP_FILE | SKIP_FILE_<num> | SKIP_FILE_<num>% | ABORT_STATEMENT } SIZE_LIMIT = <num> PURGE = TRUE | FALSE RETURN_FAILED_ONLY = TRUE | FALSE MATCH_BY_COLUMN_NAME = CASE_SENSITIVE | CASE_INSENSITIVE | NONE ENFORCE_LENGTH = TRUE | FALSE TRUNCATECOLUMNS = TRUE | FALSE FORCE = TRUE | FALSE
Erforderliche Parameter¶
Name_des_internen_Stagingbereichs
oder .Name_des_externen_Stagingbereichs
Gibt den Bezeichner für den Stagingbereich an. Dieser muss für das Schema, in dem der Stagingbereich angelegt wird, eindeutig sein.
Darüber hinaus muss der Bezeichner mit einem Buchstaben beginnen und darf keine Leer- oder Sonderzeichen enthalten, es sei denn, die gesamte Bezeichnerzeichenfolge wird in doppelte Anführungszeichen gesetzt (z. B.
"My object"
). Bei Bezeichnern, die in doppelte Anführungszeichen eingeschlossen sind, ist auch die Groß-/Kleinschreibung zu beachten.Weitere Details dazu finden Sie unter Anforderungen an Bezeichner.
Bemerkung
Beim Erstellen eines externen Stagingbereichs ist ebenfalls eine URL erforderlich. Weitere Details dazu finden Sie unter Externe Stagingbereichsparameter (unter diesem Thema).
Wenn keine URL angegeben wird, erstellt Snowflake standardmäßig einen internen Stagingbereich.
Optionale Parameter¶
TEMPORARY
Gibt an, dass der erstellte Stagingbereich temporär ist und am Ende der Sitzung, in der er erstellt wurde, gelöscht wird. Anmerkung:
Wenn ein temporärer externer Stagingbereich gelöscht wird, wird nur der Stagingbereich selbst gelöscht. Die Datendateien werden nicht entfernt.
Wenn ein temporärer interner Stagingbereich gelöscht wird, werden alle Dateien in dem Stagingbereich von Snowflake gelöscht, unabhängig von ihrem Ladestatus. Dadurch wird verhindert, dass Dateien in temporären internen Stagingbereichen Datenspeicher nutzen und damit Speicherkosten verursachen. Das bedeutet aber auch, dass die bereitgestellten Dateien nicht mehr über Snowflake wiederhergestellt werden können, wenn der Stagingbereich gelöscht wird.
Tipp
Wenn Sie planen, temporäre interne Stagingbereiche zu erstellen und zu verwenden, sollten Sie Kopien Ihrer Datendateien außerhalb von Snowflake aufbewahren.
FILE_FORMAT = ( FORMAT_NAME = 'Dateiformatname' )
oder .FILE_FORMAT = ( TYPE = CSV | JSON | AVRO | ORC | PARQUET | XML [ ... ] )
Gibt das Dateiformat für den Stagingbereich an, der beides sein kann:
FORMAT_NAME = 'Dateiformatname'
Gibt ein bestehendes benanntes Dateiformat an, das für den Stagingbereich verwendet werden soll. Das benannte Dateiformat bestimmt den Formattyp (CSV, JSON usw.) sowie alle anderen Formatoptionen für die Datendateien, die mithilfe dieses Stagingbereichs geladenen wurden. Weitere Details dazu finden Sie unter CREATE FILE FORMAT.
TYPE = CSV | JSON | AVRO | ORC | PARQUET | XML [ ... ]
Gibt den Typ der Dateien für den Stagingbereich an:
Das Laden von Daten aus einem Stagingbereich (mit COPY INTO <Tabelle>) beinhaltet alle unterstützten Formattypen.
Das Entladen von Daten in einen Stagingbereich (mit COPY INTO <Speicherort>) beinhaltet
CSV
,JSON
oderPARQUET
.
Wenn ein Dateiformattyp angegeben wird, können zusätzliche formatspezifische Optionen angegeben werden. Weitere Details dazu finden Sie unter Formattypoptionen (formatTypeOptions) (unter diesem Thema).
Standard:
TYPE = CSV
Bemerkung
FORMAT_NAME
undTYPE
schließen sich gegenseitig aus. Sie können für einen Stagingbereich nur eins von beiden angeben.COPY_OPTIONS = ( ... )
Gibt eine (oder mehrere) Kopieroptionen für den Stagingbereich an. Weitere Details dazu finden Sie unter Kopieroptionen (copyOptions) (unter diesem Thema).
COMMENT = 'Zeichenfolgenliteral'
Gibt einen Kommentar für den Stagingbereich an.
Standard: Kein Wert
Externe Stagingbereichsparameter (externalStageParams
)¶
URL = 'cloudspezifische_URL'
Wenn dieser Parameter nicht angegeben wird, erstellt Snowflake einen internen Stagingbereich
Wichtig
Schließen Sie die URL in einfache Anführungszeichen (
''
) ein, damit Snowflake die Zeichenfolge erkennen kann. Wenn Sie die Anführungszeichen weglassen, werden von Ihnen eingegebene Anmeldeinformationen möglicherweise im Verlauf im Klartext angezeigt. Wir empfehlen dringend, die Syntax der Anweisung CREATE STAGE zu überprüfen, bevor Sie sie ausführen.Der Create Stage-Assistent der Snowflake-Weboberfläche schließt Feldwerte bei Bedarf automatisch in Anführungszeichen ein. Die Verwendung der Weboberfläche zum Erstellen von Stagingbereichen ist eine gute Option für weniger erfahrene Benutzer.
Amazon S3
URL = 's3://Bucket[/Pfad/]'
Gibt die URL für den externen Speicherort (vorhandener S3-Bucket) an, in dem Datendateien zum Laden/Entladen gespeichert werden, wobei Folgendes gilt:
Bucket
ist der Name des S3-Buckets.Beachten Sie, dass S3-Buckets in nicht öffentlichen AWS-Regionen, wie z. B. Regionen von Regierungsbehörden, nicht unterstützt werden.
Pfad
ist ein optionaler Pfad mit Unterscheidung von Groß-/Kleinschreibung für Dateien am Cloudspeicherort (d. h. Dateien haben Namen, die mit einer gemeinsamen Zeichenfolge beginnen), wodurch die Dateien eingegrenzt werden. Pfade werden von den verschiedenen Cloudspeicherdiensten alternativ als Präfixe oder Ordner bezeichnet.
Google Cloud Storage
URL = 'gcs://Bucket[/Pfad/]'
Gibt die URL für den externen Speicherort (vorhandener GCS-Bucket) an, in dem Datendateien zum Laden/Entladen gespeichert werden, wobei Folgendes gilt:
Bucket
ist der Name des GCS-Buckets.Pfad
ist ein optionaler Pfad mit Unterscheidung von Groß-/Kleinschreibung für Dateien am Cloudspeicherort (d. h. Dateien haben Namen, die mit einer gemeinsamen Zeichenfolge beginnen), wodurch die Dateien eingegrenzt werden. Pfade werden von den verschiedenen Cloudspeicherdiensten alternativ als Präfixe oder Ordner bezeichnet.
Microsoft Azure
URL = 'azure://Konto.blob.core.windows.net/Container[/Pfad/]'
Gibt die URL für den externen Speicherort (vorhandener Azure-Container) an, in dem Datendateien zum Laden gespeichert werden, wobei Folgendes gilt:
Konto
ist der Name des Azure-Kontos (z. B.myaccount
). Verwenden Sie den Endpunktblob.core.windows.net
für alle unterstützten Typen von Azure-Blob-Speicherkonten, einschließlich Data Lake Storage Gen2.Container
ist der Name des Azure-Containers (z. B.mycontainer
).Pfad
ist ein optionaler Pfad mit Unterscheidung von Groß-/Kleinschreibung für Dateien am Cloudspeicherort (d. h. Dateien haben Namen, die mit einer gemeinsamen Zeichenfolge beginnen), wodurch die Dateien eingegrenzt werden. Pfade werden von den verschiedenen Cloudspeicherdiensten alternativ als Präfixe oder Ordner bezeichnet.
Standard: Kein Wert (es wird ein interner Stagingbereich erstellt)
STORAGE_INTEGRATION = Integrationsname
oder .CREDENTIALS = ( cloudspezifische_Anmeldeinformationen )
Nur erforderlich, wenn der Speicherort privat/geschützt ist. Nicht erforderlich für öffentliche Buckets/Container
Amazon S3
STORAGE_INTEGRATION = Integrationsname
Gibt den Namen der Speicherintegration an, mit der die Authentifizierungsverantwortung für den externen Cloudspeicher an eine Snowflake-Entität für Identitäts- und Zugriffsverwaltung (IAM) delegiert wird. Weitere Details dazu finden Sie unter CREATE STORAGE INTEGRATION.
Bemerkung
Wir empfehlen dringend die Verwendung von Speicherintegrationen. Mit dieser Option wird vermieden, dass beim Erstellen von Stagingbereichen oder Laden von Daten mithilfe des Parameters CREDENTIALS Cloudspeicher-Anmeldeinformationen angegeben werden müssen.
CREDENTIALS = ( AWS_KEY_ID = 'Zeichenfolge' AWS_SECRET_KEY = 'Zeichenfolge' [ AWS_TOKEN = 'Zeichenfolge' ] )
oder .CREDENTIALS = ( AWS_ROLE = 'Zeichenfolge' )
Gibt die Sicherheits-Anmeldeinformationen für die Verbindung mit AWS und den Zugriff auf den privaten/geschützten S3-Bucket an, in dem die zu ladenden/entladenden Dateien bereitgestellt werden. Weitere Informationen finden Sie unter Konfigurieren des sicheren Zugriffs auf Amazon S3.
Die von Ihnen angegebenen Anmeldeinformationen hängen davon ab, ob Sie die Zugriffsberechtigungen von Snowflake für den Bucket einem AWS IAM (Identity & Access Management)-Benutzer oder einer Rolle zugeordnet haben:
IAM-Benutzer: IAM-Anmeldeinformationen sind erforderlich. Temporäre (auch bekannt als „Scoped“) Anmeldeinformationen werden vom AWS Security Token Service (STS) generiert und bestehen aus drei Komponenten:
AWS_KEY_ID
AWS_SECRET_KEY
AWS_TOKEN
Alle drei sind erforderlich, um auf einen privaten/geschützten Bucket zuzugreifen. Nach einem angegebenen Zeitraum verfallen die temporären Anmeldeinformationen und können nicht mehr verwendet werden. Sie müssen dann einen neuen Satz gültiger temporärer Anmeldeinformationen generieren.
Wichtig
Mit dem Befehl COPY können auch permanente (auch bekannt als „langfristige“) Anmeldeinformationen verwendet werden. Aus Sicherheitsgründen empfiehlt Snowflake jedoch, diese nicht zu verwenden. Wenn Sie permanente Anmeldeinformationen verwenden müssen, empfiehlt Snowflake, regelmäßig neue permanente Anmeldeinformationen für externe Stagingbereiche zu generieren.
IAM-Rolle: Lassen Sie die Sicherheits-Anmeldeinformationen und Zugriffsschlüssel weg. Identifizieren Sie stattdessen die Rolle mit
AWS_ROLE
, und geben Sie die AWS-Rolle ARN (Amazon Resource Name) an.
Google Cloud Storage
STORAGE_INTEGRATION = Integrationsname
Gibt den Namen der Speicherintegration an, mit der die Authentifizierungsverantwortung für den externen Cloudspeicher an eine Snowflake-Entität für Identitäts- und Zugriffsverwaltung (IAM) delegiert wird. Weitere Details dazu finden Sie unter CREATE STORAGE INTEGRATION.
Microsoft Azure
STORAGE_INTEGRATION = Integrationsname
Gibt den Namen der Speicherintegration an, mit der die Authentifizierungsverantwortung für den externen Cloudspeicher an eine Snowflake-Entität für Identitäts- und Zugriffsverwaltung (IAM) delegiert wird. Weitere Details dazu finden Sie unter CREATE STORAGE INTEGRATION.
Bemerkung
Wir empfehlen dringend die Verwendung von Speicherintegrationen. Mit dieser Option wird vermieden, dass beim Erstellen von Stagingbereichen oder Laden von Daten mithilfe des Parameters CREDENTIALS Cloudspeicher-Anmeldeinformationen angegeben werden müssen.
CREDENTIALS = ( AZURE_SAS_TOKEN = 'Zeichenfolge' )
Gibt das Shared Access Signature-Token (SAS-Token) für die Verbindung mit Azure und den Zugriff auf den privaten/geschützten Container an, in dem die Dateien mit geladenen Daten bereitgestellt werden. Die Anmeldeinformationen werden von Azure generiert.
Standard: Kein Wert (für den externen Stagingbereich werden keine Anmeldeinformationen angegeben)
ENCRYPTION = ( cloudspezifische_Verschlüsselung )
Nur erforderlich zum Laden aus bzw. Entladen in verschlüsselte Dateien; nicht erforderlich, wenn Speicherorte und Dateien unverschlüsselt sind
- Laden von Daten
Ändert die Verschlüsselungseinstellungen, die zum Entschlüsseln verschlüsselter Dateien am Speicherort und zum Extrahieren von Daten verwendet werden.
- Entladen von Daten
Ändert die Verschlüsselungseinstellungen, die zum Verschlüsseln von Dateien verwendet werden, die an den Speicherort entladen werden.
Amazon S3
ENCRYPTION = ( [ TYPE = 'AWS_CSE' ] [ MASTER_KEY = '<string>' ] | [ TYPE = 'AWS_SSE_S3' ] | [ TYPE = 'AWS_SSE_KMS' [ KMS_KEY_ID = '<string>' ] | [ TYPE = NONE ] )
TYPE = ...
Gibt den verwendeten Verschlüsselungstyp an. Mögliche Werte sind:
AWS_CSE
: Clientseitige Verschlüsselung (erfordert einenMASTER_KEY
-Wert). Derzeit kann der von Ihnen bereitgestellte clientseitige Hauptschlüssel nur ein symmetrischer Schlüssel sein. Beachten Sie, dass Snowflake bei Angabe einesMASTER_KEY
-Werts davon ausgeht, dassTYPE = AWS_CSE
(d. h. wenn einMASTER_KEY
-Wert angegeben wird, istTYPE
nicht erforderlich).AWS_SSE_S3
: Serverseitige Verschlüsselung, die keine zusätzlichen Verschlüsselungseinstellungen erfordert.AWS_SSE_KMS
: Serverseitige Verschlüsselung, die einen optionalenKMS_KEY_ID
-Wert akzeptiert.
Weitere Informationen zu den Verschlüsselungsarten finden Sie in der AWS-Dokumentation für clientseitige Verschlüsselung oder serverseitige Verschlüsselung.
MASTER_KEY = 'Zeichenfolge'
(gilt nur fürAWS_CSE
-Verschlüsselung)Gibt den clientseitigen Hauptschlüssel an, mit dem die Dateien im Bucket verschlüsselt wurden. Der Hauptschlüssel muss ein 128-Bit- oder 256-Bit-Schlüssel in Base64-codierter Form sein.
KMS_KEY_ID = 'Zeichenfolge'
(gilt nur fürAWS_SSE_KMS
-Verschlüsselung)Gibt optional die ID für den AWS KMS-verwalteten Schlüssel an, der zum Verschlüsseln von Dateien verwendet wird, die in den Bucket entladen wurden. Wenn kein Wert angegeben wird, werden Dateien beim Entladen mit Ihrer standardmäßigen KMS-Schlüssel-ID verschlüsselt.
Beachten Sie, dass dieser Wert beim Laden von Daten ignoriert wird.
Google Cloud Storage
ENCRYPTION = ( [ TYPE = 'GCS_SSE_KMS' ] [ KMS_KEY_ID = '<string>' ] | [ TYPE = NONE ] )
TYPE = ...
Gibt den verwendeten Verschlüsselungstyp an. Mögliche Werte sind:
GCS_SSE_KMS
: Serverseitige Verschlüsselung, die einen optionalenKMS_KEY_ID
-Wert akzeptiert.
Weitere Informationen dazu finden Sie in der Dokumentation zu Google Cloud Platform:
KMS_KEY_ID = 'Zeichenfolge'
(gilt nur fürGCS_SSE_KMS
-Verschlüsselung)Gibt optional die ID für den Cloud-KMS-verwalteten Schlüssel an, der zum Verschlüsseln von Dateien verwendet wird, die in den Bucket entladen wurden. Wenn kein Wert angegeben ist, werden Dateien beim Entladen in den Bucket mit Ihrer standardmäßigen KMS-Schlüssel-ID verschlüsselt.
Beachten Sie, dass dieser Wert beim Laden von Daten ignoriert wird. Die Ladeoperation sollte erfolgreich sein, wenn das Dienstkonto über ausreichende Berechtigungen zum Entschlüsseln von Daten im Bucket verfügt.
Microsoft Azure
ENCRYPTION = ( [ TYPE = 'AZURE_CSE' | NONE ] [ MASTER_KEY = 'Zeichenfolge' ] )
TYPE = ...
Gibt den verwendeten Verschlüsselungstyp an. Mögliche Werte sind:
AZURE_CSE
: Clientseitige Verschlüsselung (erfordert einen MASTER_KEY-Wert). Weitere Informationen dazu finden Sie unter Informationen zur clientseitigen Verschlüsselung in der Microsoft Azure-Dokumentation.NONE
: Keine Verschlüsselung.
MASTER_KEY = 'Zeichenfolge'
(gilt nur für AZURE_CSE-Verschlüsselung)Gibt den clientseitigen Hauptschlüssel an, der zum Ver- oder Entschlüsseln von Dateien verwendet wird. Der Hauptschlüssel muss ein 128-Bit- oder 256-Bit-Schlüssel in Base64-codierter Form sein.
Formattypoptionen (formatTypeOptions
)¶
Je nach angegebenem Dateiformattyp (FILE_FORMAT = ( TYPE = ... )
) können Sie eine oder mehrere der folgenden formatspezifischen Optionen (durch Leerzeichen, Kommas oder Neue-Zeile-Zeichen getrennt) einschließen:
TYPE = CSV¶
COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
- Verwendung
Laden und Entladen von Daten
- Definition
Beim Laden von Daten wird der aktuelle Komprimierungsalgorithmus für die Datendatei angegeben. Snowflake verwendet diese Option, um zu erkennen, wie eine bereits komprimierte Datendatei komprimiert wurde, sodass die komprimierten Daten in der Datei zum Laden extrahiert werden können.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt, mit Ausnahme von Brotli-komprimierten Dateien, die derzeit nicht automatisch erkannt werden können. Beim Entladen von Daten werden Dateien automatisch mit der Standardmethode gzip komprimiert.
GZIP
BZ2
BROTLI
Muss beim Laden/Entladen von Brotli-komprimierten Dateien angegeben werden.
ZSTD
Zstandard v0.8 (und höher) wird unterstützt.
DEFLATE
Deflate-komprimierte Dateien (mit zlib-Header, RFC1950).
RAW_DEFLATE
Raw Deflate-komprimierte Dateien (ohne Header, RFC1951).
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard
AUTO
RECORD_DELIMITER = 'Zeichen' | NONE
- Verwendung
Laden und Entladen von Daten
- Definition
Ein oder mehrere Einzelbyte- oder Multibyte-Zeichen, die Datensätze in einer Eingabedatei (Laden von Daten) oder einer entladenen Datei (Entladen von Daten) voneinander trennen.
Akzeptiert gängige Escape-Sequenzen, Oktalwerte (mit
\\
vorangestellt) oder Hex-Werte (mit0x
vorangestellt). Geben Sie beispielsweise für Datensätze, die durch das Thornzeichen (Þ
) getrennt sind, den Oktalwert (\\336
) oder den Hexadezimalwert (0xDE
) an. Akzeptiert auch den WertNONE
.Das angegebene Trennzeichen muss ein gültiges UTF-8-Zeichen sein und darf keine zufällige Folge von Bytes sein.
Trennzeichen mit mehreren Zeichen werden ebenfalls unterstützt. Das Trennzeichen für RECORD_DELIMITER oder FIELD_DELIMITER darf jedoch keine Teilzeichenfolge des Trennzeichens der anderen Dateiformatoption sein (z. B.
FIELD_DELIMITER = 'aa' RECORD_DELIMITER = 'aabb'
). Das Trennzeichen darf maximal 20 Zeichen lang sein. Geben Sie keine Zeichen an, die für andere Dateiformatoptionen wieESCAPE
oderESCAPE_UNENCLOSED_FIELD
verwendet werden.- Standard
- Laden von Daten
Zeichen für „Neue Zeile“. Beachten Sie, dass „neue Zeile“ logisch ist, sodass
\r\n
als neue Zeile für Dateien auf einer Windows-Plattform verstanden wird.- Entladen von Daten
Neue-Zeile-Zeichen (
\n
).
FIELD_DELIMITER = 'Zeichen' | NONE
- Verwendung
Laden und Entladen von Daten
- Definition
Ein oder mehrere Einzelbyte- oder Multibyte-Zeichen, die Felder in einer Eingabedatei (Laden von Daten) oder einer entladenen Datei (Entladen von Daten) voneinander trennen.
Akzeptiert gängige Escape-Sequenzen, Oktalwerte (mit
\\
vorangestellt) oder Hex-Werte (mit0x
vorangestellt). Geben Sie beispielsweise für Felder, die durch das Thornzeichen (Þ
) getrennt sind, den Oktalwert (\\336
) oder den Hexadezimalwert (0xDE
) an. Akzeptiert auch den WertNONE
.Das angegebene Trennzeichen muss ein gültiges UTF-8-Zeichen sein und darf keine zufällige Folge von Bytes sein.
Trennzeichen mit mehreren Zeichen werden ebenfalls unterstützt. Das Trennzeichen für RECORD_DELIMITER oder FIELD_DELIMITER darf jedoch keine Teilzeichenfolge des Trennzeichens der anderen Dateiformatoption sein (z. B.
FIELD_DELIMITER = 'aa' RECORD_DELIMITER = 'aabb'
). Das Trennzeichen darf maximal 20 Zeichen lang sein. Geben Sie keine Zeichen an, die für andere Dateiformatoptionen wieESCAPE
oderESCAPE_UNENCLOSED_FIELD
verwendet werden.- Standard
Komma (
,
)
FILE_EXTENSION = 'Zeichenfolge' | NONE
- Verwendung
Nur Entladen von Daten
- Definition
Gibt die Erweiterung für Dateien an, die in einen Stagingbereich entladen werden. Akzeptiert jede Erweiterung. Der Benutzer ist dafür verantwortlich, eine Dateiendung anzugeben, die von jeder gewünschten Software oder dem gewünschten Service gelesen werden kann.
- Standard
Null, d. h. die Dateierweiterung wird durch den Formattyp bestimmt, z. B.
.csv[Komprimierung]
, wobeiKomprimierung
die durch die Komprimierungsmethode hinzugefügte Erweiterung ist, wennCOMPRESSION
festgelegt ist.
Bemerkung
Wenn die
SINGLE
-Kopieroption den WertTRUE
hat, wird mit dem Befehl COPY standardmäßig eine Datei ohne Dateiendung entladen. Um eine Dateierweiterung anzugeben, geben Sie einen Dateinamen und eine Erweiterung im Pfadinterner_Speicherplatz
oderexterner_Speicherplatz
an (z. B.copy into @stage/data.csv
).SKIP_HEADER = Ganzzahl
- Verwendung
Nur Laden von Daten
- Definition
Anzahl der Zeilen am Anfang der zu überspringenden Datei.
Beachten Sie, dass SKIP_HEADER nicht die Werte RECORD_DELIMITER oder FIELD_DELIMITER verwendet, um zu bestimmen, was eine Kopfzeile ist. Stattdessen wird einfach die angegebene Anzahl von CRLF (Wagenrücklauf, Zeilenvorschub)-begrenzten Zeilen in der Datei übersprungen. RECORD_DELIMITER und FIELD_DELIMITER werden dann verwendet, um die zu ladenden Datenzeilen zu bestimmen.
- Standard
0
SKIP_BLANK_LINES = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob Leerzeilen in den Datendateien übersprungen werden sollen oder ob sie zu einem Datensatzende-Fehler (Standardverhalten) führen.
Standard:
FALSE
DATE_FORMAT = 'Zeichenfolge' | AUTO
- Verwendung
Laden und Entladen von Daten
- Definition
Definiert das Format der Datumswerte in den Datendateien (Laden von Daten) oder der Tabelle (Entladen von Daten). Wenn ein Wert nicht angegeben ist oder
AUTO
ist, wird der Wert für den Parameter DATE_INPUT_FORMAT (Datenladen) oder DATE_OUTPUT_FORMAT (Datenentladen) verwendet.- Standard
AUTO
TIME_FORMAT = 'Zeichenfolge' | AUTO
- Verwendung
Laden und Entladen von Daten
- Definition
Definiert das Format der Zeitwerte in den Datendateien (Laden von Daten) oder der Tabelle (Entladen von Daten). Wenn ein Wert nicht angegeben ist oder
AUTO
ist, wird der Wert für den Parameter TIME_INPUT_FORMAT (Datenladen) oder TIME_OUTPUT_FORMAT (Datenentladen) verwendet.- Standard
AUTO
TIMESTAMP_FORMAT = Zeichenfolge' | AUTO
- Verwendung
Laden und Entladen von Daten
- Definition
Definiert das Format der Zeitstempelwerte in den Datendateien (Laden von Daten) oder der Tabelle (Entladen von Daten). Wenn ein Wert nicht angegeben ist oder
AUTO
ist, wird der Wert für den Parameter TIMESTAMP_INPUT_FORMAT (Datenladen) oder TIMESTAMP_OUTPUT_FORMAT (Datenentladen) verwendet.- Standard
AUTO
BINARY_FORMAT = HEX | BASE64 | UTF8
- Verwendung
Laden und Entladen von Daten
- Definition
Definiert das Codierungsformat für die Binäreingabe oder -ausgabe. Die Option kann beim Laden von Daten in oder Entladen von Daten aus binären Spalten einer Tabelle verwendet werden.
- Standard
HEX
ESCAPE = 'Zeichen' | NONE
- Verwendung
Laden und Entladen von Daten
- Definition
Zeichenfolge mit einem einzelnen Zeichen, das als Escapezeichen für Feldwerte verwendet wird. Ein Escapezeichen ruft eine alternative Interpretation für nachfolgende Zeichen in einer Zeichenfolge auf. Sie können das ESCAPE-Zeichen verwenden, um Instanzen von
FIELD_DELIMITER
-,RECORD_DELIMITER
- oderFIELD_OPTIONALLY_ENCLOSED_BY
-Zeichen in den Daten als Literale zu interpretieren. Das Escapezeichen kann auch verwendet werden, um Instanzen von sich selbst in den Daten in Escapezeichen einzuschließen.
Akzeptiert gängige Escapesequenzen, Oktalwerte oder Hexadezimalwerte.
Gibt beim Laden von Daten das Escapezeichen für eingeschlossene Felder an. Geben Sie das Zeichen an, das zum Einschließen von Feldern verwendet wird, indem Sie
FIELD_OPTIONALLY_ENCLOSED_BY
festlegen.Wenn diese Option beim Entladen von Daten gesetzt ist, überschreibt sie den Escape-Zeichensatz für
ESCAPE_UNENCLOSED_FIELD
.
- Standard
NONE
ESCAPE_UNENCLOSED_FIELD = 'Zeichen' | NONE
- Verwendung
Laden und Entladen von Daten
- Definition
Zeichenfolge mit einem einzelnen Zeichen, das als Escapezeichen nur für nicht eingeschlossene Feldwerte verwendet wird. Ein Escapezeichen ruft eine alternative Interpretation für nachfolgende Zeichen in einer Zeichenfolge auf. Sie können das ESCAPE-Zeichen verwenden, um Instanzen von
FIELD_DELIMITER
- oderRECORD_DELIMITER
-Zeichen in den Daten als Literale zu interpretieren. Das Escapezeichen kann auch verwendet werden, um Instanzen von sich selbst in den Daten in Escapezeichen einzuschließen.
Akzeptiert gängige Escapesequenzen, Oktalwerte oder Hexadezimalwerte.
Hinweis: Wenn
ESCAPE
beim Entladen von Daten gesetzt ist, wird diese Option vom Escapezeichensatz der Dateiformatoption überschrieben.- Standard
Backslash (
\\
)
TRIM_SPACE = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob Leerzeichen aus Feldern entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Weiteres Beispiel: Wenn Zeichenfolgen von Anführungszeichen umschlossen sind und die Anführungszeichen von führenden oder nachstehende Leerzeichen, können Sie die umgebenden Leerzeichen mit dieser Option entfernen und die Anführungszeichen mit der Option
FIELD_OPTIONALLY_ENCLOSED_BY
. Beachten Sie, dass alle innerhalb der Anführungszeichen befindlichen Leerzeichen erhalten bleiben. Zum Beispiel beiFIELD_DELIMITER = '|'
undFIELD_OPTIONALLY_ENCLOSED_BY = '"'
:|"Hello world"| /* loads as */ >Hello world< |" Hello world "| /* loads as */ > Hello world < | "Hello world" | /* loads as */ >Hello world<
(die Klammern in diesem Beispiel werden nicht geladen; sie dienen dazu, den Anfang und das Ende der geladenen Zeichenfolgen zu markieren).
- Standard
FALSE
FIELD_OPTIONALLY_ENCLOSED_BY = 'Zeichen' | NONE
- Verwendung
Laden und Entladen von Daten
- Definition
Zeichen, das verwendet wird, um Zeichenfolgen einzuschließen. Der Wert kann
NONE
, ein einfaches Anführungszeichen ('
) oder ein doppeltes Anführungszeichen ("
) sein. Um das einfache Anführungszeichen verwenden zu können, müssen Sie die oktale oder hexadezimale Darstellung (0x27
) oder das doppelte einfache Anführungszeichen als Escape-Zeichen (''
) verwenden.Wenn ein Feld dieses Zeichen enthält, können Sie es mit dem gleichen Zeichen löschen. Wenn der Wert beispielsweise das doppelte Anführungszeichen ist und ein Feld die Zeichenfolge
A "B" C
enthält, schließen Sie die doppelten Anführungszeichen in Escapezeichen ein:A ""B"" C
- Standard
NONE
NULL_IF = ( 'Zeichenfolge1' [ , 'Zeichenfolge2' , ... ] )
- Verwendung
Laden und Entladen von Daten
- Definition
Zeichenfolge, die zum Konvertieren in und von SQL NULL verwendet wird:
Beim Laden von Daten ersetzt Snowflake diese Zeichenfolgen in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Beispiel:
NULL_IF = ('\\N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
Beim Entladen von Daten konvertiert Snowflake SQL-NULL-Werte in den ersten Wert der Liste.
- Standard
\\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\\
ist)
ERROR_ON_COLUMN_COUNT_MISMATCH = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob ein Parsing-Fehler generiert werden soll, wenn die Anzahl der durch Trennzeichen begrenzten Spalten (d. h. Felder) in einer Eingabedatei nicht mit der Anzahl der Spalten in der entsprechenden Tabelle übereinstimmt.
Wenn auf
FALSE
gesetzt, wird kein Fehler erzeugt und die Last wird fortgesetzt. Wenn die Datei erfolgreich geladen wurde:Wenn die Eingabedatei Datensätze mit mehr Feldern als Spalten in der Tabelle enthält, werden die übereinstimmenden Felder in der Reihenfolge ihres Auftretens in der Datei und die restlichen Felder nicht geladen.
Wenn die Eingabedatei Datensätze mit weniger Feldern als Spalten in der Tabelle enthält, werden die nicht übereinstimmenden Spalten in der Tabelle mit NULL-Werten geladen.
Diese Option geht davon aus, dass alle Datensätze innerhalb der Eingabedatei die gleiche Länge haben (d. h. eine Datei mit Datensätzen unterschiedlicher Länge gibt unabhängig vom für diesen Parameter angegebenen Wert einen Fehler zurück).
- Standard
TRUE
Bemerkung
Bei der Transformation von Daten während des Ladevorgangs (d. h. Verwendung einer Abfrage als Quelle für den Befehl COPY), wird diese Option ignoriert. Es ist nicht erforderlich, dass die Datendateien die gleiche Anzahl und Reihenfolge der Spalten aufweisen wie die Zieltabelle.
REPLACE_INVALID_CHARACTERS = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen ersetzt werden sollen (�).
Bei Einstellung auf
TRUE
ersetzt Snowflake ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard
FALSE
VALIDATE_UTF8 = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob die UTF-8-Zeichencodierung in Zeichenfolgenspaltendaten überprüft werden soll.
Wenn auf
TRUE
gesetzt, validiert Snowflake die UTF-8-Zeichencodierung in Zeichenfolgenspaltendaten. Wenn eine ungültige UTF-8-Zeichencodierung erkannt wird, führt der COPY-Befehl zu einem Fehler.- Standard
TRUE
Wichtig
Diese Option wird nur bereitgestellt, um Abwärtskompatibilität mit früheren Versionen von Snowflake sicherzustellen. Sie sollten diese Option nicht deaktivieren, es sei denn, Sie werden vom Snowflake-Support angewiesen.
EMPTY_FIELD_AS_NULL = TRUE | FALSE
- Verwendung
Laden und Entladen von Daten
- Definition
Gibt beim Laden von Daten an, ob für leere Felder einer Eingabedatei, die durch zwei aufeinanderfolgende Trennzeichen (z. B.
,,
) repräsentiert werden, SQL NULL eingefügt werden soll.Wenn der Wert
FALSE
ist, versucht Snowflake, einem leeren Feld den entsprechenden Spaltentyp zuzuweisen. In Spalten vom Typ STRING wird eine leere Zeichenfolge eingefügt. Für andere Spaltentypen generiert der COPY-Befehl einen Fehler.Beim Entladen von Daten wird diese Option in Kombination mit
FIELD_OPTIONALLY_ENCLOSED_BY
verwendet. WennFIELD_OPTIONALLY_ENCLOSED_BY = NONE
festgelegt ist, werden beiEMPTY_FIELD_AS_NULL = FALSE
leere Zeichenfolgen in Tabellen entladen, um leere Zeichenfolgenwerte zu erhalten, ohne dass die Feldwerte in Anführungszeichen eingeschlossen werden.Wenn
TRUE
festgelegt wird, mussFIELD_OPTIONALLY_ENCLOSED_BY
ein Zeichen angeben, das zum Umschließen von Zeichenfolgen verwendet wird.
- Standard
TRUE
SKIP_BYTE_ORDER_MARK = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob die BOM (Bytereihenfolge-Marke) übersprungen werden soll, wenn sie in einer Datendatei vorhanden ist. Eine BOM ist ein Zeichencode am Anfang einer Datendatei, der die Bytefolge und die Codierungsform definiert.
Wenn auf
FALSE
gesetzt, erkennt Snowflake alle BOM in Datendateien, was dazu führen kann, dass die BOM entweder einen Fehler verursacht oder in der ersten Spalte der Tabelle zusammengeführt wird.- Standard
TRUE
ENCODING = 'Zeichenfolge'
- Verwendung
Nur Laden von Daten
- Definition
Zeichenfolge (Konstante), die den Zeichensatz der Quelldaten beim Laden von Daten in eine Tabelle angibt.
Zeichensatz
ENCODING
-WertUnterstützte Sprachen
Anmerkungen
Big5
BIG5
Traditionelles Chinesisch
EUC-JP
EUCJP
Japanisch
EUC-KR
EUCKR
Koreanisch
GB18030
GB18030
Chinesisch
IBM420
IBM420
Arabisch
IBM424
IBM424
Hebräisch
ISO-2022-CN
ISO2022CN
Vereinfachtes Chinesisch
ISO-2022-JP
ISO2022JP
Japanisch
ISO-2022-KR
ISO2022KR
Koreanisch
ISO-8859-1
ISO88591
Dänisch, Deutsch, Englisch, Französisch, Italienisch, Niederländisch, Norwegisch, Portugiesisch, Schwedisch
ISO-8859-2
ISO88592
Polnisch, Rumänisch, Tschechisch, Ungarisch
ISO-8859-5
ISO88595
Russisch
ISO-8859-6
ISO88596
Arabisch
ISO-8859-7
ISO88597
Griechisch
ISO-8859-8
ISO88598
Hebräisch
ISO-8859-9
ISO88599
Türkisch
KOI8-R
KOI8R
Russisch
Shift_JIS
SHIFTJIS
Japanisch
UTF-8
UTF8
Alle Sprachen
Zum Laden von Daten aus Dateien mit Trennzeichen (CSV, TSV usw.) ist UTF-8 die Standardeinstellung. . . Beim Laden von Daten aus allen anderen unterstützten Dateiformaten (JSON, Avro usw.) sowie zum Entladen von Daten ist UTF-8 der einzige unterstützte Zeichensatz.
UTF-16
UTF16
Alle Sprachen
UTF-16BE
UTF16BE
Alle Sprachen
UTF-16LE
UTF16LE
Alle Sprachen
UTF-32
UTF32
Alle Sprachen
UTF-32BE
UTF32BE
Alle Sprachen
UTF-32LE
UTF32LE
Alle Sprachen
windows-1250
WINDOWS1250
Polnisch, Rumänisch, Tschechisch, Ungarisch
windows-1251
WINDOWS1251
Russisch
windows-1252
WINDOWS1252
Dänisch, Deutsch, Englisch, Französisch, Italienisch, Niederländisch, Norwegisch, Portugiesisch, Schwedisch
windows-1253
WINDOWS1253
Griechisch
windows-1254
WINDOWS1254
Türkisch
windows-1255
WINDOWS1255
Hebräisch
windows-1256
WINDOWS1256
Arabisch
- Standard
UTF8
Bemerkung
Snowflake speichert alle Daten intern im UTF-8-Zeichensatz. Die Daten werden in UTF-8 umgewandelt, bevor sie in Snowflake geladen werden. Wenn die Dateiformatoption
VALIDATE_UTF8
den WertTRUE
hat, validiert Snowflake die UTF-8-Zeichencodierung in den Zeichenfolgenspaltendaten, nachdem sie von ihrer ursprünglichen Zeichencodierung konvertiert wurde.
TYPE = JSON¶
COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
- Verwendung
Nur Laden von Daten
- Definition
Beim Laden von Daten wird der aktuelle Komprimierungsalgorithmus für die Datendatei angegeben. Snowflake verwendet diese Option, um zu erkennen, wie eine bereits komprimierte Datendatei komprimiert wurde, sodass die komprimierten Daten in der Datei zum Laden extrahiert werden können.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt, mit Ausnahme von Brotli-komprimierten Dateien, die derzeit nicht automatisch erkannt werden können. Beim Entladen von Daten werden Dateien automatisch mit der Standardmethode gzip komprimiert.
GZIP
BZ2
BROTLI
Muss beim Laden/Entladen von Brotli-komprimierten Dateien angegeben werden.
ZSTD
Zstandard v0.8 (und höher) wird unterstützt.
DEFLATE
Deflate-komprimierte Dateien (mit zlib-Header, RFC1950).
RAW_DEFLATE
Raw Deflate-komprimierte Dateien (ohne Header, RFC1951).
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard
AUTO
DATE_FORMAT = 'Zeichenfolge' | AUTO
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn JSON-Daten in separate Spalten geladen werden (d. h. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Definiert das Format der Datumszeichenfolgewerte in den Datendateien. Wenn ein Wert nicht angegeben oder
AUTO
ist, wird der Wert des Parameters DATE_INPUT_FORMAT verwendet.Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
AUTO
TIME_FORMAT = 'Zeichenfolge' | AUTO
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn JSON-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Definiert das Format der Uhrzeit-Zeichenfolgewerte in den Datendateien. Wenn ein Wert nicht angegeben oder
AUTO
ist, wird der Wert des Parameters TIME_INPUT_FORMAT verwendet.Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
AUTO
TIMESTAMP_FORMAT = Zeichenfolge' | AUTO
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn JSON-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Definiert das Format der Zeitstempel-Zeichenfolgewerte in den Datendateien. Wenn ein Wert nicht angegeben oder
AUTO
ist, wird der Wert des Parameters TIMESTAMP_INPUT_FORMAT verwendet.Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
AUTO
BINARY_FORMAT = HEX | BASE64 | UTF8
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn JSON-Daten in separate Spalten geladen werden (d. h. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Definiert das Codierungsformat für Binärzeichenfolgewerte in den Datendateien. Die Option kann beim Laden von Daten in binäre Spalten einer Tabelle verwendet werden.
Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
HEX
TRIM_SPACE = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn JSON-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Boolescher Wert, der angibt, ob führende und nachstehende Leerzeichen aus Zeichenfolgen entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
FALSE
NULL_IF = ( 'Zeichenfolge1' [ , 'Zeichenfolge2' , ... ] )
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn JSON-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Zeichenfolge, die zum Konvertieren in/aus SQL NULL verwendet wird. Snowflake ersetzt diese Zeichenfolgen in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Beispiel:
NULL_IF = ('\\N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
\\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\\
ist)
FILE_EXTENSION = 'Zeichenfolge' | NONE
- Verwendung
Nur Entladen von Daten
- Definition
Gibt die Erweiterung für Dateien an, die in einen Stagingbereich entladen werden. Akzeptiert jede Erweiterung. Der Benutzer ist dafür verantwortlich, eine Dateiendung anzugeben, die von jeder gewünschten Software oder dem gewünschten Service gelesen werden kann.
- Standard
Null, d. h. die Dateierweiterung wird durch den Formattyp bestimmt, z. B.
.json[Komprimierung]
, wobeiKomprimierung
die durch die Komprimierungsmethode hinzugefügte Erweiterung ist, wennCOMPRESSION
festgelegt ist.
ENABLE_OCTAL = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der das Parsen von Oktalzahlen ermöglicht.
- Standard
FALSE
ALLOW_DUPLICATE = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, dass doppelte Objektfeldnamen erlaubt sind (nur der letzte wird beibehalten).
- Standard
FALSE
STRIP_OUTER_ARRAY = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der den JSON-Parser anweist, die äußeren Klammern zu entfernen (d. h.
[ ]
).- Standard
FALSE
STRIP_NULL_VALUES = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der den JSON-Parser anweist, Objektfelder oder Array-Elemente mit
null
-Werten zu entfernen. Zum Beispiel, wenn aufTRUE
gesetzt:Vorher
Nachher
[null]
[]
[null,null,3]
[,,3]
{"a":null,"b":null,"c":123}
{"c":123}
{"a":[1,null,2],"b":{"x":null,"y":88}}
{"a":[1,,2],"b":{"y":88}}
- Standard
FALSE
REPLACE_INVALID_CHARACTERS = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen (�) ersetzt werden sollen. Die Kopieroption führt eine 1:1-Zeichenersetzung durch.
Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Werte
Bei Einstellung auf
TRUE
ersetzt Snowflake ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard
FALSE
IGNORE_UTF8_ERRORS = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob UTF-8-Codierungsfehler Fehlerbedingungen erzeugen. Wenn auf
TRUE
gesetzt, werden alle ungültigen UTF-8-Sequenzen stillschweigend durch das UnicodezeichenU+FFFD
(d. h. „Ersetzungszeichen“) ersetzt.Bemerkung
Diese Kopieroption entfernt beim Laden der Daten alle Nicht-UTF-8-Zeichen, aber es gibt keine Garantie für eine 1:1-Ersetzung von Zeichen. Wir empfehlen, stattdessen die Kopieroption REPLACE_INVALID_CHARACTERS zu verwenden.
- Standard
FALSE
SKIP_BYTE_ORDER_MARK = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob die BOM (Bytereihenfolge-Marke) übersprungen werden soll, wenn sie in einer Datendatei vorhanden ist. Eine BOM ist ein Zeichencode am Anfang einer Datendatei, der die Bytefolge und die Codierungsform definiert.
Wenn auf
FALSE
gesetzt, erkennt Snowflake alle BOM in Datendateien, was dazu führen kann, dass die BOM entweder einen Fehler verursacht oder in der ersten Spalte der Tabelle zusammengeführt wird.- Standard
TRUE
TYPE = AVRO¶
COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
- Verwendung
Nur Laden von Daten
- Definition
Beim Laden von Daten wird der aktuelle Komprimierungsalgorithmus für die Datendatei angegeben. Snowflake verwendet diese Option, um zu erkennen, wie eine bereits komprimierte Datendatei komprimiert wurde, sodass die komprimierten Daten in der Datei zum Laden extrahiert werden können.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt, mit Ausnahme von Brotli-komprimierten Dateien, die derzeit nicht automatisch erkannt werden können. Beim Entladen von Daten werden Dateien automatisch mit der Standardmethode gzip komprimiert.
GZIP
BZ2
BROTLI
Muss beim Laden/Entladen von Brotli-komprimierten Dateien angegeben werden.
ZSTD
Zstandard v0.8 (und höher) wird unterstützt.
DEFLATE
Deflate-komprimierte Dateien (mit zlib-Header, RFC1950).
RAW_DEFLATE
Raw Deflate-komprimierte Dateien (ohne Header, RFC1951).
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard
AUTO
TRIM_SPACE = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn Avro-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Boolescher Wert, der angibt, ob führende und nachstehende Leerzeichen aus Zeichenfolgen entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
FALSE
NULL_IF = ( 'Zeichenfolge1' [ , 'Zeichenfolge2' , ... ] )
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn Avro-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Zeichenfolge, die zum Konvertieren in/aus SQL NULL verwendet wird. Snowflake ersetzt diese Zeichenfolgen in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Beispiel:
NULL_IF = ('\\N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
\\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\\
ist)
TYPE = ORC¶
TRIM_SPACE = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn ORC-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Boolescher Wert, der angibt, ob führende und nachstehende Leerzeichen aus Zeichenfolgen entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
FALSE
NULL_IF = ( 'Zeichenfolge1' [ , 'Zeichenfolge2' , ... ] )
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn ORC-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Zeichenfolge, die zum Konvertieren in/aus SQL NULL verwendet wird. Snowflake ersetzt diese Zeichenfolgen in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Beispiel:
NULL_IF = ('\\N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
\\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\\
ist)
TYPE = PARQUET¶
COMPRESSION = AUTO | LZO | SNAPPY | NONE
- Verwendung
Laden und Entladen von Daten
- Definition
Gibt beim Laden von Daten den aktuellen Komprimierungsalgorithmus für Spalten in den Parquet-Dateien an.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt. Unterstützt die folgenden Komprimierungsalgorithmen: Brotli, gzip, Lempel-Ziv-Oberhumer (LZO), LZ4, Snappy oder Zstandard v0.8 (und höher). . Beim Entladen von Daten werden entladene Dateien standardmäßig mit dem Snappy-Algorithmus komprimiert.
LZO
Beim Entladen von Daten werden Dateien standardmäßig mit dem Snappy-Algorithmus komprimiert. Geben Sie diesen Wert an, wenn Daten in LZO-komprimierte Dateien entladen werden sollen.
SNAPPY
Beim Entladen von Daten werden Dateien standardmäßig mit dem Snappy-Algorithmus komprimiert. Sie können diesen Wert optional angeben.
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard
AUTO
SNAPPY_COMPRESSION = TRUE | FALSE
- Verwendung
Nur Entladen von Daten
AUTO
| Entladene Dateien werden standardmäßig mit dem Snappy-Komprimierungsalgorithmus komprimiert.SNAPPY
| Kann angegeben werden, wenn Snappy-komprimierte Dateien entladen werden.NONE
| Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.- Definition
Boolescher Wert, der angibt, ob entladene Dateien mit dem SNAPPY-Algorithmus komprimiert werden.
Bemerkung
Veraltet. Verwenden Sie stattdessen
COMPRESSION = SNAPPY
.- Einschränkungen
Wird nur für Datenentladevorgänge unterstützt.
- Standard
TRUE
BINARY_AS_TEXT = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob Spalten ohne definierten logischen Datentyp als UTF-8-Text interpretiert werden sollen. Wenn auf
FALSE
gesetzt, interpretiert Snowflake diese Spalten als Binärdaten.- Einschränkungen
Wird nur für Datenladeoperationen unterstützt.
- Standard
TRUE
TRIM_SPACE = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn Parquet-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Boolescher Wert, der angibt, ob führende und nachstehende Leerzeichen aus Zeichenfolgen entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
FALSE
NULL_IF = ( 'Zeichenfolge1' [ , 'Zeichenfolge2' , ... ] )
- Verwendung
Nur Laden von Daten
- Definition
Wird nur angewendet, wenn Parquet-Daten in separate Spalten geladen werden (z. B. mithilfe der Kopieroption MATCH_BY_COLUMN_NAME oder einer COPY-Transformation). Zeichenfolge, die zum Konvertieren in/aus SQL NULL verwendet wird. Snowflake ersetzt diese Zeichenfolgen in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Beispiel:
NULL_IF = ('\\N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
Diese Dateiformatoption ist derzeit eine Vorschaufunktion.
- Standard
\\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\\
ist)
TYPE = XML¶
COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
- Verwendung
Nur Laden von Daten
- Definition
Beim Laden von Daten wird der aktuelle Komprimierungsalgorithmus für die Datendatei angegeben. Snowflake verwendet diese Option, um zu erkennen, wie eine bereits komprimierte Datendatei komprimiert wurde, sodass die komprimierten Daten in der Datei zum Laden extrahiert werden können.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt, mit Ausnahme von Brotli-komprimierten Dateien, die derzeit nicht automatisch erkannt werden können. Beim Entladen von Daten werden Dateien automatisch mit der Standardmethode gzip komprimiert.
GZIP
BZ2
BROTLI
Muss beim Laden/Entladen von Brotli-komprimierten Dateien angegeben werden.
ZSTD
Zstandard v0.8 (und höher) wird unterstützt.
DEFLATE
Deflate-komprimierte Dateien (mit zlib-Header, RFC1950).
RAW_DEFLATE
Raw Deflate-komprimierte Dateien (ohne Header, RFC1951).
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard
AUTO
IGNORE_UTF8_ERRORS = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob UTF-8-Codierungsfehler Fehlerbedingungen erzeugen. Wenn auf
TRUE
gesetzt, werden alle ungültigen UTF-8-Sequenzen stillschweigend durch das UnicodezeichenU+FFFD
(d. h. „Ersetzungszeichen“) ersetzt.- Standard
FALSE
PRESERVE_SPACE = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob der XML-Parser führende und nachstehende Leerzeichen im Elementinhalt beibehält.
- Standard
FALSE
STRIP_OUTER_ELEMENT = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob der XML-Parser das äußere XML-Element entfernt und Elemente der zweiten Ebene als separate Dokumente anzeigt.
- Standard
FALSE
DISABLE_SNOWFLAKE_DATA = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob der XML-Parser die Erkennung von semistrukturierten Snowflake-Daten-Tags deaktiviert.
- Standard
FALSE
DISABLE_AUTO_CONVERT = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob der XML-Parser die automatische Konvertierung von numerischen und booleschen Werten von Text in native Darstellung deaktiviert.
- Standard
FALSE
SKIP_BYTE_ORDER_MARK = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob eine BOM (Byte-Reihenfolgemarke) in einer Eingabedatei übersprungen werden soll. Eine BOM ist ein Zeichencode am Anfang einer Datendatei, der die Bytefolge und die Codierungsform definiert.
Wenn auf
FALSE
gesetzt, erkennt Snowflake alle BOM in Datendateien, was dazu führen kann, dass die BOM entweder einen Fehler verursacht oder in der ersten Spalte der Tabelle zusammengeführt wird.- Standard
TRUE
Kopieroptionen (copyOptions
)¶
Sie können eine oder mehrere der folgenden Kopieroptionen angeben (durch Leerzeichen, Kommas oder Neue-Zeile-Zeichen getrennt):
ON_ERROR = CONTINUE | SKIP_FILE | SKIP_FILE_Zahl | SKIP_FILE_Zahl% | ABORT_STATEMENT
- Verwendung
Nur Laden von Daten
- Definition
Zeichenfolge (Konstante), die die Aktion angibt, die ausgeführt werden soll, wenn beim Laden von Daten aus einer Datei ein Fehler auftritt:
- Werte
Unterstützte Werte
Anmerkungen
CONTINUE
Fährt mit dem Laden der Datei fort. Die COPY-Anweisung gibt eine Fehlermeldung für maximal einen Fehler pro Datendatei zurück. Beachten Sie, dass der Unterschied zwischen den Spaltenwerten ROWS_PARSED und ROWS_LOADED die Anzahl der Zeilen darstellt, die erkannte Fehler enthalten. Jede dieser Zeilen kann jedoch mehrere Fehler enthalten. Um alle Fehler in den Datendateien anzuzeigen, können Sie den Parameter VALIDATION_MODE verwenden oder die Funktion VALIDATE abfragen.
SKIP_FILE
Überspringt die Datei, wenn in der Datei Fehler aufgetreten sind.
SKIP_FILE_Zahl
(z. B.SKIP_FILE_10
)Überspringt die Datei, wenn die Anzahl der Fehlerzeilen in der Datei gleich oder größer als die angegebene Anzahl ist.
SKIP_FILE_Zahl%
(z. B.SKIP_FILE_10%
)Überspringt die Datei, wenn der Prozentsatz der Fehlerzeilen in der Datei den angegebenen Prozentsatz überschreitet.
ABORT_STATEMENT
Bricht die Ladeoperation ab, wenn in einer Datendatei ein Fehler auftritt. Beachten Sie, dass die Ladeoperation nicht abgebrochen wird, wenn die Datendatei nicht gefunden werden kann (z. B. weil sie nicht vorhanden ist oder nicht auf sie zugegriffen werden kann), außer die explizit im Parameter
FILES
angegebene Datendatei kann nicht gefunden werden.
Bemerkung
Derzeit gelten folgende Einschränkungen:
Beim Laden strukturierter, Trennzeichen verwendender Datendateien (CSV, TSV usw.) funktionieren alle ON_ERROR-Werte sowohl bei Parsing- als auch Transformationsfehlern wie erwartet.
Dateien mit semistrukturierten Daten (JSON, Avro, ORC, Parquet oder XML) unterstützen derzeit aufgrund des Designs dieser Formate nicht immer dieselbe Verhaltenssemantik wie strukturierte Datendateien. Dies gilt für die folgenden ON_ERROR-Werte:
CONTINUE
,SKIP_FILE_Zahl
oderSKIP_FILE_Zahl%
.Nur Parquet- und ORC-Daten. Wenn ON_ERROR auf
CONTINUE
,SKIP_FILE_Zahl
oderSKIP_FILE_Zahl%
gesetzt ist, führt jeder Parsing-Fehler dazu, dass die Datendatei übersprungen wird. Alle Konvertierungs- oder Transformationsfehler verwenden das Standardverhalten von COPY (ABORT_STATEMENT
) oder Snowpipe (SKIP_FILE
) unabhängig vom gewählten Optionswert.Nur JSON-, XML- und Avro-Daten. Wenn ON_ERROR auf
CONTINUE
,SKIP_FILE_Zahl
oderSKIP_FILE_Zahl%
gesetzt ist, werden die Datensätze bis zur Stelle des Parsing-Fehlers geladen, während der Rest der Datendatei übersprungen wird. Alle Konvertierungs- oder Transformationsfehler verwenden das Standardverhalten von COPY (ABORT_STATEMENT
) oder Snowpipe (SKIP_FILE
) unabhängig vom gewählten Optionswert.
- Standard
- Massenladen mit COPY
ABORT_STATEMENT
- Snowpipe
SKIP_FILE
SIZE_LIMIT = Zahl
- Verwendung
Nur Laden von Daten
- Definition
Zahl (>0), die die maximale Größe (in Byte) der zu ladenden Daten für eine gegebene COPY-Anweisung angibt. Wenn der Schwellenwert überschritten wird, stoppt die Operation COPY das Laden von Dateien. Diese Option wird häufig verwendet, um eine gemeinsame Gruppe von Dateien mit mehreren COPY-Anweisungen zu laden. Für jede Anweisung wird die Datenladung fortgesetzt, bis das angegebene
SIZE_LIMIT
überschritten ist und bevor zur nächsten Anweisung übergegangen wird.Angenommen, eine Gruppe von Dateien in einem Stagingbereichspfad wäre jeweils 10 MB groß. Wenn mehrere COPY-Anweisungen SIZE_LIMIT auf
25000000
(25 MB) setzen, würde jede 3 Dateien laden. Das heißt, jede COPY-Operation würde nach Überschreiten desSIZE_LIMIT
-Schwellenwerts abbrechen.Beachten Sie, dass mindestens eine Datei unabhängig von dem für
SIZE_LIMIT
angegebenen Wert geladen wird, es sei denn, es ist keine Datei zu laden.- Standard
Null (keine Größenbeschränkung)
PURGE = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob die Datendateien nach erfolgreichem Laden der Daten automatisch aus dem Stagingbereich entfernt werden sollen.
Wenn diese Option auf
TRUE
gesetzt ist, erfolgt das Entfernen der erfolgreich geladenen Datendateien nach besten Kräften. Beachten Sie aber, dass derzeit kein Fehler zurückgegeben wird, wenn die Löschoperation aus irgendeinem Grund fehlschlägt. Wir empfehlen daher, dass Sie die im Stagingbereich befindlichen Dateien regelmäßig auflisten (mit LIST) und erfolgreich geladene Dateien ggf. manuell entfernen.- Standard
FALSE
RETURN_FAILED_ONLY = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, ob nur Dateien zurückgegeben werden sollen, die nicht in das Anweisungsergebnis geladen wurden.
- Standard
FALSE
MATCH_BY_COLUMN_NAME = CASE_SENSITIVE | CASE_INSENSITIVE | NONE
- Verwendung
Nur Laden von Daten
- Definition
Zeichenfolge, die angibt, ob semistrukturierte Daten in Spalten der Zieltabelle geladen werden sollen, die den in den Daten dargestellten Spalten entsprechen.
Diese Kopieroption wird für die folgenden Datenformate unterstützt:
JSON
Avro
ORC
Parquet
Damit eine Spalte übereinstimmt, muss Folgendes zutreffen:
Die in den Daten dargestellte Spalte muss exakt den gleichen Namen haben wie die Spalte in der Tabelle. Die Kopieroption unterstützt die Groß- und Kleinschreibung von Spaltennamen. Die Spaltenreihenfolge spielt keine Rolle.
Die Spalte in der Tabelle muss einen Datentyp haben, der mit den Werten in der in den Daten dargestellten Spalte kompatibel ist. Beispielsweise können Zeichenfolgen-, Zahlen- und Boolesche Werte in eine Variant-Spalte geladen werden.
- Werte
CASE_SENSITIVE
|CASE_INSENSITIVE
Laden Sie semistrukturierte Daten in Spalten der Zieltabelle, die den in den Daten dargestellten Spalten entsprechen. Spaltennamen können zwischen Groß- und Kleinschreibung unterscheiden (
CASE_SENSITIVE
) oder nicht unterscheiden (CASE_INSENSITIVE
).Die COPY-Operation überprüft, ob mindestens eine Spalte in der Zieltabelle mit einer in den Datendateien dargestellten Spalte übereinstimmt. Wenn eine Übereinstimmung gefunden wird, werden die Werte der Datendateien in die entsprechenden Spalten geladen. Wenn keine Übereinstimmung gefunden wird, wird für jeden Datensatz in den Dateien ein Satz von NULL-Werten in die Tabelle geladen.
Bemerkung
Wenn in den Datendateien weitere, nicht übereinstimmende Spalten vorhanden sind, werden die Werte in diesen Spalten nicht geladen.
Wenn die Zieltabelle weitere, nicht übereinstimmende Spalten enthält, fügt die COPY-Operation in diese Spalten NULL-Werte ein. Diese Spalten müssen NULL-Werte unterstützen.
In der COPY-Anweisung darf keine Abfrage zur weiteren Transformation der Daten während des Ladevorgangs (d. h. COPY-Transformation) angegeben werden.
NONE
Die COPY-Operation lädt die semistrukturierten Daten in eine Variant-Spalte oder transformiert die Daten, wenn in der COPY-Anweisung eine Abfrage enthalten ist.
Bemerkung
Derzeit gelten folgende Einschränkungen:
MATCH_BY_COLUMN_NAME kann nicht mit dem Parameter
VALIDATION_MODE
in einer COPY-Anweisung verwendet werden, um die Stagingdaten zu überprüfen, anstatt sie in die Zieltabelle zu laden.Nur Parquet-Daten. Wenn MATCH_BY_COLUMN_NAME auf
CASE_SENSITIVE
oderCASE_INSENSITIVE
gesetzt ist, führt ein leerer Spaltenwert (z. B."col1": ""
) zu einem Fehler.
- Standard
NONE
ENFORCE_LENGTH = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Alternative Syntax für
TRUNCATECOLUMNS
mit umgekehrter Logik (zur Kompatibilität mit anderen Systemen)Boolescher Wert, der angibt, ob Textzeichenfolgen, die die Länge der Zielspalte überschreiten, abgeschnitten werden sollen:
Wenn auf
TRUE
gesetzt, generiert die COPY-Anweisung beim Überschreiten der Länge der Zielspalte einen Fehler.Wenn auf
FALSE
gesetzt, werden Zeichenfolgen automatisch auf die Länge der Zielspalte abgeschnitten.
Derzeit unterstützt diese Kopieroption nur CSV-Daten.
Bemerkung
Wenn die Länge der Spalte für die Zielzeichenfolge auf das Maximum eingestellt ist (z. B.
VARCHAR (16777216)
), kann eine eingehende Zeichenfolge diese Länge nicht überschreiten, andernfalls generiert der COPY-Befehl einen Fehler.Dieser Parameter entspricht funktional dem Parameter
TRUNCATECOLUMNS
, weist aber das umgekehrte Verhalten auf. Dies wird aus Gründen der Kompatibilität mit anderen Datenbanken bereitgestellt. Zum Erzeugen der gewünschten Ausgabe muss nur einer der beiden Parameter in eine COPY-Anweisung aufgenommen werden.
- Standard
TRUE
TRUNCATECOLUMNS = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Alternative Syntax für
ENFORCE_LENGTH
mit umgekehrter Logik (zur Kompatibilität mit anderen Systemen)Boolescher Wert, der angibt, ob Textzeichenfolgen, die die Länge der Zielspalte überschreiten, abgeschnitten werden sollen:
Wenn auf
TRUE
gesetzt, werden Zeichenfolgen automatisch auf die Länge der Zielspalte abgeschnitten.Wenn auf
FALSE
gesetzt, generiert die COPY-Anweisung beim Überschreiten der Länge der Zielspalte einen Fehler.
Derzeit unterstützt diese Kopieroption nur CSV-Daten.
Bemerkung
Wenn die Länge der Spalte für die Zielzeichenfolge auf das Maximum eingestellt ist (z. B.
VARCHAR (16777216)
), kann eine eingehende Zeichenfolge diese Länge nicht überschreiten, andernfalls generiert der COPY-Befehl einen Fehler.Dieser Parameter entspricht funktional dem Parameter
ENFORCE_LENGTH
, weist aber das umgekehrte Verhalten auf. Dies wird aus Gründen der Kompatibilität mit anderen Datenbanken bereitgestellt. Zum Erzeugen der gewünschten Ausgabe muss nur einer der beiden Parameter in eine COPY-Anweisung aufgenommen werden.
- Standard
FALSE
FORCE = TRUE | FALSE
- Verwendung
Nur Laden von Daten
- Definition
Boolescher Wert, der angibt, dass alle Dateien geladen werden sollen, unabhängig davon, ob sie bereits zuvor geladen und seitdem nicht geändert wurden. Beachten Sie, dass diese Option Dateien neu lädt und möglicherweise Daten in einer Tabelle dupliziert.
- Standard
FALSE
Nutzungshinweise¶
URL
,STORAGE_INTEGRATION
undENCRYPTION
gelten nur für externe Stagingbereiche. Wenn Sie einen internen Stagingbereich erstellen, können Sie diese Parameter ignorieren.CREATE STAGE überprüft nicht, ob die angegebene URL oder die Anmeldeinformationen gültig sind. Wenn die Anmeldeinformationen nicht gültig sind, gibt das System beim Versuch, den Stagingbereich zu verwenden, einen Fehler zurück.
Wenn Sie ein Dateiformat im aktuellen Namespace referenzieren, können Sie die einfachen Anführungszeichen um den Formatbezeichner herum weglassen.
Beispiele¶
Interne Stagingbereiche¶
Erstellen Sie einen internen Stagingbereich mit dem Namen my_int_stage
mit dem Standarddateiformattyp (CSV
):
Alle zugehörigen standardmäßigen CSV-Dateiformatoptionen werden verwendet.
Mit Ausnahme von
ON_ERROR
werden alle Standard-Kopieroptionen verwendet. Wenn ein COPY INTO <Tabelle>-Befehl, der auf diesen Stagingbereich verweist, in einem der Datensätze auf einen Datenfehler stößt, wird die Datei übersprungen.CREATE OR REPLACE STAGE my_int_stage COPY_OPTIONS = (ON_ERROR='skip_file');
Erstellen Sie einen temporären internen Stagingbereich mit dem Namen my_temp_int_stage
und mit den gleichen Eigenschaften wie im vorherigen Beispiel, mit Ausnahme der Kopieroption zum Überspringen von Dateien bei Fehlern:
CREATE OR REPLACE TEMPORARY STAGE my_temp_int_stage;
Erstellen Sie einen temporären internen Stagingbereich mit dem Namen my_int_stage
, der auf ein Dateiformat mit dem Namen my_csv_format
verweist (erstellt mit CREATE FILE FORMAT):
CREATE OR REPLACE TEMPORARY STAGE my_int_stage FILE_FORMAT = my_csv_format;Wenn Sie den Stagingbereich in einer COPY INTO <Tabelle>-Anweisung referenzieren, werden die Dateiformatoptionen automatisch festgelegt.
Externe Stagingbereiche¶
Amazon S3
Erstellen Sie mithilfe eines privaten/geschützten S3-Buckets namens
load
einen externen Stagingbereich namensmy_ext_stage
mit einem Ordnerpfad namensfiles
. Sicherer Zugriff auf den S3-Bucket erfolgt über die Speicherintegrationmyint
:CREATE OR REPLACE STAGE my_ext_stage URL='s3://load/files/' STORAGE_INTEGRATION = myint;Erstellen Sie mithilfe eines privaten/geschützten S3-Buckets namens
load
einen externen Stagingbereich namensmy_ext_stage1
mit einem Ordnerpfad namensfiles
. Da die Snowflake-Zugriffsberechtigungen für den S3-Bucket einem IAM-Benutzer zugeordnet sind, sind IAM-Anmeldeinformationen erforderlich:CREATE OR REPLACE STAGE my_ext_stage URL='s3://load/files/' CREDENTIALS=(AWS_KEY_ID='1a2b3c' AWS_SECRET_KEY='4x5y6z');Beachten Sie, dass die in diesem Beispiel verwendeten Werte AWS_KEY_ID und AWS_SECRET_KEY nur zur Veranschaulichung dienen.
Erstellen Sie mithilfe eines S3-Buckets namens
load
einen externen Stagingbereich namensmy_ext_stage2
mit einem Ordnerpfad namensencrypted_files
und clientseitiger Verschlüsselung (Standard-Verschlüsselungstyp) mit dem Hauptschlüssel, um im Bucket gespeicherte Dateien zu entschlüsseln/verschlüsseln:CREATE OR REPLACE STAGE my_ext_stage2 URL='s3://load/encrypted_files/' CREDENTIALS=(AWS_KEY_ID='1a2b3c' AWS_SECRET_KEY='4x5y6z') ENCRYPTION=(MASTER_KEY = 'eSxX0jzYfIamtnBKOEOwq80Au6NbSgPH5r4BDDwOaO8=');Erstellen Sie mithilfe eines S3-Buckets namens
load
einen externen Stagingbereich namensmy_ext_stage3
mit einem Ordnerpfad namensencrypted_files
und AWS_SSE_KMS-serverseitiger Verschlüsselung mit der ID für den Hauptschlüssel zum Entschlüsseln/Verschlüsseln von im Bucket gespeicherten Dateien:CREATE OR REPLACE STAGE my_ext_stage3 URL='s3://load/encrypted_files/' CREDENTIALS=(AWS_KEY_ID='1a2b3c' AWS_SECRET_KEY='4x5y6z') ENCRYPTION=(TYPE='AWS_SSE_KMS' KMS_KEY_ID = 'aws/key');Gleiches Beispiel wie das unmittelbar vorhergehende Beispiel, mit der Ausnahme, dass die Snowflake-Zugriffsberechtigungen für den S3-Bucket einer IAM-Rolle und nicht einem IAM-Benutzer zugeordnet sind. Beachten Sie, dass Anmeldeinformationen getrennt von anderen Stagingbereichsparametern behandelt werden, wie z. B.
ENCRYPTION
. Die Unterstützung für diese anderen Parameter ist dieselbe, unabhängig von den Anmeldeinformationen, die für den Zugriff auf Ihren externen S3-Bucket verwendet werden:CREATE OR REPLACE STAGE my_ext_stage3 URL='s3://load/encrypted_files/' CREDENTIALS=(AWS_ROLE='arn:aws:iam::001234567890:role/mysnowflakerole') ENCRYPTION=(TYPE='AWS_SSE_KMS' KMS_KEY_ID = 'aws/key');
Google Cloud Storage
Erstellen Sie mithilfe eines privaten/geschützten GCS-Buckets namens
load
einen externen Stagingbereich namensmy_ext_stage
mit einem Ordnerpfad namensfiles
. Sicherer Zugriff auf den GCS-Bucket erfolgt über die Speicherintegrationmyint
:CREATE OR REPLACE STAGE my_ext_stage URL='gcs://load/files/' STORAGE_INTEGRATION = myint;
Microsoft Azure
Erstellen Sie mithilfe eines privaten/geschützten Azure-Containers namens
load
einen externen Stagingbereich namensmy_ext_stage
mit einem Ordnerpfad namensfiles
. Sicherer Zugriff auf den Container erfolgt über die Speicherintegrationmyint
:CREATE OR REPLACE STAGE my_ext_stage URL='azure://myaccount.blob.core.windows.net/load/files/' STORAGE_INTEGRATION = myint;Erstellen Sie mit einem Azure-Speicherkonto namens
myaccount
und einem Container namensmycontainer
einen externen Stagingbereich namensmystage
mit einem Ordnerpfad namensfiles
und aktivierter clientseitiger Verschlüsselung. Der Stagingbereich verweist auf ein Dateiformat mit dem Namenmy_csv_format
:CREATE OR REPLACE STAGE mystage URL='azure://myaccount.blob.core.windows.net/mycontainer/files/' CREDENTIALS=(AZURE_SAS_TOKEN='?sv=2016-05-31&ss=b&srt=sco&sp=rwdl&se=2018-06-27T10:05:50Z&st=2017-06-27T02:05:50Z&spr=https,http&sig=bgqQwoXwxzuD2GJfagRg7VOS8hzNr3QLT7rhS8OFRLQ%3D') ENCRYPTION=(TYPE='AZURE_CSE' MASTER_KEY = 'kPxX0jzYfIamtnJEUTHwq80Au6NbSgPH5r4BDDwOaO8=') FILE_FORMAT = my_csv_format;(Die in diesem Beispiel verwendeten Werte für
AZURE_SAS_TOKEN
undMASTER_KEY
sind keine tatsächlichen Werte; sie dienen nur zur Veranschaulichung.)