CREATE TABLE¶
Erstellt eine neue Tabelle im aktuellen/angegebenen Schema oder ersetzt eine bestehende Tabelle. Eine Tabelle kann mehrere Spalten haben, wobei jede Spaltendefinition aus einem Namen, einem Datentyp und optional der Angabe besteht, ob für die Spalte Folgendes gilt:
Sie erfordert einen Wert (NOT NULL).
Sie hat einen Standardwert.
Sie hat Einschränkung bezüglich der referenziellen Integrität (Primärschlüssel, Fremdschlüssel usw.).
Darüber hinaus unterstützt dieser Befehl die folgenden Varianten:
CREATE TABLE … AS SELECT (erstellt eine ausgefüllte Tabelle; auch als CTAS bezeichnet)
CREATE TABLE … USING TEMPLATE (erstellt eine Tabelle mit den Spaltendefinitionen, die aus einem Satz von Stagingdateien abgeleitet sind)
CREATE TABLE … LIKE (erstellt eine leere Kopie einer bestehenden Tabelle)
CREATE TABLE … CLONE (erstellt einen Klon einer bestehenden Tabelle)
- Siehe auch:
Syntax¶
CREATE [ OR REPLACE ]
[ { [ { LOCAL | GLOBAL } ] TEMP | TEMPORARY | VOLATILE | TRANSIENT } ]
TABLE [ IF NOT EXISTS ] <table_name> (
-- Column definition
<col_name> <col_type>
[ inlineConstraint ]
[ NOT NULL ]
[ COLLATE '<collation_specification>' ]
[
{
DEFAULT <expr>
| { AUTOINCREMENT | IDENTITY }
[
{
( <start_num> , <step_num> )
| START <num> INCREMENT <num>
}
]
[ { ORDER | NOORDER } ]
}
]
[ [ WITH ] MASKING POLICY <policy_name> [ USING ( <col_name> , <cond_col1> , ... ) ] ]
[ [ WITH ] PROJECTION POLICY <policy_name> ]
[ [ WITH ] TAG ( <tag_name> = '<tag_value>' [ , <tag_name> = '<tag_value>' , ... ] ) ]
[ COMMENT '<string_literal>' ]
-- Additional column definitions
[ , <col_name> <col_type> [ ... ] ]
-- Out-of-line constraints
[ , outoflineConstraint [ ... ] ]
)
[ CLUSTER BY ( <expr> [ , <expr> , ... ] ) ]
[ ENABLE_SCHEMA_EVOLUTION = { TRUE | FALSE } ]
[ STAGE_FILE_FORMAT = (
{ FORMAT_NAME = '<file_format_name>'
| TYPE = { CSV | JSON | AVRO | ORC | PARQUET | XML } [ formatTypeOptions ]
} ) ]
[ STAGE_COPY_OPTIONS = ( copyOptions ) ]
[ DATA_RETENTION_TIME_IN_DAYS = <integer> ]
[ MAX_DATA_EXTENSION_TIME_IN_DAYS = <integer> ]
[ CHANGE_TRACKING = { TRUE | FALSE } ]
[ DEFAULT_DDL_COLLATION = '<collation_specification>' ]
[ COPY GRANTS ]
[ COMMENT = '<string_literal>' ]
[ [ WITH ] ROW ACCESS POLICY <policy_name> ON ( <col_name> [ , <col_name> ... ] ) ]
[ [ WITH ] AGGREGATION POLICY <policy_name> ]
[ [ WITH ] TAG ( <tag_name> = '<tag_value>' [ , <tag_name> = '<tag_value>' , ... ] ) ]
Wobei:
inlineConstraint ::= [ CONSTRAINT <constraint_name> ] { UNIQUE | PRIMARY KEY | [ FOREIGN KEY ] REFERENCES <ref_table_name> [ ( <ref_col_name> ) ] } [ <constraint_properties> ]Weitere Details zu Inline-Einschränkungen finden Sie unter CREATE | ALTER TABLE … CONSTRAINT.
outoflineConstraint ::= [ CONSTRAINT <constraint_name> ] { UNIQUE [ ( <col_name> [ , <col_name> , ... ] ) ] | PRIMARY KEY [ ( <col_name> [ , <col_name> , ... ] ) ] | [ FOREIGN KEY ] [ ( <col_name> [ , <col_name> , ... ] ) ] REFERENCES <ref_table_name> [ ( <ref_col_name> [ , <ref_col_name> , ... ] ) ] } [ <constraint_properties> ]Weitere Details zu Out-of-Line-Einschränkungen finden Sie unter CREATE | ALTER TABLE … CONSTRAINT.
formatTypeOptions ::= -- If TYPE = CSV COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE RECORD_DELIMITER = '<character>' | NONE FIELD_DELIMITER = '<character>' | NONE FILE_EXTENSION = '<string>' PARSE_HEADER = TRUE | FALSE SKIP_HEADER = <integer> SKIP_BLANK_LINES = TRUE | FALSE DATE_FORMAT = '<string>' | AUTO TIME_FORMAT = '<string>' | AUTO TIMESTAMP_FORMAT = '<string>' | AUTO BINARY_FORMAT = HEX | BASE64 | UTF8 ESCAPE = '<character>' | NONE ESCAPE_UNENCLOSED_FIELD = '<character>' | NONE TRIM_SPACE = TRUE | FALSE FIELD_OPTIONALLY_ENCLOSED_BY = '<character>' | NONE NULL_IF = ( '<string>' [ , '<string>' ... ] ) ERROR_ON_COLUMN_COUNT_MISMATCH = TRUE | FALSE REPLACE_INVALID_CHARACTERS = TRUE | FALSE EMPTY_FIELD_AS_NULL = TRUE | FALSE SKIP_BYTE_ORDER_MARK = TRUE | FALSE ENCODING = '<string>' | UTF8 -- If TYPE = JSON COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE DATE_FORMAT = '<string>' | AUTO TIME_FORMAT = '<string>' | AUTO TIMESTAMP_FORMAT = '<string>' | AUTO BINARY_FORMAT = HEX | BASE64 | UTF8 TRIM_SPACE = TRUE | FALSE NULL_IF = ( '<string>' [ , '<string>' ... ] ) FILE_EXTENSION = '<string>' ENABLE_OCTAL = TRUE | FALSE ALLOW_DUPLICATE = TRUE | FALSE STRIP_OUTER_ARRAY = TRUE | FALSE STRIP_NULL_VALUES = TRUE | FALSE REPLACE_INVALID_CHARACTERS = TRUE | FALSE IGNORE_UTF8_ERRORS = TRUE | FALSE SKIP_BYTE_ORDER_MARK = TRUE | FALSE -- If TYPE = AVRO COMPRESSION = AUTO | GZIP | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE TRIM_SPACE = TRUE | FALSE REPLACE_INVALID_CHARACTERS = TRUE | FALSE NULL_IF = ( '<string>' [ , '<string>' ... ] ) -- If TYPE = ORC TRIM_SPACE = TRUE | FALSE REPLACE_INVALID_CHARACTERS = TRUE | FALSE NULL_IF = ( '<string>' [ , '<string>' ... ] ) -- If TYPE = PARQUET COMPRESSION = AUTO | LZO | SNAPPY | NONE SNAPPY_COMPRESSION = TRUE | FALSE BINARY_AS_TEXT = TRUE | FALSE USE_LOGICAL_TYPE = TRUE | FALSE TRIM_SPACE = TRUE | FALSE REPLACE_INVALID_CHARACTERS = TRUE | FALSE NULL_IF = ( '<string>' [ , '<string>' ... ] ) -- If TYPE = XML COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE IGNORE_UTF8_ERRORS = TRUE | FALSE PRESERVE_SPACE = TRUE | FALSE STRIP_OUTER_ELEMENT = TRUE | FALSE DISABLE_SNOWFLAKE_DATA = TRUE | FALSE DISABLE_AUTO_CONVERT = TRUE | FALSE REPLACE_INVALID_CHARACTERS = TRUE | FALSE SKIP_BYTE_ORDER_MARK = TRUE | FALSEcopyOptions ::= ON_ERROR = { CONTINUE | SKIP_FILE | SKIP_FILE_<num> | 'SKIP_FILE_<num>%' | ABORT_STATEMENT } SIZE_LIMIT = <num> PURGE = TRUE | FALSE RETURN_FAILED_ONLY = TRUE | FALSE MATCH_BY_COLUMN_NAME = CASE_SENSITIVE | CASE_INSENSITIVE | NONE ENFORCE_LENGTH = TRUE | FALSE TRUNCATECOLUMNS = TRUE | FALSE FORCE = TRUE | FALSE
Syntaxvariante¶
CREATE TABLE … AS SELECT (auch al CTAS bezeichnet)¶
Erstellt eine neue Tabelle, die mit den von einer Abfrage zurückgegebenen Daten gefüllt ist:
CREATE [ OR REPLACE ] TABLE <table_name> [ ( <col_name> [ <col_type> ] , <col_name> [ <col_type> ] , ... ) ] [ CLUSTER BY ( <expr> [ , <expr> , ... ] ) ] [ COPY GRANTS ] AS SELECT <query> [ ... ]
Eine Maskierungsrichtlinie kann auf eine Spalte in einer CTAS-Anweisung angewendet werden. Geben Sie die Maskierungsrichtlinie nach dem Datentyp der Spalte an. In ähnlicher Weise kann eine Zeilenzugriffsrichtlinie auf die Tabelle angewendet werden. Beispiel:
CREATE TABLE <table_name> ( <col1> <data_type> [ WITH ] MASKING POLICY <policy_name> [ , ... ] ) ... [ WITH ] ROW ACCESS POLICY <policy_name> ON ( <col1> [ , ... ] ) AS SELECT <query> [ ... ]
Bemerkung
In einer CTAS-Anweisung ist die COPY GRANTS-Klausel nur gültig, wenn sie mit der OR REPLACE-Klausel kombiniert wird. COPY GRANTS kopiert Berechtigungen aus der Tabelle, die durch CREATE OR REPLACE ersetzt wird (falls bereits vorhanden), nicht aus den Quelltabellen, die in der SELECT-Anweisung abgefragt werden. CTAS mit COPY GRANTS ermöglicht das Überschreiben einer Tabelle mit einem neuen Datensatz unter Beibehaltung der für diese Tabelle bestehenden Berechtigungen.
Weitere Informationen zu COPY GRANTS finden Sie in diesem Dokument unter COPY GRANTS.
CREATE TABLE … USING TEMPLATE¶
Erstellt eine neue Tabelle mit Spaltendefinitionen, die aus einem Satz von Stagingdateien unter Verwendung der Funktion INFER_SCHEMA abgeleitet wurden. Diese Feature unterstützt Apache Parquet-, Apache Avro-, ORC-, JSON- und CSV-Dateien.
CREATE [ OR REPLACE ] TABLE <table_name> [ COPY GRANTS ] USING TEMPLATE <query> [ ... ]
Bemerkung
Wenn die Anweisung eine vorhandene Tabelle mit demselben Namen ersetzt, werden die Berechtigungen aus der zu ersetzenden Tabelle kopiert. Wenn keine Tabelle mit diesem Namen vorhanden ist, werden die Berechtigungen aus der zu klonenden Quelltabelle kopiert.
Weitere Informationen zu COPY GRANTS finden Sie in diesem Dokument unter COPY GRANTS.
CREATE TABLE … LIKE¶
Erstellt eine neue Tabelle mit den gleichen Spaltendefinitionen wie eine bestehende Tabelle, wobei aber keine Daten aus der bestehenden Tabelle kopiert werden. Spaltennamen, Typen, Standardwerte und Einschränkungen werden in die neue Tabelle kopiert:
CREATE [ OR REPLACE ] TABLE <table_name> LIKE <source_table> [ CLUSTER BY ( <expr> [ , <expr> , ... ] ) ] [ COPY GRANTS ] [ ... ]
Weitere Informationen zu COPY GRANTS finden Sie in diesem Dokument unter COPY GRANTS.
Bemerkung
CREATE TABLE … LIKE für eine Tabelle mit einer Sequenz mit automatischer Inkrementierung, auf die über eine Datenfreigabe zugegriffen wird, wird derzeit nicht unterstützt.
CREATE TABLE … CLONE¶
Erstellt eine neue Tabelle mit den gleichen Spaltendefinitionen und allen in der Quelltabelle vorhandenen Daten, aber ohne die Daten tatsächlich zu kopieren. Diese Variante kann auch verwendet werden, um eine Tabelle an einem bestimmten Zeitpunkt in der Vergangenheit (mithilfe von Time Travel) zu klonen:
CREATE [ OR REPLACE ] TABLE <name> CLONE <source_table> [ { AT | BEFORE } ( { TIMESTAMP => <timestamp> | OFFSET => <time_difference> | STATEMENT => <id> } ) ] [ COPY GRANTS ] [ ... ]
Bemerkung
Wenn die Anweisung eine vorhandene Tabelle mit demselben Namen ersetzt, werden die Berechtigungen aus der zu ersetzenden Tabelle kopiert. Wenn keine Tabelle mit diesem Namen vorhanden ist, werden die Berechtigungen aus der zu klonenden Quelltabelle kopiert.
Weitere Informationen zu COPY GRANTS finden Sie in diesem Dokument unter COPY GRANTS.
Weitere Details zum Klonen finden Sie unter CREATE <Objekt> … CLONE.
Erforderliche Parameter¶
name
Gibt den Bezeichner (d. h. den Namen) für die Tabelle an. Dieser muss für das Schema, in dem die Tabelle erstellt wird, eindeutig sein.
Darüber hinaus muss der Bezeichner mit einem Buchstaben beginnen und darf keine Leer- oder Sonderzeichen enthalten, es sei denn, die gesamte Bezeichnerzeichenfolge wird in doppelte Anführungszeichen gesetzt (z. B.
"My object"
). Bei Bezeichnern, die in doppelte Anführungszeichen eingeschlossen sind, ist auch die Groß-/Kleinschreibung zu beachten.Weitere Details dazu finden Sie unter Anforderungen an Bezeichner.
col_name
Gibt den Spaltenbezeichner (d. h. den Namen) an. Alle Anforderungen an Tabellenbezeichner gelten auch für Spaltenbezeichner.
Weitere Details dazu finden Sie unter Anforderungen an Bezeichner und Reservierte und begrenzte Schlüsselwörter.
Bemerkung
Zusätzlich zu den standardmäßig reservierten Schlüsselwörtern können die folgenden Schlüsselwörter nicht als Spaltenbezeichner verwendet werden, da sie für Kontextfunktionen nach ANSI-Standard reserviert sind:
CURRENT_DATE
CURRENT_ROLE
CURRENT_TIME
CURRENT_TIMESTAMP
CURRENT_USER
Die Liste der reservierten Schlüsselwörter finden Sie unter Reservierte und begrenzte Schlüsselwörter.
col_type
Gibt den Datentyp für die Spalte an.
Einzelheiten zu den Datentypen, die für Tabellenspalten angegeben werden können, finden Sie unter Referenz der SQL-Datentypen.
query
- Erforderlich bei Verwendung von USING TEMPLATE
Unterabfrage, die die Funktion INFER_SCHEMA aufruft und die Ausgabe als Array formatiert.
Alternativ akzeptiert
USING TEMPLATE
die Ausgabe von INFER_SCHEMA als Zeichenfolgenliteral oder Variable.
Optionale Parameter¶
{ [ { LOCAL | GLOBAL } ] TEMP | TEMPORARY | VOLATILE | TRANSIENT }
Legt fest, dass die Tabelle nur für die Dauer der Sitzung bestehen bleibt, in der Sie sie erstellt haben. Eine temporäre Tabelle mit allen Inhalten wird am Ende der Sitzung gelöscht.
Die Synonyme und Abkürzungen für
TEMPORARY
(z. B.GLOBAL TEMPORARY
) sind aus Gründen der Kompatibilität mit anderen Datenbanken vorgesehen (z. B. um Fehler bei der Migration von CREATE TABLE-Anweisungen zu vermeiden). Tabellen, die mit einem dieser Schlüsselwörter erstellt wurden, werden wie Tabellen angezeigt, die mit dem SchlüsselwortTEMPORARY
erstellt wurden.Standard: Kein Wert. Wenn eine Tabelle nicht als
TEMPORARY
oderTRANSIENT
deklariert ist, ist die Tabelle permanent.Wenn Sie unerwartete Konflikte vermeiden möchten, benennen Sie temporäre Tabellen nicht nach Tabellen, die bereits im Schema vorhanden sind.
Wenn Sie eine temporäre Tabelle mit demselben Namen wie eine andere Tabelle im Schema erstellt haben, wirken sich alle Abfragen und Operationen, die auf der Tabelle ausgeführt werden, nur auf die temporäre Tabelle in der Sitzung aus, bis Sie die temporäre Tabelle löschen. Wenn Sie die Tabelle löschen, löschen Sie die temporäre Tabelle und nicht die Tabelle, die bereits im Schema vorhanden ist.
Weitere Informationen zu temporären und transienten Tabellen und wie diese sich auf den Speicherplatz und die Kosten auswirken können, finden Sie unter folgenden Themen:
TRANSIENT
Gibt an, dass die Tabelle transient ist.
Wie eine permanente Tabelle existiert auch eine transiente Tabelle bis zum expliziten Löschen und ist für jeden Benutzer mit den entsprechenden Berechtigungen sichtbar. Transiente Tabellen haben jedoch ein niedrigeres Datenschutzniveau als permanente Tabellen, sodass im Falle eines Systemausfalls Daten in einer transienten Tabelle verloren gehen können. Daher sollten transiente Tabellen nur für Daten verwendet werden, die außerhalb von Snowflake wiederhergestellt werden können.
Standard: Kein Wert. Wenn eine Tabelle nicht als
TRANSIENT
oderTEMPORARY
deklariert ist, ist die Tabelle permanent.Bemerkung
Bei transienten Tabellen müssen einige Hinwiese zur Speicherung berücksichtigt werden.
Weitere Informationen zu diesen und anderen Überlegungen bei der Entscheidung, ob temporäre oder transiente Tabellen erstellt werden sollen, finden Sie unter Verwenden von temporären und transienten Tabellen und Speicherkosten für Time Travel und Fail-safe.
CONSTRAINT ...
Definiert eine Inline- oder Out-of-Line-Beschränkung für die angegebenen Spalten in der Tabelle.
Weitere Informationen zur Syntax finden Sie unter CREATE | ALTER TABLE … CONSTRAINT. Weitere Informationen zu Einschränkungen finden Sie unter Einschränkungen.
COLLATE 'collation_specification'
Gibt die Sortierung an, die für Spaltenoperationen wie den Zeichenfolgenvergleich verwendet werden soll. Diese Option gilt nur für Textspalten (z. B. VARCHAR, STRING, TEXT usw.). Weitere Details dazu finden Sie unter Sortierungsspezifikationen.
DEFAULT ...
oder .AUTOINCREMENT ...
Gibt an, ob der Spalte ein Standardwert zugewiesen wird, wenn ein Wert nicht über eine INSERT- oder CREATE TABLE AS SELECT-Anweisung angegeben wird:
DEFAULT expr
Der Standardwert für die Spalte wird durch den angegebenen Ausdruck definiert. Eine der folgenden Optionen ist möglich:
Konstantenwert
Sequenzreferenz (
seq_name.NEXTVAL
)Einfacher Ausdruck, der einen skalaren Wert zurückgibt.
Der einfache Ausdruck kann eine SQL-UDF (benutzerdefinierte Funktion) enthalten, wenn die UDF keine sichere UDF ist.
Bemerkung
Wenn sich ein Standardausdruck auf eine benutzerdefinierte SQL-UDF bezieht, wird die Funktion beim Erstellen der Tabelle durch deren Definition ersetzt. Wenn die benutzerdefinierte Funktion in Zukunft neu definiert wird, führt dies nicht zur Aktualisierung des Standardausdrucks der Spalte.
Der einfache Ausdruck darf keine Referenzen enthalten auf:
Unterabfragen
Aggregationen
Fensterfunktionen
Sichere UDFs
UDFs, die in anderen Sprachen als SQL geschrieben sind (z. B. Java, JavaScript)
Externe Funktionen
{ AUTOINCREMENT | IDENTITY }
.[ { ( start_num , step_num ) | START num INCREMENT num } ]
.[ { ORDER | NOORDER } ]
Wenn Sie AUTOINCREMENT oder IDENTITY angeben, beginnt der Standardwert der Spalte mit einer bestimmten Zahl, und jeder nachfolgende Wert wird automatisch um den angegebenen Betrag erhöht.
AUTOINCREMENT und IDENTITY sind gleichbedeutend und können nur bei Spalten mit numerischen Datentypen wie NUMBER, INT, FLOAT verwendet werden.
Vorsicht
Snowflake verwendet eine Sequenz, um die Werte für eine automatisch inkrementierte Spalte zu generieren. Sequenzen haben Einschränkungen. Weitere Informationen dazu finden Sie unter Semantik von Sequenzen.
Der Standardwert sowohl für den Startwert als auch für den Schritt-/Erhöhungswert ist
1
.Verwenden Sie ORDER oder NOORDER, um anzugeben, ob die Werte für die Sequenz in aufsteigender oder absteigender Reihenfolge generiert werden sollen.
ORDER gibt an, dass die Werte, die für eine Sequenz oder eine automatisch inkrementierte Spalte generiert werden, in aufsteigender Reihenfolge sind (oder, wenn das Intervall einen negativen Wert hat, in abnehmender Reihenfolge).
Wenn beispielsweise eine Sequenz oder eine automatisch inkrementierte Spalte die Werte START 1 INCREMENT 2 hat, könnten die generierten Werte
1
,3
,5
,7
,9
usw. sein.NOORDER gibt an, dass nicht garantiert ist, dass die Werte in aufsteigender Reihenfolge sind.
Wenn beispielsweise eine Sequenz die Werte START 1 INCREMENT 2 hat, könnten die generierten Werte
1
,3
,101
,5
,103
usw. sein.NOORDER kann die Leistung verbessern, wenn mehrere Einfügeoperationen gleichzeitig ausgeführt werden müssen (z. B. wenn mehrere Clients mehrere INSERT-Anweisungen ausführen).
Wenn Sie weder ORDER noch NOORDER angeben, bestimmt der Parameter NOORDER_SEQUENCE_AS_DEFAULT, welche Eigenschaft eingestellt wird.
Bemerkung
DEFAULT oder AUTOINCREMENT schließen sich gegenseitig aus. Für eine Spalte kann nur eine Option angegeben werden.
MASKING POLICY = policy_name
Gibt die Maskierungsrichtlinie an, die für eine Spalte festgelegt werden soll.
PROJECTION POLICY policy_name
Gibt die Projektionsrichtlinie an, die für eine Spalte festgelegt werden soll.
COMMENT 'string_literal'
Gibt einen Kommentar für die Spalte an.
(Beachten Sie, dass Kommentare auf Spaltenebene oder auf Tabellenebene angegeben werden können. Die Syntax ist jeweils leicht unterschiedlich.)
USING ( col_name , cond_col_1 ... )
Gibt die Argumente an, die an den SQL-Ausdruck für die bedingte Maskierungsrichtlinie übergeben werden sollen.
Die erste Spalte in der Liste gibt die Spalte für die Richtlinienbedingungen zur Maskierung oder Tokenisierung der Daten an. Sie muss mit der Spalte übereinstimmen, für die die Maskierungsrichtlinie festgelegt ist.
Die zusätzlichen Spalten geben an, welche Spalten ausgewertet werden sollen, um zu ermitteln, ob die Daten in der jeweiligen Zeile des Abfrageergebnisses maskiert oder tokenisiert werden sollen, wenn auf der ersten Spalte eine Abfrage ausgeführt wird.
Wenn die USING-Klausel weggelassen wird, behandelt Snowflake die bedingte Maskierungsrichtlinie wie eine normale Maskierungsrichtlinie.
CLUSTER BY ( expr [ , expr , ... ] )
Gibt eine oder mehrere Spalten oder Spaltenausdrücke in der Tabelle als Gruppierungsschlüssel an. Weitere Details dazu finden Sie unter Gruppierungsschlüssel und geclusterte Tabellen.
Standard: Kein Wert (für die Tabelle ist kein Gruppierungsschlüssel definiert)
Wichtig
Gruppierungsschlüssel sind nicht für alle Tabellen vorgesehen oder empfehlenswert. Sie eignen sich vorrangig für sehr große Tabellen (im Multi-Terabyte-Bereich).
Bevor Sie Gruppierungsschlüssel für eine Tabelle angeben, sollten Sie sich erst mit Mikropartitionen vertraut machen. Weitere Informationen dazu finden Sie unter Grundlegendes zu Tabellenstrukturen in Snowflake.
ENABLE_SCHEMA_EVOLUTION = { TRUE | FALSE }
Aktiviert oder deaktiviert automatische Änderungen am Tabellenschema durch Daten, die aus Quelldateien in die Tabelle geladen werden, einschließlich:
Hinzugefügte Spalten.
Standardmäßig ist die Schemaentwicklung auf maximal 10 hinzugefügte Spalten pro Ladeoperation beschränkt. Um mehr als 10 hinzugefügte Spalten pro Ladeoperation anzufordern, wenden Sie sich an den Snowflake-Support.
Die Einschränkung NOT NULL kann für eine beliebige Anzahl von Spalten, die in neuen Datendateien fehlen, gelöscht werden.
Wenn Sie diese Option auf
TRUE
setzen, wird die automatische Tabellenschemaentwicklung aktiviert. Die StandardeinstellungFALSE
deaktiviert die automatische Tabellenschemaentwicklung.Bemerkung
Beim Laden von Daten aus Dateien erfolgt eine Tabellenspaltenentwicklung, wenn die folgenden Bedingungen erfüllt sind:
Die COPY INTO <Tabelle>-Anweisung enthält den Parameter
MATCH_BY_COLUMN_NAME
.Die Rolle, mit der die Daten geladen werden, hat die EVOLVE SCHEMA- oder die OWNERSHIP-Berechtigung für die Tabelle.
Außerdem muss für die Schemaentwicklung mit CSV bei Verwendung von
MATCH_BY_COLUMN_NAME
undPARSE_HEADER
der ParameterERROR_ON_COLUMN_COUNT_MISMATCH
auf „false“ gesetzt sein.STAGE_FILE_FORMAT = ( FORMAT_NAME = 'file_format_name' )
oder .STAGE_FILE_FORMAT = ( TYPE = CSV | JSON | AVRO | ORC | PARQUET | XML [ ... ] )
Gibt das Dateiformat für die Tabelle an (zum Laden und Entladen von Daten). Dafür gibt es zwei Optionen:
FORMAT_NAME = file_format_name
Gibt ein bestehendes benanntes Dateiformat an, das zum Laden/Entladen von Daten in die Tabelle verwendet werden soll. Das benannte Dateiformat bestimmt den Formattyp (CSV, JSON usw.) sowie alle anderen Formatoptionen für Datendateien. Weitere Details dazu finden Sie unter CREATE FILE FORMAT.
TYPE = CSV | JSON | AVRO | ORC | PARQUET | XML [ ... ]
Gibt den Typ der Dateien an, die in die Tabelle geladen/entladen werden sollen.
Wenn ein Dateiformattyp angegeben wird, können zusätzliche formatspezifische Optionen angegeben werden. Weitere Informationen dazu finden Sie unter Formattypoptionen (unter diesem Thema).
Standard:
TYPE = CSV
Bemerkung
FORMAT_NAME
undTYPE
schließen sich gegenseitig aus. Um unbeabsichtigtes Verhalten zu vermeiden, sollten Sie beim Erstellen einer Tabelle nur eine Option von beiden angeben.STAGE_COPY_OPTIONS = ( ... )
Gibt eine (oder mehrere) Optionen an, die beim Laden von Daten in die Tabelle verwendet werden sollen. Weitere Details dazu finden Sie unter Kopieroptionen (unter diesem Thema).
DATA_RETENTION_TIME_IN_DAYS = integer
Gibt die Aufbewahrungsfrist für die Tabelle an, sodass Time Travel-Aktionen (SELECT, CLONE, UNDROP) für historische Daten in der Tabelle durchgeführt werden können. Weitere Details dazu finden Sie unter Verstehen und Verwenden von Time Travel und Verwenden von temporären und transienten Tabellen.
Eine ausführliche Beschreibung dieses Parameters auf Objektebene sowie weitere Informationen zu Objektparametern finden Sie unter Parameter.
Werte:
Standardausführung:
0
oder1
Enterprise Edition:
0
bis90
für permanente Tabellen0
oder1
für temporäre und transiente Tabellen
Standard:
Standardausführung:
1
Enterprise Edition (oder höher):
1
(es sei denn, es wurde ein anderer Standardwert auf Schema-, Datenbank- oder Kontoebene angegeben).
Bemerkung
Der Wert
0
deaktiviert Time Travel für die Tabelle.MAX_DATA_EXTENSION_TIME_IN_DAYS = integer
Objektparameter, der die maximale Anzahl von Tagen angibt, für die Snowflake die Datenaufbewahrungsfrist für die Tabelle verlängern kann, um zu verhindern, dass Streams auf der Tabelle veraltet sind.
Eine detaillierte Beschreibung dieses Parameters finden Sie unter MAX_DATA_EXTENSION_TIME_IN_DAYS.
CHANGE_TRACKING = { TRUE | FALSE }
Gibt an, ob die Änderungsverfolgung für die Tabelle aktiviert werden soll.
TRUE
aktiviert die Änderungsverfolgung der Tabelle. Diese Einstellung fügt der Quelltabelle ein Paar ausgeblendeter Spalten hinzu und beginnt mit dem Speichern von Metadaten zur Änderungsverfolgung in den Spalten. Diese Spalten verbrauchen nur wenig Speicherplatz.Die Änderungsverfolgungsmetadaten können mithilfe der CHANGES-Klausel für SELECT-Anweisungen oder durch Erstellen und Abfragen eines oder mehrerer Streams der Tabelle abgefragt werden.
FALSE
aktiviert die Änderungsverfolgung in der Tabelle nicht.
Standard: FALSE
DEFAULT_DDL_COLLATION = 'collation_specification'
Gibt eine Standardsortierungsspezifikation für die Spalten in der Tabelle an, einschließlich der Spalten, die der Tabelle in Zukunft hinzugefügt werden.
Weitere Informationen zu diesem Parameter finden Sie unter DEFAULT_DDL_COLLATION.
COPY GRANTS
Gibt an, dass die Zugriffsberechtigungen aus der Originaltabelle beibehalten werden, wenn eine neue Tabelle mit einer der folgenden CREATE TABLE-Varianten erstellt wird:
CREATE OR REPLACE TABLE
CREATE TABLE … LIKE
CREATE TABLE … CLONE
Der Parameter kopiert alle Berechtigungen, mit Ausnahme von OWNERSHIP, aus der bestehenden Tabelle in die neue Tabelle. Die neue Tabelle übernimmt keine zukünftigen Berechtigungen, die für den Objekttyp im Schema definiert werden. Standardmäßig ist die Rolle, die die Anweisung CREATE TABLE ausführt, Eigentümer der neuen Tabelle.
Wenn der Parameter nicht in der CREATE TABLE-Anweisung enthalten ist, übernimmt die neue Tabelle keine expliziten Zugriffsrechte für die ursprüngliche Tabelle, übernimmt aber alle zukünftigen Berechtigungen, die für den Objekttyp im Schema definiert werden.
Hinweis:
Mit Datenfreigabe:
Wenn die vorhandene Tabelle für ein anderes Konto freigegeben wurde, wird auch die Ersetzungstabelle freigegeben.
Wenn die vorhandene Tabelle für Ihr Konto als Datenverbraucher freigegeben wurde und der Zugriff auf andere Rollen im Konto weiter gewährt wurde (unter Verwendung von
GRANT IMPORTED PRIVILEGES
auf der übergeordneten Datenbank), wird auch der Zugriff auf die Ersetzungstabelle gewährt.
Die SHOW GRANTS-Ausgabe für die Ersetzungstabelle listet den Berechtigungsempfänger für die kopierten Berechtigungen als Rolle auf, die die CREATE TABLE-Anweisung ausgeführt hat, mit dem aktuellen Zeitstempel, als die Anweisung ausgeführt wurde.
Die Operation zum Kopieren von Berechtigungen erfolgt atomar im Befehl CREATE TABLE (d. h. innerhalb derselben Transaktion).
COMMENT = 'string_literal'
Gibt einen Kommentar für die Tabelle an.
Standard: Kein Wert
(Beachten Sie, dass Kommentare auf Spaltenebene oder auf Tabellenebene angegeben werden können. Die Syntax ist jeweils leicht unterschiedlich.)
ROW ACCESS POLICY policy_name ON ( col_name [ , col_name ... ] )
Gibt die Zeilenzugriffsrichtlinie an, die für eine Tabelle festgelegt werden soll.
AGGREGATION POLICY policy_name
Gibt die Aggregationsrichtlinie an, die für eine Tabelle festgelegt werden soll.
TAG ( tag_name = 'tag_value' [ , tag_name = 'tag_value' , ... ] )
Gibt den Namen des Tags und den Wert der Tag-Zeichenfolge an.
Der Tag-Wert ist immer eine Zeichenfolge, die maximale 256 Zeichen lang sein kann.
Weitere Informationen zur Angabe von Tags in einer Anweisung finden Sie unter Tag-Kontingente für Objekte und Spalten.
Formattypoptionen (formatTypeOptions
)¶
Formattypoptionen werden zum Laden von Daten in und Entladen von Daten aus Tabellen verwendet.
Je nach angegebenem Dateiformattyp (STAGE_FILE_FORMAT = ( TYPE = ... )
) können Sie eine oder mehrere der folgenden formatspezifischen Optionen (durch Leerzeichen, Kommas oder Neue-Zeile-Zeichen getrennt) einschließen:
TYPE = CSV¶
COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
- Verwendung:
Laden von Daten, Entladen von Daten und externe Tabellen
- Definition:
Beim Laden von Daten wird der aktuelle Komprimierungsalgorithmus für die Datendatei angegeben. Snowflake verwendet diese Option, um zu erkennen, wie eine bereits komprimierte Datendatei komprimiert wurde, sodass die komprimierten Daten in der Datei zum Laden extrahiert werden können.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte:
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt, mit Ausnahme von Brotli-komprimierten Dateien, die derzeit nicht automatisch erkannt werden können. Beim Entladen von Daten werden Dateien automatisch mit der Standardmethode gzip komprimiert.
GZIP
BZ2
BROTLI
Muss beim Laden/Entladen von Brotli-komprimierten Dateien angegeben werden.
ZSTD
Zstandard v0.8 (und höher) wird unterstützt.
DEFLATE
Deflate-komprimierte Dateien (mit zlib-Header, RFC1950).
RAW_DEFLATE
Raw Deflate-komprimierte Dateien (ohne Header, RFC1951).
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard:
AUTO
RECORD_DELIMITER = 'character' | NONE
- Verwendung:
Laden von Daten, Entladen von Daten und externe Tabellen
- Definition:
Ein oder mehrere Einzelbyte- oder Multibyte-Zeichen, die Datensätze in einer Eingabedatei (Laden von Daten) oder einer entladenen Datei (Entladen von Daten) voneinander trennen. Akzeptiert gängige Escapesequenzen oder die folgenden Einzelbyte- oder Multibyte-Zeichen:
- Einzelbyte-Zeichen:
Oktalwerte (mit
\\
vorangestellt) oder Hexadezimalwerte (mit0x
oder\x
vorangestellt). Geben Sie beispielsweise für Datensätze, die durch das Zirkumflex-Akzentzeichen (^
) getrennt sind, den Oktalwert (\\136
) oder den Hexadezimalwert (0x5e
) an.- Multibyte-Zeichen:
Hexadezimalwerte (mit vorangestelltem
\x
). Geben Sie beispielsweise für Datensätze, die durch das Centzeichen (¢
) getrennt sind, den Hexadezimalwert (\xC2\xA2
) an.Das Trennzeichen für RECORD_DELIMITER oder FIELD_DELIMITER darf jedoch keine Teilzeichenfolge des Trennzeichens der anderen Dateiformatoption sein (z. B.
FIELD_DELIMITER = 'aa' RECORD_DELIMITER = 'aabb'
).
Das angegebene Trennzeichen muss ein gültiges UTF-8-Zeichen sein und darf keine zufällige Sequenz von Bytes sein. Beachten Sie auch, dass das Trennzeichen nur maximal 20 Zeichen lang sein darf.
Akzeptiert auch den Wert
NONE
.- Standard:
- Laden von Daten:
Zeichen für „Neue Zeile“. Beachten Sie, dass „neue Zeile“ logisch ist, sodass `` `` als neue Zeile für Dateien auf einer Windows-Plattform verstanden wird.
- Entladen von Daten:
Neue-Zeile-Zeichen (`` ``).
FIELD_DELIMITER = 'character' | NONE
- Verwendung:
Laden von Daten, Entladen von Daten und externe Tabellen
- Definition:
Ein oder mehrere Einzelbyte- oder Multibyte-Zeichen, die Felder in einer Eingabedatei (Laden von Daten) oder einer entladenen Datei (Entladen von Daten) voneinander trennen. Akzeptiert gängige Escapesequenzen oder die folgenden Einzelbyte- oder Multibyte-Zeichen:
- Einzelbyte-Zeichen:
Oktalwerte (mit
\\
vorangestellt) oder Hexadezimalwerte (mit0x
oder\x
vorangestellt). Geben Sie beispielsweise für Datensätze, die durch das Zirkumflex-Akzentzeichen (^
) getrennt sind, den Oktalwert (\\136
) oder den Hexadezimalwert (0x5e
) an.- Multibyte-Zeichen:
Hexadezimalwerte (mit vorangestelltem
\x
). Geben Sie beispielsweise für Datensätze, die durch das Centzeichen (¢
) getrennt sind, den Hexadezimalwert (\xC2\xA2
) an.Das Trennzeichen für RECORD_DELIMITER oder FIELD_DELIMITER darf jedoch keine Teilzeichenfolge des Trennzeichens der anderen Dateiformatoption sein (z. B.
FIELD_DELIMITER = 'aa' RECORD_DELIMITER = 'aabb'
).Bemerkung
Für Nicht-ASCII-Zeichen müssen Sie den Hex-Byte-Sequenzwert verwenden, um ein deterministisches Verhalten zu erreichen.
Das angegebene Trennzeichen muss ein gültiges UTF-8-Zeichen sein und darf keine zufällige Sequenz von Bytes sein. Beachten Sie auch, dass das Trennzeichen nur maximal 20 Zeichen lang sein darf.
Akzeptiert auch den Wert
NONE
.- Standard:
Komma (
,
)
FILE_EXTENSION = 'string' | NONE
- Verwendung:
Nur Entladen von Daten
- Definition:
Gibt die Erweiterung für Dateien an, die in einen Stagingbereich entladen werden. Akzeptiert jede Erweiterung. Der Benutzer ist dafür verantwortlich, eine Dateiendung anzugeben, die von jeder gewünschten Software oder dem gewünschten Dienst gelesen werden kann.
- Standard:
Null, d. h. die Dateiendung wird durch den Formattyp bestimmt:
.csv[compression]
, wobeicompression
die durch das Komprimierungsverfahren hinzugefügte Erweiterung ist, wennCOMPRESSION
gesetzt ist.
Bemerkung
Wenn die
SINGLE
-Kopieroption den WertTRUE
hat, wird mit dem Befehl COPY standardmäßig eine Datei ohne Dateiendung entladen. Um eine Dateierweiterung anzugeben, geben Sie einen Dateinamen und eine Erweiterung im Pfad zum internen Speicherplatzinternal_location
oder im Pfad zum externen Speicherplatzexternal_location
an (z. B.copy into @stage/data.csv
).PARSE_HEADER = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob die Überschriften in der ersten Zeile der Datendateien zur Bestimmung der Spaltennamen verwendet werden sollen.
Diese Dateiformatoption wird nur bei folgenden Aktionen angewendet:
Automatisches Erkennen von Spaltendefinitionen mithilfe der Funktion INFER_SCHEMA.
Laden von CSV-Daten in separate Spalten mithilfe der Funktion INFER_SCHEMA und der Kopieroption MATCH_BY_COLUMN_NAME.
Wenn die Option auf TRUE gesetzt ist, werden die Überschriften in der ersten Zeile zur Bestimmung der Spaltennamen verwendet. Der Standardwert FALSE gibt die Spaltennamen als „c*“ zurück, wobei „*“ die Position der Spalte ist.
Beachten Sie, dass die Option SKIP_HEADER bei PARSE_HEADER = TRUE nicht unterstützt wird.
Standard:
FALSE
SKIP_HEADER = integer
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Anzahl der Zeilen am Anfang der zu überspringenden Datei.
Beachten Sie, dass SKIP_HEADER nicht die Werte RECORD_DELIMITER oder FIELD_DELIMITER verwendet, um zu bestimmen, was eine Kopfzeile ist. Stattdessen wird einfach die angegebene Anzahl von CRLF (Wagenrücklauf, Zeilenvorschub)-begrenzten Zeilen in der Datei übersprungen. RECORD_DELIMITER und FIELD_DELIMITER werden dann verwendet, um die zu ladenden Datenzeilen zu bestimmen.
- Standard:
0
SKIP_BLANK_LINES = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob Leerzeilen in den Datendateien übersprungen werden sollen oder ob sie zu einem Datensatzende-Fehler (Standardverhalten) führen.
Standard:
FALSE
DATE_FORMAT = 'string' | AUTO
- Verwendung:
Laden und Entladen von Daten
- Definition:
Definiert das Format der Datumswerte in den Datendateien (Laden von Daten) oder der Tabelle (Entladen von Daten). Wenn ein Wert nicht angegeben ist oder
AUTO
ist, wird der Wert für den Parameter DATE_INPUT_FORMAT (Laden von Daten) oder DATE_OUTPUT_FORMAT (Entladen von Daten) verwendet.- Standard:
AUTO
TIME_FORMAT = 'string' | AUTO
- Verwendung:
Laden und Entladen von Daten
- Definition:
Definiert das Format der Zeitwerte in den Datendateien (Laden von Daten) oder der Tabelle (Entladen von Daten). Wenn ein Wert nicht angegeben ist oder
AUTO
ist, wird der Wert für den Parameter TIME_INPUT_FORMAT (Laden von Daten) oder TIME_OUTPUT_FORMAT (Entladen von Daten) verwendet.- Standard:
AUTO
TIMESTAMP_FORMAT = string' | AUTO
- Verwendung:
Laden und Entladen von Daten
- Definition:
Definiert das Format der Zeitstempelwerte in den Datendateien (Laden von Daten) oder der Tabelle (Entladen von Daten). Wenn ein Wert nicht angegeben oder
AUTO
ist, wird der Wert für den Parameter TIMESTAMP_INPUT_FORMAT (Laden von Daten) oder TIMESTAMP_OUTPUT_FORMAT (Entladen von Daten) verwendet.- Standard:
AUTO
BINARY_FORMAT = HEX | BASE64 | UTF8
- Verwendung:
Laden und Entladen von Daten
- Definition:
Definiert das Codierungsformat für die Binäreingabe oder -ausgabe. Die Option kann beim Laden von Daten in oder Entladen von Daten aus binären Spalten einer Tabelle verwendet werden.
- Standard:
HEX
ESCAPE = 'character' | NONE
- Verwendung:
Laden und Entladen von Daten
- Definition:
Zeichenfolge mit einem Einzelbyte-Zeichen, das als Escapezeichen für eingeschlossene und nicht eingeschlossene Feldwerte verwendet wird. Ein Escapezeichen ruft eine alternative Interpretation für nachfolgende Zeichen in einer Sequenz von Zeichen auf. Sie können das ESCAPE-Zeichen verwenden, um Instanzen von
FIELD_OPTIONALLY_ENCLOSED_BY
-Zeichen in den Daten als Literale zu interpretieren.Akzeptiert gängige Escapesequenzen, Oktalwerte oder Hexadezimalwerte.
- Laden von Daten:
Gibt nur das Escapezeichen für eingeschlossene Felder an. Geben Sie das Zeichen an, das zum Einschließen von Feldern verwendet wird, indem Sie
FIELD_OPTIONALLY_ENCLOSED_BY
festlegen.Bemerkung
Diese Dateiformatoption unterstützt nur Einzelbyte-Zeichen. Beachten Sie, dass die UTF-8-Zeichencodierung höherwertige ASCII-Zeichen als Multibyte-Zeichen darstellt. Wenn Ihre Datendatei mit dem UTF-8-Zeichensatz kodiert ist, können Sie keine höherwertigen ASCII-Zeichen als Optionswert angeben.
Wenn Sie ein höherwertiges Zeichen (ASCII) angeben, empfehlen wir Ihnen außerdem, die Dateiformatoption
ENCODING = 'string'
als Zeichencodierung für Ihre Datendateien festzulegen, damit das Zeichen korrekt interpretiert wird.- Entladen von Daten:
Wenn diese Option gesetzt ist, wird der Escapezeichensatz für
ESCAPE_UNENCLOSED_FIELD
überschrieben.- Standard:
NONE
ESCAPE_UNENCLOSED_FIELD = 'character' | NONE
- Verwendung:
Laden von Daten, Entladen von Daten und externe Tabellen
- Definition:
Zeichenfolge mit Einzelbyte-Zeichen, das als Escapezeichen nur für nicht eingeschlossene Feldwerte verwendet wird. Ein Escapezeichen ruft eine alternative Interpretation für nachfolgende Zeichen in einer Sequenz von Zeichen auf. Sie können das ESCAPE-Zeichen verwenden, um Instanzen von
FIELD_DELIMITER
- oderRECORD_DELIMITER
-Zeichen in den Daten als Literale zu interpretieren. Das Escapezeichen kann auch verwendet werden, um Instanzen von sich selbst in den Daten in Escapezeichen einzuschließen.Akzeptiert gängige Escapesequenzen, Oktalwerte oder Hexadezimalwerte.
- Laden von Daten:
Gibt nur das Escapezeichen für nicht eingeschlossene Felder an.
Bemerkung
Der Standardwert ist
\
. Wenn eine Zeile in einer Datendatei mit dem umgekehrten Schrägstrich (\
) endet, wird das für die DateiformatoptionRECORD_DELIMITER
angegebene Zeilenumbruch- oder Wagenrücklaufzeichen durch dieses Zeichen ersetzt. Infolgedessen behandelt die Ladeoperation diese und die nächste Zeile als eine Datenzeile. Um dieses Problem zu vermeiden, setzen Sie diesen Wert aufNONE
.Diese Dateiformatoption unterstützt nur Einzelbyte-Zeichen. Beachten Sie, dass die UTF-8-Zeichencodierung höherwertige ASCII-Zeichen als Multibyte-Zeichen darstellt. Wenn Ihre Datendatei mit dem UTF-8-Zeichensatz kodiert ist, können Sie keine höherwertigen ASCII-Zeichen als Optionswert angeben.
Wenn Sie ein höherwertiges Zeichen (ASCII) angeben, empfehlen wir Ihnen außerdem, die Dateiformatoption
ENCODING = 'string'
als Zeichencodierung für Ihre Datendateien festzulegen, damit das Zeichen korrekt interpretiert wird.
- Entladen von Daten:
Wenn
ESCAPE
gesetzt ist, wird diese Option vom Escapezeichensatz der Dateiformatoption überschrieben.- Standard:
Backslash (
\
)
TRIM_SPACE = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob Leerzeichen aus Feldern entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Weiteres Beispiel: Wenn Zeichenfolgen von Anführungszeichen umschlossen sind und die Anführungszeichen von führenden oder nachstehende Leerzeichen, können Sie die umgebenden Leerzeichen mit dieser Option entfernen und die Anführungszeichen mit der Option
FIELD_OPTIONALLY_ENCLOSED_BY
. Beachten Sie, dass alle innerhalb der Anführungszeichen befindlichen Leerzeichen erhalten bleiben. Zum Beispiel beiFIELD_DELIMITER = '|'
undFIELD_OPTIONALLY_ENCLOSED_BY = '"'
:|"Hello world"| /* loads as */ >Hello world< |" Hello world "| /* loads as */ > Hello world < | "Hello world" | /* loads as */ >Hello world<
(die Klammern in diesem Beispiel werden nicht geladen; sie dienen dazu, den Anfang und das Ende der geladenen Zeichenfolgen zu markieren).
- Standard:
FALSE
FIELD_OPTIONALLY_ENCLOSED_BY = 'character' | NONE
- Verwendung:
Laden von Daten, Entladen von Daten und externe Tabellen
- Definition:
Zeichen, das verwendet wird, um Zeichenfolgen einzuschließen. Der Wert kann
NONE
, ein einfaches Anführungszeichen ('
) oder ein doppeltes Anführungszeichen ("
) sein. Um das einfache Anführungszeichen verwenden zu können, müssen Sie die oktale oder hexadezimale Darstellung (0x27
) oder das doppelte einfache Anführungszeichen als Escape-Zeichen (''
) verwenden.Wenn ein Feld dieses Zeichen enthält, können Sie es mit dem gleichen Zeichen löschen. Wenn der Wert beispielsweise das doppelte Anführungszeichen ist und ein Feld die Zeichenfolge
A "B" C
enthält, schließen Sie die doppelten Anführungszeichen in Escapezeichen ein:A ""B"" C
- Standard:
NONE
NULL_IF = ( 'string1' [ , 'string2' , ... ] )
- Verwendung:
Laden von Daten, Entladen von Daten und externe Tabellen
- Definition:
Zeichenfolge, die zum Konvertieren in und von SQL NULL verwendet wird:
Beim Laden von Daten ersetzt Snowflake diese Werte in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Beachten Sie, dass Snowflake alle Instanzen des Wertes in einen NULL-Wert konvertiert, unabhängig vom Datentyp. Wenn z. B.
2
als Wert angegeben wird, werden alle Instanzen von2
entweder in eine Zeichenfolge oder in eine Zahl konvertiert.Beispiel:
NULL_IF = ('N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
Beim Entladen von Daten konvertiert Snowflake SQL-NULL-Werte in den ersten Wert der Liste.
- Standard:
\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\
ist)
ERROR_ON_COLUMN_COUNT_MISMATCH = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob ein Parsing-Fehler generiert werden soll, wenn die Anzahl der durch Trennzeichen begrenzten Spalten (d. h. Felder) in einer Eingabedatei nicht mit der Anzahl der Spalten in der entsprechenden Tabelle übereinstimmt.
Wenn auf
FALSE
gesetzt, wird kein Fehler erzeugt und die Last wird fortgesetzt. Wenn die Datei erfolgreich geladen wurde:Wenn die Eingabedatei Datensätze mit mehr Feldern als Spalten in der Tabelle enthält, werden die übereinstimmenden Felder in der Reihenfolge ihres Auftretens in der Datei und die restlichen Felder nicht geladen.
Wenn die Eingabedatei Datensätze mit weniger Feldern als Spalten in der Tabelle enthält, werden die nicht übereinstimmenden Spalten in der Tabelle mit NULL-Werten geladen.
Diese Option geht davon aus, dass alle Datensätze innerhalb der Eingabedatei die gleiche Länge haben (d. h. eine Datei mit Datensätzen unterschiedlicher Länge gibt unabhängig vom für diesen Parameter angegebenen Wert einen Fehler zurück).
- Standard:
TRUE
Bemerkung
Bei der Transformation von Daten während des Ladevorgangs (d. h. Verwendung einer Abfrage als Quelle für den Befehl COPY), wird diese Option ignoriert. Es ist nicht erforderlich, dass die Datendateien die gleiche Anzahl und Reihenfolge der Spalten aufweisen wie die Zieltabelle.
REPLACE_INVALID_CHARACTERS = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen ersetzt werden sollen (
�
).
Bei Einstellung auf
TRUE
ersetzt Snowflake ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard:
FALSE
EMPTY_FIELD_AS_NULL = TRUE | FALSE
- Verwendung:
Laden von Daten, Entladen von Daten und externe Tabellen
- Definition:
Gibt beim Laden von Daten an, ob für leere Felder einer Eingabedatei, die durch zwei aufeinanderfolgende Trennzeichen (z. B.
,,
) repräsentiert werden, SQL NULL eingefügt werden soll.Wenn der Wert
FALSE
ist, versucht Snowflake, einem leeren Feld den entsprechenden Spaltentyp zuzuweisen. In Spalten vom Typ STRING wird eine leere Zeichenfolge eingefügt. Für andere Spaltentypen generiert der COPY-Befehl einen Fehler.Beim Entladen von Daten wird diese Option in Kombination mit
FIELD_OPTIONALLY_ENCLOSED_BY
verwendet. WennFIELD_OPTIONALLY_ENCLOSED_BY = NONE
festgelegt ist, werden beiEMPTY_FIELD_AS_NULL = FALSE
leere Zeichenfolgen in Tabellen entladen, um leere Zeichenfolgenwerte zu erhalten, ohne dass die Feldwerte in Anführungszeichen eingeschlossen werden.Wenn
TRUE
festgelegt wird, mussFIELD_OPTIONALLY_ENCLOSED_BY
ein Zeichen angeben, das zum Umschließen von Zeichenfolgen verwendet wird.
- Standard:
TRUE
SKIP_BYTE_ORDER_MARK = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob die BOM (Bytereihenfolge-Marke) übersprungen werden soll, wenn sie in einer Datendatei vorhanden ist. Eine BOM ist ein Zeichencode am Anfang einer Datendatei, der die Bytefolge und die Codierungsform definiert.
Wenn auf
FALSE
gesetzt, erkennt Snowflake alle BOM in Datendateien, was dazu führen kann, dass die BOM entweder einen Fehler verursacht oder in der ersten Spalte der Tabelle zusammengeführt wird.- Standard:
TRUE
ENCODING = 'string'
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Zeichenfolge (Konstante), die den Zeichensatz der Quelldaten beim Laden von Daten in eine Tabelle angibt.
Zeichensatz
ENCODING
-WertUnterstützte Sprachen
Anmerkungen
Big5
BIG5
Traditionelles Chinesisch
EUC-JP
EUCJP
Japanisch
EUC-KR
EUCKR
Koreanisch
GB18030
GB18030
Chinesisch
IBM420
IBM420
Arabisch
IBM424
IBM424
Hebräisch
IBM949
IBM949
Koreanisch
ISO-2022-CN
ISO2022CN
Vereinfachtes Chinesisch
ISO-2022-JP
ISO2022JP
Japanisch
ISO-2022-KR
ISO2022KR
Koreanisch
ISO-8859-1
ISO88591
Dänisch, Deutsch, Englisch, Französisch, Italienisch, Niederländisch, Norwegisch, Portugiesisch, Schwedisch
ISO-8859-2
ISO88592
Polnisch, Rumänisch, Tschechisch, Ungarisch
ISO-8859-5
ISO88595
Russisch
ISO-8859-6
ISO88596
Arabisch
ISO-8859-7
ISO88597
Griechisch
ISO-8859-8
ISO88598
Hebräisch
ISO-8859-9
ISO88599
Türkisch
ISO-8859-15
ISO885915
Dänisch, Deutsch, Englisch, Französisch, Italienisch, Niederländisch, Norwegisch, Portugiesisch, Schwedisch
Identisch mit ISO-8859-1, bis auf 8 Zeichen, zu denen auch das Euro-Währungssymbol gehört.
KOI8-R
KOI8R
Russisch
Shift_JIS
SHIFTJIS
Japanisch
UTF-8
UTF8
Alle Sprachen
Zum Laden von Daten aus Dateien mit Trennzeichen (CSV, TSV usw.) ist UTF-8 die Standardeinstellung. . . Beim Laden von Daten aus allen anderen unterstützten Dateiformaten (JSON, Avro usw.) sowie zum Entladen von Daten ist UTF-8 der einzige unterstützte Zeichensatz.
UTF-16
UTF16
Alle Sprachen
UTF-16BE
UTF16BE
Alle Sprachen
UTF-16LE
UTF16LE
Alle Sprachen
UTF-32
UTF32
Alle Sprachen
UTF-32BE
UTF32BE
Alle Sprachen
UTF-32LE
UTF32LE
Alle Sprachen
windows-949
WINDOWS949
Koreanisch
windows-1250
WINDOWS1250
Polnisch, Rumänisch, Tschechisch, Ungarisch
windows-1251
WINDOWS1251
Russisch
windows-1252
WINDOWS1252
Dänisch, Deutsch, Englisch, Französisch, Italienisch, Niederländisch, Norwegisch, Portugiesisch, Schwedisch
windows-1253
WINDOWS1253
Griechisch
windows-1254
WINDOWS1254
Türkisch
windows-1255
WINDOWS1255
Hebräisch
windows-1256
WINDOWS1256
Arabisch
- Standard:
UTF8
Bemerkung
Snowflake speichert alle Daten intern im UTF-8-Zeichensatz. Die Daten werden in UTF-8 umgewandelt, bevor sie in Snowflake geladen werden.
TYPE = JSON¶
COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Beim Laden von Daten wird der aktuelle Komprimierungsalgorithmus für die Datendatei angegeben. Snowflake verwendet diese Option, um zu erkennen, wie eine bereits komprimierte Datendatei komprimiert wurde, sodass die komprimierten Daten in der Datei zum Laden extrahiert werden können.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte:
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt, mit Ausnahme von Brotli-komprimierten Dateien, die derzeit nicht automatisch erkannt werden können. Beim Entladen von Daten werden Dateien automatisch mit der Standardmethode gzip komprimiert.
GZIP
BZ2
BROTLI
Muss beim Laden/Entladen von Brotli-komprimierten Dateien angegeben werden.
ZSTD
Zstandard v0.8 (und höher) wird unterstützt.
DEFLATE
Deflate-komprimierte Dateien (mit zlib-Header, RFC1950).
RAW_DEFLATE
Raw Deflate-komprimierte Dateien (ohne Header, RFC1951).
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard:
AUTO
DATE_FORMAT = 'string' | AUTO
- Verwendung:
Nur Laden von Daten
- Definition:
Definiert das Format der Datums-Zeichenfolgenwerte in den Datendateien. Wenn ein Wert nicht angegeben oder
AUTO
ist, wird der Wert des Parameters DATE_INPUT_FORMAT verwendet.Diese Dateiformatoption wird nur bei folgenden Aktionen angewendet:
Laden von JSON-Daten in separate Spalten unter Verwendung der Kopieroption MATCH_BY_COLUMN_NAME.
Laden von JSON-Daten in separate Spalten durch Angabe einer Abfrage in der COPY-Anweisung (d. h. COPY-Transformation).
- Standard:
AUTO
TIME_FORMAT = 'string' | AUTO
- Verwendung:
Nur Laden von Daten
- Definition:
Definiert das Format der Uhrzeit-Zeichenfolgenwerte in den Datendateien. Wenn ein Wert nicht angegeben oder
AUTO
ist, wird der Wert des Parameters TIME_INPUT_FORMAT verwendet.Diese Dateiformatoption wird nur bei folgenden Aktionen angewendet:
Laden von JSON-Daten in separate Spalten unter Verwendung der Kopieroption MATCH_BY_COLUMN_NAME.
Laden von JSON-Daten in separate Spalten durch Angabe einer Abfrage in der COPY-Anweisung (d. h. COPY-Transformation).
- Standard:
AUTO
TIMESTAMP_FORMAT = string' | AUTO
- Verwendung:
Nur Laden von Daten
- Definition:
Definiert das Format der Zeitstempel-Zeichenfolgenwerte in den Datendateien. Wenn ein Wert nicht angegeben oder
AUTO
ist, wird der Wert des Parameters TIMESTAMP_INPUT_FORMAT verwendet.Diese Dateiformatoption wird nur bei folgenden Aktionen angewendet:
Laden von JSON-Daten in separate Spalten unter Verwendung der Kopieroption MATCH_BY_COLUMN_NAME.
Laden von JSON-Daten in separate Spalten durch Angabe einer Abfrage in der COPY-Anweisung (d. h. COPY-Transformation).
- Standard:
AUTO
BINARY_FORMAT = HEX | BASE64 | UTF8
- Verwendung:
Nur Laden von Daten
- Definition:
Definiert das Kodierungsformat für Binärzeichenfolgenwerte in den Datendateien. Die Option kann beim Laden von Daten in binäre Spalten einer Tabelle verwendet werden.
Diese Dateiformatoption wird nur bei folgenden Aktionen angewendet:
Laden von JSON-Daten in separate Spalten unter Verwendung der Kopieroption MATCH_BY_COLUMN_NAME.
Laden von JSON-Daten in separate Spalten durch Angabe einer Abfrage in der COPY-Anweisung (d. h. COPY-Transformation).
- Standard:
HEX
TRIM_SPACE = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob vorangestellte und nachstehende Leerzeichen aus Zeichenfolgen entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Diese Dateiformatoption wird nur dann auf die nachfolgenden Aktionen angewendet, wenn JSON-Daten mit der Kopieroption MATCH_BY_COLUMN_NAME in separate Spalten geladen werden.
- Standard:
FALSE
NULL_IF = ( 'string1' [ , 'string2' , ... ] )
- Verwendung:
Nur Laden von Daten
- Definition:
Zeichenfolge, die zum Konvertieren in und von SQL NULL verwendet wird. Snowflake ersetzt diese Zeichenfolgen in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Diese Dateiformatoption wird nur dann auf die nachfolgenden Aktionen angewendet, wenn JSON-Daten mit der Kopieroption MATCH_BY_COLUMN_NAME in separate Spalten geladen werden.
Beachten Sie, dass Snowflake alle Instanzen des Wertes in einen NULL-Wert konvertiert, unabhängig vom Datentyp. Wenn z. B.
2
als Wert angegeben wird, werden alle Instanzen von2
entweder in eine Zeichenfolge oder in eine Zahl konvertiert.Beispiel:
NULL_IF = ('N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
- Standard:
\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\
ist)
FILE_EXTENSION = 'string' | NONE
- Verwendung:
Nur Entladen von Daten
- Definition:
Gibt die Erweiterung für Dateien an, die in einen Stagingbereich entladen werden. Akzeptiert jede Erweiterung. Der Benutzer ist dafür verantwortlich, eine Dateiendung anzugeben, die von jeder gewünschten Software oder dem gewünschten Dienst gelesen werden kann.
- Standard:
Null, d. h. die Dateiendung wird durch den Formattyp bestimmt:
.json[compression]
, wobeicompression
die durch das Komprimierungsverfahren hinzugefügte Erweiterung ist, wennCOMPRESSION
gesetzt ist.
ENABLE_OCTAL = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der das Parsen von Oktalzahlen ermöglicht.
- Standard:
FALSE
ALLOW_DUPLICATE = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, dass doppelte Objektfeldnamen erlaubt sind (nur der letzte wird beibehalten).
- Standard:
FALSE
STRIP_OUTER_ARRAY = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der den JSON-Parser anweist, die äußeren Klammern zu entfernen (d. h.
[ ]
).- Standard:
FALSE
STRIP_NULL_VALUES = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der den JSON-Parser anweist, Objektfelder oder Array-Elemente mit
null
-Werten zu entfernen. Zum Beispiel, wenn aufTRUE
gesetzt:Vorher
Nachher
[null]
[]
[null,null,3]
[,,3]
{"a":null,"b":null,"c":123}
{"c":123}
{"a":[1,null,2],"b":{"x":null,"y":88}}
{"a":[1,,2],"b":{"y":88}}
- Standard:
FALSE
REPLACE_INVALID_CHARACTERS = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen ersetzt werden sollen (
�
). Diese Option führt eine 1:1-Zeichenersetzung aus.- Werte:
Bei Einstellung auf
TRUE
ersetzt Snowflake ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard:
FALSE
IGNORE_UTF8_ERRORS = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob UTF-8-Codierungsfehler Fehlerbedingungen erzeugen. Dies ist eine alternative Syntax für
REPLACE_INVALID_CHARACTERS
.- Werte:
Wenn auf
TRUE
gesetzt, werden alle ungültigen UTF-8-Sequenzen stillschweigend durch das UnicodezeichenU+FFFD
(d. h. „Ersetzungszeichen“) ersetzt.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard:
FALSE
SKIP_BYTE_ORDER_MARK = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob die BOM (Bytereihenfolge-Marke) übersprungen werden soll, wenn sie in einer Datendatei vorhanden ist. Eine BOM ist ein Zeichencode am Anfang einer Datendatei, der die Bytefolge und die Codierungsform definiert.
Wenn auf
FALSE
gesetzt, erkennt Snowflake alle BOM in Datendateien, was dazu führen kann, dass die BOM entweder einen Fehler verursacht oder in der ersten Spalte der Tabelle zusammengeführt wird.- Standard:
TRUE
TYPE = AVRO¶
COMPRESSION = AUTO | GZIP | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
- Verwendung:
Nur Laden von Daten
- Definition:
Beim Laden von Daten wird der aktuelle Komprimierungsalgorithmus für die Datendatei angegeben. Snowflake verwendet diese Option, um zu erkennen, wie eine bereits komprimierte Datendatei komprimiert wurde, sodass die komprimierten Daten in der Datei zum Laden extrahiert werden können.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte:
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt, mit Ausnahme von Brotli-komprimierten Dateien, die derzeit nicht automatisch erkannt werden können. Beim Entladen von Daten werden Dateien automatisch mit der Standardmethode gzip komprimiert.
GZIP
BROTLI
Muss beim Laden/Entladen von Brotli-komprimierten Dateien angegeben werden.
ZSTD
Zstandard v0.8 (und höher) wird unterstützt.
DEFLATE
Deflate-komprimierte Dateien (mit zlib-Header, RFC1950).
RAW_DEFLATE
Raw Deflate-komprimierte Dateien (ohne Header, RFC1951).
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard:
AUTO
.
Bemerkung
Wir empfehlen die Verwendung der Standardoption AUTO
, da mit dieser sowohl die Datei- als auch die Codec-Komprimierung bestimmt wird. Die Angabe einer Komprimierungsoption bezieht sich auf die Komprimierung von Dateien, nicht auf die Komprimierung von Blöcken (Codecs).
TRIM_SPACE = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob vorangestellte und nachstehende Leerzeichen aus Zeichenfolgen entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Diese Dateiformatoption wird nur dann auf die nachfolgenden Aktionen angewendet, wenn Avro-Daten mit der Kopieroption MATCH_BY_COLUMN_NAME in separate Spalten geladen werden.
- Standard:
FALSE
REPLACE_INVALID_CHARACTERS = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen ersetzt werden sollen (
�
). Diese Option führt eine 1:1-Zeichenersetzung aus.- Werte:
Bei Einstellung auf
TRUE
ersetzt Snowflake ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard:
FALSE
NULL_IF = ( 'string1' [ , 'string2' , ... ] )
- Verwendung:
Nur Laden von Daten
- Definition:
Zeichenfolge, die zum Konvertieren in und von SQL NULL verwendet wird. Snowflake ersetzt diese Zeichenfolgen in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Diese Dateiformatoption wird nur dann auf die nachfolgenden Aktionen angewendet, wenn Avro-Daten mit der Kopieroption MATCH_BY_COLUMN_NAME in separate Spalten geladen werden.
Beachten Sie, dass Snowflake alle Instanzen des Wertes in einen NULL-Wert konvertiert, unabhängig vom Datentyp. Wenn z. B.
2
als Wert angegeben wird, werden alle Instanzen von2
entweder in eine Zeichenfolge oder in eine Zahl konvertiert.Beispiel:
NULL_IF = ('N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
- Standard:
\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\
ist)
TYPE = ORC¶
TRIM_SPACE = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob vorangestellte und nachstehende Leerzeichen aus Zeichenfolgen entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Diese Dateiformatoption wird nur dann auf die nachfolgenden Aktionen angewendet, wenn Orc-Daten mit der Kopieroption MATCH_BY_COLUMN_NAME in separate Spalten geladen werden.
- Standard:
FALSE
REPLACE_INVALID_CHARACTERS = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen ersetzt werden sollen (
�
). Diese Option führt eine 1:1-Zeichenersetzung aus.- Werte:
Bei Einstellung auf
TRUE
ersetzt Snowflake ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard:
FALSE
NULL_IF = ( 'string1' [ , 'string2' , ... ] )
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Zeichenfolge, die zum Konvertieren in und von SQL NULL verwendet wird. Snowflake ersetzt diese Zeichenfolgen in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Diese Dateiformatoption wird nur dann auf die nachfolgenden Aktionen angewendet, wenn Orc-Daten mit der Kopieroption MATCH_BY_COLUMN_NAME in separate Spalten geladen werden.
Beachten Sie, dass Snowflake alle Instanzen des Wertes in einen NULL-Wert konvertiert, unabhängig vom Datentyp. Wenn z. B.
2
als Wert angegeben wird, werden alle Instanzen von2
entweder in eine Zeichenfolge oder in eine Zahl konvertiert.Beispiel:
NULL_IF = ('N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
- Standard:
\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\
ist)
TYPE = PARQUET¶
COMPRESSION = AUTO | LZO | SNAPPY | NONE
- Verwendung:
Laden von Daten, Entladen von Daten und externe Tabellen
- Definition:
Gibt beim Laden von Daten den aktuellen Komprimierungsalgorithmus für Spalten in den Parquet-Dateien an.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte:
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt. Unterstützt die folgenden Komprimierungsalgorithmen: Brotli, gzip, Lempel-Ziv-Oberhumer (LZO), LZ4, Snappy und Zstandard v0.8 (und höher). . Beim Entladen von Daten werden entladene Dateien standardmäßig mit dem Snappy-Algorithmus komprimiert.
LZO
Beim Entladen von Daten werden Dateien standardmäßig mit dem Snappy-Algorithmus komprimiert. Geben Sie diesen Wert an, wenn Daten in LZO-komprimierte Dateien entladen werden sollen.
SNAPPY
Beim Entladen von Daten werden Dateien standardmäßig mit dem Snappy-Algorithmus komprimiert. Sie können diesen Wert optional angeben.
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard:
AUTO
SNAPPY_COMPRESSION = TRUE | FALSE
- Verwendung:
Nur Entladen von Daten
Unterstützte Werte
Anmerkungen
AUTO
Entladene Dateien werden standardmäßig mit dem Komprimierungsalgorithmus Snappy komprimiert.
SNAPPY
Kann angegeben werden, wenn Snappy-komprimierte Dateien entladen werden.
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Definition:
Boolescher Wert, der angibt, ob entladene Dateien mit dem SNAPPY-Algorithmus komprimiert werden.
Bemerkung
Veraltet. Verwenden Sie stattdessen
COMPRESSION = SNAPPY
.- Einschränkungen:
Wird nur für Datenentladevorgänge unterstützt.
- Standard:
TRUE
BINARY_AS_TEXT = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob Spalten ohne definierten logischen Datentyp als UTF-8-Text interpretiert werden sollen. Wenn auf
FALSE
gesetzt, interpretiert Snowflake diese Spalten als Binärdaten.- Standard:
TRUE
Bemerkung
Snowflake empfiehlt, BINARY_AS_TEXT auf FALSE zu setzen, um mögliche Konvertierungsprobleme zu vermeiden.
TRIM_SPACE = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob vorangestellte und nachstehende Leerzeichen aus Zeichenfolgen entfernt werden sollen.
Wenn Ihre externe Datenbanksoftware beispielsweise Felder in Anführungszeichen setzt, aber ein führendes Leerzeichen einfügt, liest Snowflake das führende Leerzeichen und nicht das öffnende Anführungszeichen als Anfang des Feldes (d. h. die Anführungszeichen werden als Teil der Zeichenfolge von Felddaten interpretiert). Setzen Sie diese Option auf
TRUE
, um unerwünschte Leerzeichen während des Datenladevorgangs zu entfernen.Diese Dateiformatoption wird nur dann auf die nachfolgenden Aktionen angewendet, wenn Parquet-Daten mit der Kopieroption MATCH_BY_COLUMN_NAME in separate Spalten geladen werden.
- Standard:
FALSE
USE_LOGICAL_TYPE = TRUE | FALSE
- Verwendung:
Laden von Daten, Abfragen von Daten in Stagingdateien sowie Schemaerkennung.
- Definition:
Boolescher Wert, der angibt, ob logische Parquet-Typen verwendet werden sollen. Mit dieser Dateiformatoption kann Snowflake beim Laden von Daten logische Parquet-Typen interpretieren. Weitere Informationen dazu finden Sie unter Definitionen für logische Parquet-Typen. Um logische Parquet-Typen zu aktivieren, setzen Sie USE_LOGICAL_TYPE beim Erstellen einer neuen Dateiformatoption auf TRUE.
- Einschränkungen:
Nicht unterstützt für das Entladen von Daten.
REPLACE_INVALID_CHARACTERS = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen ersetzt werden sollen (
�
). Diese Option führt eine 1:1-Zeichenersetzung aus.- Werte:
Bei Einstellung auf
TRUE
ersetzt Snowflake ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard:
FALSE
NULL_IF = ( 'string1' [ , 'string2' , ... ] )
- Verwendung:
Nur Laden von Daten
- Definition:
Zeichenfolge, die zum Konvertieren in und von SQL NULL verwendet wird. Snowflake ersetzt diese Zeichenfolgen in der Datenladequelle durch SQL NULL. Um mehr als eine Zeichenfolge anzugeben, schließen Sie die Liste der Zeichenfolgen in Klammern ein und trennen Sie jeden Wert durch Kommas.
Diese Dateiformatoption wird nur dann auf die nachfolgenden Aktionen angewendet, wenn Parquet-Daten mit der Kopieroption MATCH_BY_COLUMN_NAME in separate Spalten geladen werden.
Beachten Sie, dass Snowflake alle Instanzen des Wertes in einen NULL-Wert konvertiert, unabhängig vom Datentyp. Wenn z. B.
2
als Wert angegeben wird, werden alle Instanzen von2
entweder in eine Zeichenfolge oder in eine Zahl konvertiert.Beispiel:
NULL_IF = ('N', 'NULL', 'NUL', '')
Beachten Sie, dass diese Option leere Zeichenfolgen enthalten kann.
- Standard:
\N
(d. h. NULL mit der Annahme, dass derESCAPE_UNENCLOSED_FIELD
-Wert\
ist)
TYPE = XML¶
COMPRESSION = AUTO | GZIP | BZ2 | BROTLI | ZSTD | DEFLATE | RAW_DEFLATE | NONE
- Verwendung:
Nur Laden von Daten
- Definition:
Beim Laden von Daten wird der aktuelle Komprimierungsalgorithmus für die Datendatei angegeben. Snowflake verwendet diese Option, um zu erkennen, wie eine bereits komprimierte Datendatei komprimiert wurde, sodass die komprimierten Daten in der Datei zum Laden extrahiert werden können.
Beim Entladen von Daten wird die Datendatei mit dem angegebenen Komprimierungsalgorithmus komprimiert.
- Werte:
Unterstützte Werte
Anmerkungen
AUTO
Beim Laden von Daten wird der Komprimierungsalgorithmus automatisch erkannt, mit Ausnahme von Brotli-komprimierten Dateien, die derzeit nicht automatisch erkannt werden können. Beim Entladen von Daten werden Dateien automatisch mit der Standardmethode gzip komprimiert.
GZIP
BZ2
BROTLI
Muss beim Laden/Entladen von Brotli-komprimierten Dateien angegeben werden.
ZSTD
Zstandard v0.8 (und höher) wird unterstützt.
DEFLATE
Deflate-komprimierte Dateien (mit zlib-Header, RFC1950).
RAW_DEFLATE
Raw Deflate-komprimierte Dateien (ohne Header, RFC1951).
NONE
Zeigt beim Laden von Daten an, dass die Dateien nicht komprimiert wurden. Zeigt beim Entladen von Daten an, dass die entladenen Dateien nicht komprimiert werden.
- Standard:
AUTO
IGNORE_UTF8_ERRORS = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob UTF-8-Codierungsfehler Fehlerbedingungen erzeugen. Dies ist eine alternative Syntax für
REPLACE_INVALID_CHARACTERS
.- Werte:
Wenn auf
TRUE
gesetzt, werden alle ungültigen UTF-8-Sequenzen stillschweigend durch das UnicodezeichenU+FFFD
(d. h. „Ersetzungszeichen“) ersetzt.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard:
FALSE
PRESERVE_SPACE = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob der XML-Parser führende und nachstehende Leerzeichen im Elementinhalt beibehält.
- Standard:
FALSE
STRIP_OUTER_ELEMENT = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob der XML-Parser das äußere XML-Element entfernt und Elemente der zweiten Ebene als separate Dokumente anzeigt.
- Standard:
FALSE
DISABLE_SNOWFLAKE_DATA = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob der XML-Parser die Erkennung von semistrukturierten Snowflake-Daten-Tags deaktiviert.
- Standard:
FALSE
DISABLE_AUTO_CONVERT = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob der XML-Parser die automatische Konvertierung von numerischen und booleschen Werten von Text in native Darstellung deaktiviert.
- Standard:
FALSE
REPLACE_INVALID_CHARACTERS = TRUE | FALSE
- Verwendung:
Laden von Daten und externe Tabellen
- Definition:
Boolescher Wert, der angibt, ob ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen ersetzt werden sollen (
�
). Diese Option führt eine 1:1-Zeichenersetzung aus.- Werte:
Bei Einstellung auf
TRUE
ersetzt Snowflake ungültige UTF-8-Zeichen durch das Unicode-Ersetzungszeichen.Bei Einstellung auf
FALSE
gibt die Ladeoperation einen Fehler aus, wenn eine ungültige UTF-8-Zeichencodierung erkannt wird.- Standard:
FALSE
SKIP_BYTE_ORDER_MARK = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob eine BOM (Byte-Reihenfolgemarke) in einer Eingabedatei übersprungen werden soll. Eine BOM ist ein Zeichencode am Anfang einer Datendatei, der die Bytefolge und die Codierungsform definiert.
Wenn auf
FALSE
gesetzt, erkennt Snowflake alle BOM in Datendateien, was dazu führen kann, dass die BOM entweder einen Fehler verursacht oder in der ersten Spalte der Tabelle zusammengeführt wird.- Standard:
TRUE
Kopieroptionen (copyOptions
)¶
Kopieroptionen werden zum Laden von Daten in und Entladen von Daten aus Tabellen verwendet.
Sie können eine oder mehrere der folgenden Kopieroptionen angeben (durch Leerzeichen, Kommas oder Neue-Zeile-Zeichen getrennt):
STAGE_COPY_OPTIONS = ( ... )
ON_ERROR = CONTINUE | SKIP_FILE | SKIP_FILE_num | 'SKIP_FILE_num%' | ABORT_STATEMENT
- Verwendung:
Nur Laden von Daten
- Definition:
Zeichenfolge (Konstante), die die Fehlerbehandlung für die Ladeoperation angibt.
Wichtig
Prüfen Sie sorgfältig den Wert der ON_ERROR-Kopieroption. Der Standardwert ist in vielen Fällen angemessen, aber nicht immer die beste Option.
- Werte:
CONTINUE
Bei Erkennen eines Fehlers wird mit dem Laden der Datei fortgefahren. Die COPY-Anweisung gibt eine Fehlermeldung für maximal einen gefundenen Fehler pro Datendatei zurück.
Beachten Sie, dass der Unterschied zwischen den Spaltenwerten ROWS_PARSED und ROWS_LOADED die Anzahl der Zeilen darstellt, die erkannte Fehler enthalten. Jede dieser Zeilen kann jedoch mehrere Fehler enthalten. Um alle Fehler in den Datendateien anzuzeigen, können Sie den Parameter VALIDATION_MODE verwenden oder die Funktion VALIDATE abfragen.
SKIP_FILE
Bei Erkennen eines Fehlers wird die Datei übersprungen.
Beachten Sie, dass bei der Aktion
SKIP_FILE
die gesamte Datei im Puffer gespeichert wird, unabhängig davon, ob Fehler gefunden werden oder nicht. Aus diesem Grund istSKIP_FILE
langsamer alsCONTINUE
oderABORT_STATEMENT
. Das Überspringen von Dateien bei nur wenigen Fehlern kann zu Verzögerungen und zur Vergeudung von Credits führen. Wenn Sie eine große Anzahl von Datensätzen aus Dateien laden, die keine logische Abgrenzung haben (z. B. weil die Dateien automatisch in groben Abständen generiert wurden), sollten Sie stattdessenCONTINUE
angeben.Zusätzliche Muster:
SKIP_FILE_num
(z. B.SKIP_FILE_10
)Überspringt die Datei, wenn die Anzahl der in der Datei gefundenen Fehlerzeilen gleich oder größer als die hier angegebene Anzahl ist.
'SKIP_FILE_num%'
(z. B.'SKIP_FILE_10%'
)Überspringt die Datei, wenn der Prozentsatz der in der Datei gefundenen Fehlerzeilen den hier angegebenen Prozentsatz überschreitet.
ABORT_STATEMENT
Bricht die Ladeoperation ab, wenn in einer Datendatei ein Fehler gefunden wird.
Beachten Sie, dass die Ladeoperation nicht abgebrochen wird, wenn die Datendatei nicht gefunden werden kann (z. B. weil sie nicht vorhanden ist oder nicht auf sie zugegriffen werden kann), außer eine explizit im Parameter
FILES
angegebene Datendatei kann nicht gefunden werden.- Standard:
- Massenladen mit COPY:
ABORT_STATEMENT
- Snowpipe:
SKIP_FILE
SIZE_LIMIT = num
- Verwendung:
Nur Laden von Daten
- Definition:
Zahl (>0), die die maximale Größe (in Byte) der zu ladenden Daten für eine gegebene COPY-Anweisung angibt. Wenn der Schwellenwert überschritten wird, stoppt die Operation COPY das Laden von Dateien. Diese Option wird häufig verwendet, um eine gemeinsame Gruppe von Dateien mit mehreren COPY-Anweisungen zu laden. Für jede Anweisung wird die Datenladung fortgesetzt, bis das angegebene
SIZE_LIMIT
überschritten ist und bevor zur nächsten Anweisung übergegangen wird.Angenommen, eine Gruppe von Dateien in einem Stagingbereichspfad wäre jeweils 10 MB groß. Wenn mehrere COPY-Anweisungen SIZE_LIMIT auf
25000000
(25 MB) setzen, würde jede 3 Dateien laden. Das heißt, jede COPY-Operation würde nach Überschreiten desSIZE_LIMIT
-Schwellenwerts abbrechen.Beachten Sie, dass mindestens eine Datei unabhängig von dem für
SIZE_LIMIT
angegebenen Wert geladen wird, es sei denn, es ist keine Datei zu laden.- Standard:
Null (keine Größenbeschränkung)
PURGE = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob die Datendateien nach erfolgreichem Laden der Daten automatisch aus dem Stagingbereich entfernt werden sollen.
Wenn diese Option auf
TRUE
gesetzt ist, erfolgt das Entfernen der erfolgreich geladenen Datendateien nach besten Kräften. Beachten Sie aber, dass derzeit kein Fehler zurückgegeben wird, wenn die Löschoperation aus irgendeinem Grund fehlschlägt. Wir empfehlen daher, dass Sie die im Stagingbereich befindlichen Dateien regelmäßig auflisten (mit LIST) und erfolgreich geladene Dateien ggf. manuell entfernen.- Standard:
FALSE
RETURN_FAILED_ONLY = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, ob nur Dateien zurückgegeben werden sollen, die nicht in das Anweisungsergebnis geladen wurden.
- Standard:
FALSE
MATCH_BY_COLUMN_NAME = CASE_SENSITIVE | CASE_INSENSITIVE | NONE
- Verwendung:
Nur Laden von Daten
- Definition:
Zeichenfolge, die angibt, ob semistrukturierte Daten in Spalten der Zieltabelle geladen werden sollen, die den in den Daten dargestellten Spalten entsprechen.
Diese Kopieroption wird für die folgenden Datenformate unterstützt:
JSON
Avro
ORC
Parquet
Damit eine Spalte übereinstimmt, muss Folgendes zutreffen:
Die in den Daten dargestellte Spalte muss exakt den gleichen Namen haben wie die Spalte in der Tabelle. Die Kopieroption unterstützt die Groß- und Kleinschreibung von Spaltennamen. Die Spaltenreihenfolge spielt keine Rolle.
Die Spalte in der Tabelle muss einen Datentyp haben, der mit den Werten in der in den Daten dargestellten Spalte kompatibel ist. Beispielsweise können Zeichenfolgen-, Zahlen- und Boolesche Werte in eine Variant-Spalte geladen werden.
- Werte:
CASE_SENSITIVE
|CASE_INSENSITIVE
Laden Sie semistrukturierte Daten in Spalten der Zieltabelle, die den in den Daten dargestellten Spalten entsprechen. Spaltennamen können zwischen Groß- und Kleinschreibung unterscheiden (
CASE_SENSITIVE
) oder nicht unterscheiden (CASE_INSENSITIVE
).Die COPY-Operation überprüft, ob mindestens eine Spalte in der Zieltabelle mit einer in den Datendateien dargestellten Spalte übereinstimmt. Wenn eine Übereinstimmung gefunden wird, werden die Werte der Datendateien in die entsprechenden Spalten geladen. Wenn keine Übereinstimmung gefunden wird, wird für jeden Datensatz in den Dateien ein Satz von NULL-Werten in die Tabelle geladen.
Bemerkung
Wenn in den Datendateien weitere, nicht übereinstimmende Spalten vorhanden sind, werden die Werte in diesen Spalten nicht geladen.
Wenn die Zieltabelle weitere, nicht übereinstimmende Spalten enthält, fügt die COPY-Operation in diese Spalten NULL-Werte ein. Diese Spalten müssen NULL-Werte unterstützen.
In der COPY-Anweisung darf keine Abfrage zur weiteren Transformation der Daten während des Ladevorgangs (d. h. COPY-Transformation) angegeben werden.
NONE
Die COPY-Operation lädt die semistrukturierten Daten in eine Variant-Spalte oder transformiert die Daten, wenn in der COPY-Anweisung eine Abfrage enthalten ist.
Bemerkung
Derzeit gelten folgende Einschränkungen:
MATCH_BY_COLUMN_NAME kann nicht mit dem Parameter
VALIDATION_MODE
in einer COPY-Anweisung verwendet werden, um die Stagingdaten zu überprüfen, anstatt sie in die Zieltabelle zu laden.Nur Parquet-Daten. Wenn MATCH_BY_COLUMN_NAME auf
CASE_SENSITIVE
oderCASE_INSENSITIVE
gesetzt ist, führt ein leerer Spaltenwert (z. B."col1": ""
) zu einem Fehler.
- Standard:
NONE
ENFORCE_LENGTH = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Alternative Syntax für
TRUNCATECOLUMNS
mit umgekehrter Logik (zur Kompatibilität mit anderen Systemen)Boolescher Wert, der angibt, ob Textzeichenfolgen, die die Länge der Zielspalte überschreiten, abgeschnitten werden sollen:
Wenn auf
TRUE
gesetzt, generiert die COPY-Anweisung beim Überschreiten der Länge der Zielspalte einen Fehler.Wenn auf
FALSE
gesetzt, werden Zeichenfolgen automatisch auf die Länge der Zielspalte abgeschnitten.Diese Kopieroption unterstützt CSV-Daten sowie Zeichenfolgenwerte in semistrukturierten Daten, wenn sie in separate Spalten von relationalen Tabellen geladen werden.
Bemerkung
Wenn die Länge der Spalte für die Zielzeichenfolge auf das Maximum eingestellt ist (z. B.
VARCHAR (16777216)
), kann eine eingehende Zeichenfolge diese Länge nicht überschreiten, andernfalls generiert der COPY-Befehl einen Fehler.Dieser Parameter entspricht funktional dem Parameter
TRUNCATECOLUMNS
, weist aber das umgekehrte Verhalten auf. Dies wird aus Gründen der Kompatibilität mit anderen Datenbanken bereitgestellt. Zum Erzeugen der gewünschten Ausgabe muss nur einer der beiden Parameter in eine COPY-Anweisung aufgenommen werden.
- Standard:
TRUE
TRUNCATECOLUMNS = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Alternative Syntax für
ENFORCE_LENGTH
mit umgekehrter Logik (zur Kompatibilität mit anderen Systemen)Boolescher Wert, der angibt, ob Textzeichenfolgen, die die Länge der Zielspalte überschreiten, abgeschnitten werden sollen:
Wenn auf
TRUE
gesetzt, werden Zeichenfolgen automatisch auf die Länge der Zielspalte abgeschnitten.Wenn auf
FALSE
gesetzt, generiert die COPY-Anweisung beim Überschreiten der Länge der Zielspalte einen Fehler.Diese Kopieroption unterstützt CSV-Daten sowie Zeichenfolgenwerte in semistrukturierten Daten, wenn sie in separate Spalten von relationalen Tabellen geladen werden.
Bemerkung
Wenn die Länge der Spalte für die Zielzeichenfolge auf das Maximum eingestellt ist (z. B.
VARCHAR (16777216)
), kann eine eingehende Zeichenfolge diese Länge nicht überschreiten, andernfalls generiert der COPY-Befehl einen Fehler.Dieser Parameter entspricht funktional dem Parameter
ENFORCE_LENGTH
, weist aber das umgekehrte Verhalten auf. Dies wird aus Gründen der Kompatibilität mit anderen Datenbanken bereitgestellt. Zum Erzeugen der gewünschten Ausgabe muss nur einer der beiden Parameter in eine COPY-Anweisung aufgenommen werden.- Standard:
FALSE
FORCE = TRUE | FALSE
- Verwendung:
Nur Laden von Daten
- Definition:
Boolescher Wert, der angibt, dass alle Dateien geladen werden sollen, unabhängig davon, ob sie bereits zuvor geladen und seitdem nicht geändert wurden. Beachten Sie, dass diese Option Dateien neu lädt und möglicherweise Daten in einer Tabelle dupliziert.
- Standard:
FALSE
Anforderungen an die Zugriffssteuerung¶
Eine Rolle, die zur Ausführung dieses SQL-Befehls verwendet wird, muss mindestens die folgenden Berechtigungen haben:
Berechtigung |
Objekt |
Anmerkungen |
---|---|---|
CREATE TABLE |
Schema |
Beachten Sie, dass zum Erstellen einer temporären Tabelle keine CREATE TABLE-Berechtigung erforderlich ist. |
SELECT |
Tabelle, externe Tabelle, Ansicht |
Nur für abgefragte Tabellen und/oder Ansichten beim Klonen einer Tabelle oder beim Ausführen von CTAS-Anweisungen erforderlich. |
APPLY |
Maskierungsrichtlinie, Zeilenzugriffsrichtlinie, Tag |
Nur erforderlich, wenn beim Erstellen von Tabellen eine Maskierungsrichtlinie, eine Zeilenzugriffsrichtlinie, Objekt-Tags oder eine beliebige Kombination dieser Governance-Features angewendet wird. |
USAGE |
Dateiformat |
Nur erforderlich, wenn im Parameter |
USAGE (externer Stagingbereich) oder READ (interner Stagingbereich) |
Stagingbereich |
Erforderlich für die Ableitung der Definitionen von Tabellenspalten in Stagingdateien mit CREATE TABLE … USING TEMPLATE-Anweisungen. |
OWNERSHIP |
Tabelle |
Um ein temporäres Objekt zu erstellen, das denselben Namen hat wie das bereits im Schema vorhandene Objekt, muss der verwendeten Rolle die Berechtigung OWNERSHIP für das Objekt erteilt worden sein oder die Rolle muss diese Berechtigung geerbt haben. Note that in a managed access schema, only the schema owner (i.e. the role with the OWNERSHIP privilege on the schema) or a role with the MANAGE GRANTS privilege can grant or revoke privileges on objects in the schema, including future grants. |
Beachten Sie, dass für die Bearbeitung eines Objekts in einem Schema auch die Berechtigung USAGE für die übergeordnete Datenbank und das Schema erforderlich ist.
Eine Anleitung zum Erstellen einer kundenspezifischen Rolle mit einer bestimmten Gruppe von Berechtigungen finden Sie unter Erstellen von kundenspezifischen Rollen.
Allgemeine Informationen zu Rollen und Berechtigungen zur Durchführung von SQL-Aktionen auf sicherungsfähigen Objekten finden Sie unter Übersicht zur Zugriffssteuerung.
Nutzungshinweise¶
Ein Schema darf keine Tabellen und/oder Ansichten mit gleichem Namen enthalten. Beim Erstellen einer Tabelle:
Wenn im Schema bereits eine Ansicht mit dem gleichen Namen vorhanden ist, wird ein Fehler zurückgegeben und die Tabelle nicht erstellt.
Wenn bereits eine Tabelle mit dem gleichen Namen im Schema existiert, wird ein Fehler zurückgegeben, und die Tabelle wird nicht erstellt, es sei denn, das optionale Schlüsselwort
OR REPLACE
ist im Befehl enthalten.Wichtig
Die Verwendung von
OR REPLACE
ist gleichbedeutend mit der Verwendung von DROP TABLE auf der bestehenden Tabelle und der anschließenden Erstellung einer neuen Tabelle mit dem gleichen Namen. Die gelöschte Tabelle wird jedoch nicht dauerhaft aus dem System entfernt. Stattdessen wird sie in Time Travel aufbewahrt. Dies muss beachtet werden, da gelöschte Tabellen in Time Travel wiederhergestellt werden können und auch Datenspeicher Ihres Kontos verbrauchen. Weitere Informationen dazu finden Sie unter Speicherkosten für Time Travel und Fail-safe.CREATE OR REPLACE <Objekt>-Anweisungen sind atomar. Das heißt, wenn ein Objekt ersetzt wird, erfolgt das Löschen des alten Objekts und das Erstellen des neuen Objekts in einer einzigen Transaktion.
Das bedeutet, dass alle Abfragen, die gleichzeitig mit der Operation CREATE OR REPLACE TABLE ausgeführt werden, entweder die alte oder die neue Version der Tabelle verwenden.
Wenn eine Tabelle neu erstellt oder ausgetauscht wird, werden ihre Änderungsdaten gelöscht. Jeder Stream auf der Tabelle veraltet. Außerdem veralten alle Streams auf einer Ansicht, die diese Tabelle als zugrunde liegende Tabelle hat. Ein veralteter Stream kann nicht mehr gelesen werden.
Ähnlich wie bei reservierten Schlüsselwörtern können ANSI-reservierte Funktionsnamen (z. B. CURRENT_DATE, CURRENT_TIMESTAMP) nicht als Spaltennamen verwendet werden.
CREATE TABLE … CLONE:
Wenn die Quelltabelle Gruppierungsschlüssel hat, dann hat auch die neue Tabelle Gruppierungsschlüssel. Standardmäßig wird Automatic Clustering für die neue Tabelle angehalten – auch wenn Automatic Clustering für die Quelltabelle nicht angehalten wurde.
CREATE TABLE … CHANGE_TRACKING = TRUE:
Wenn die Änderungsverfolgung aktiviert wird, wird die Tabelle für die Dauer der Operation gesperrt. Sperren können bei einigen damit verbundenen DDL/DML-Operationen eine Latenz verursachen. Weitere Informationen dazu finden Sie unter Ressourcensperrung.
CREATE TABLE … LIKE:
Wenn die Quelltabelle Gruppierungsschlüssel hat, dann hat auch die neue Tabelle Gruppierungsschlüssel. Standardmäßig wird Automatic Clustering für die neue Tabelle nicht angehalten – auch wenn Automatic Clustering für die Quelltabelle angehalten wurde.
CREATE TABLE … AS SELECT (CTAS):
Wenn die Aliasse für die Spaltennamen in der SELECT-Liste gültige Spalten sind, dann sind die Spaltendefinitionen in der CTAS-Anweisung nicht erforderlich. Wenn sie weggelassen werden, werden die Spaltennamen und -typen aus der zugrunde liegenden Abfrage abgeleitet:
CREATE TABLE <table_name> AS SELECT ...
Alternativ können die Namen auch explizit mit der folgenden Syntax angegeben werden:
CREATE TABLE <table_name> ( <col1_name> , <col2_name> , ... ) AS SELECT ...
Die Anzahl der angegebenen Spaltennamen muss mit der Anzahl der SELECT-Listenelemente in der Abfrage übereinstimmen; die Typen der Spalten werden aus den von der Abfrage erzeugten Typen abgeleitet.
Wenn Gruppierungsschlüssel in einer CTAS-Anweisung angegeben werden, gilt Folgendes:
Spaltendefinitionen sind erforderlich und müssen in der Anweisung ausdrücklich angegeben werden.
Standardmäßig wird Automatic Clustering für die neue Tabelle nicht angehalten – auch wenn Automatic Clustering für die Quelltabelle angehalten wurde.
Wenn die Tabelle mit Zeilen in einer bestimmten Reihenfolge erstellt werden soll, dann verwenden Sie in der SELECT-Klausel der CTAS eine ORDER BY-Unterklausel. Durch die Angabe von CLUSTER BY werden die Daten nicht zum Zeitpunkt der Erstellung der Tabelle geclustert. Stattdessen verlässt sich CLUSTER BY auf das Automatic Clustering, um die Daten im Laufe der Zeit neu zu clustern.
Die ORDER BY-Unterklausel in einer CREATE TABLE-Anweisung hat keinen Einfluss auf die Reihenfolge der Zeilen, die von zukünftigen SELECT-Anweisungen auf dieser Tabelle zurückgegeben werden. Um die Reihenfolge der Zeilen in zukünftigen SELECT-Anweisungen festzulegen, verwenden Sie in diesen Anweisungen eine ORDER BY-Unterklausel.
Innerhalb einer Transaktion schreibt jede DDL-Anweisung (einschließlich CREATE TEMPORARY/TRANSIENT TABLE) die Transaktion fest, bevor die DDL-Anweisung selbst ausgeführt wird. Die DDL-Anweisung wird dann in einer eigenen Transaktion ausgeführt. Mit der nächsten Anweisung nach der DDL-Anweisung wird eine neue Transaktion gestartet. Daher können Sie keine temporäre oder vorübergehende Tabelle innerhalb einer einzelnen Transaktion erstellen, verwenden und löschen. Wenn Sie eine temporäre oder vorübergehende Tabelle in einer Transaktion verwenden möchten, erstellen Sie die Tabelle vor der Transaktion und löschen Sie die Tabelle nach der Transaktion.
Wenn Sie eine Tabelle neu erstellen (mit dem optionalen Schlüsselwort
OR REPLACE
), wird deren Verlauf gelöscht, wodurch alle Streams auf der Tabelle veraltet sind. Ein veralteter Stream kann nicht mehr gelesen werden.Eine einzelne Maskierungsrichtlinie, die bedingte Spalten verwendet, kann auf mehrere Tabellen angewendet werden, sofern die Spaltenstruktur der Tabelle mit den in der Richtlinie angegebenen Spalten übereinstimmt.
Wenn Sie eine Tabelle mit Maskierungsrichtlinie auf einer oder mehreren Tabellenspalten oder die Tabelle selbst mit Zeilenzugriffsrichtlinie ändern, dann können Sie mit der Funktion POLICY_CONTEXT eine Abfrage auf den mit Maskierungsrichtlinie geschützten Spalten bzw. auf der mit einer Zeilenzugriffsrichtlinie geschützten Tabelle simulieren.
Metadaten:
Achtung
Kunden müssen sicherstellen, dass bei der Nutzung des Snowflake-Dienstes keine personenbezogenen Daten (außer für ein Objekt „Benutzer“), sensible Daten, exportkontrollierte Daten oder andere regulierte Daten als Metadaten eingegeben werden. Weitere Informationen dazu finden Sie unter Metadatenfelder in Snowflake.
Beispiele¶
Erstellen Sie eine einfache Tabelle in der aktuellen Datenbank und fügen Sie eine Zeile in die Tabelle ein:
CREATE TABLE mytable (amount NUMBER); +-------------------------------------+ | status | |-------------------------------------| | Table MYTABLE successfully created. | +-------------------------------------+ INSERT INTO mytable VALUES(1); SHOW TABLES like 'mytable'; +---------------------------------+---------+---------------+-------------+-------+---------+------------+------+-------+--------------+----------------+ | created_on | name | database_name | schema_name | kind | comment | cluster_by | rows | bytes | owner | retention_time | |---------------------------------+---------+---------------+-------------+-------+---------+------------+------+-------+--------------+----------------| | Mon, 11 Sep 2017 16:32:28 -0700 | MYTABLE | TESTDB | PUBLIC | TABLE | | | 1 | 1024 | ACCOUNTADMIN | 1 | +---------------------------------+---------+---------------+-------------+-------+---------+------------+------+-------+--------------+----------------+ DESC TABLE mytable; +--------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+ | name | type | kind | null? | default | primary key | unique key | check | expression | comment | |--------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------| | AMOUNT | NUMBER(38,0) | COLUMN | Y | NULL | N | N | NULL | NULL | NULL | +--------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+
Erstellen Sie eine einfache Tabelle und geben Sie Kommentare sowohl für die Tabelle als auch für die Spalte in der Tabelle an:
CREATE TABLE example (col1 NUMBER COMMENT 'a column comment') COMMENT='a table comment'; +-------------------------------------+ | status | |-------------------------------------| | Table EXAMPLE successfully created. | +-------------------------------------+ SHOW TABLES LIKE 'example'; +---------------------------------+---------+---------------+-------------+-------+-----------------+------------+------+-------+--------------+----------------+ | created_on | name | database_name | schema_name | kind | comment | cluster_by | rows | bytes | owner | retention_time | |---------------------------------+---------+---------------+-------------+-------+-----------------+------------+------+-------+--------------+----------------| | Mon, 11 Sep 2017 16:35:59 -0700 | EXAMPLE | TESTDB | PUBLIC | TABLE | a table comment | | 0 | 0 | ACCOUNTADMIN | 1 | +---------------------------------+---------+---------------+-------------+-------+-----------------+------------+------+-------+--------------+----------------+ DESC TABLE example; +------+--------------+--------+-------+---------+-------------+------------+-------+------------+------------------+ | name | type | kind | null? | default | primary key | unique key | check | expression | comment | |------+--------------+--------+-------+---------+-------------+------------+-------+------------+------------------| | COL1 | NUMBER(38,0) | COLUMN | Y | NULL | N | N | NULL | NULL | a column comment | +------+--------------+--------+-------+---------+-------------+------------+-------+------------+------------------+
Erstellen Sie eine Tabelle, indem Sie eine bestehende Tabelle auswählen:
CREATE TABLE mytable_copy (b) AS SELECT * FROM mytable; DESC TABLE mytable_copy; +------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+ | name | type | kind | null? | default | primary key | unique key | check | expression | comment | |------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------| | B | NUMBER(38,0) | COLUMN | Y | NULL | N | N | NULL | NULL | NULL | +------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+ CREATE TABLE mytable_copy2 AS SELECT b+1 AS c FROM mytable_copy; DESC TABLE mytable_copy2; +------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+ | name | type | kind | null? | default | primary key | unique key | check | expression | comment | |------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------| | C | NUMBER(39,0) | COLUMN | Y | NULL | N | N | NULL | NULL | NULL | +------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+ SELECT * FROM mytable_copy2; +---+ | C | |---| | 2 | +---+
Weiterführendes Beispiel für die Erstellung einer Tabelle durch Auswahl aus einer bestehenden Tabelle; in diesem Beispiel werden die Werte in der Spalte summary_amount
der neuen Tabelle aus zwei Spalten der Quelltabelle abgeleitet:
CREATE TABLE testtable_summary (name, summary_amount) AS SELECT name, amount1 + amount2 FROM testtable;
Erstellen Sie eine Tabelle, indem Sie Spalten aus einer bereitgestellten Parquet-Datendatei auswählen:
CREATE OR REPLACE TABLE parquet_col ( custKey NUMBER DEFAULT NULL, orderDate DATE DEFAULT NULL, orderStatus VARCHAR(100) DEFAULT NULL, price VARCHAR(255) ) AS SELECT $1:o_custkey::number, $1:o_orderdate::date, $1:o_orderstatus::text, $1:o_totalprice::text FROM @my_stage; +-----------------------------------------+ | status | |-----------------------------------------| | Table PARQUET_COL successfully created. | +-----------------------------------------+ DESC TABLE parquet_col; +-------------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+ | name | type | kind | null? | default | primary key | unique key | check | expression | comment | |-------------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------| | CUSTKEY | NUMBER(38,0) | COLUMN | Y | NULL | N | N | NULL | NULL | NULL | | ORDERDATE | DATE | COLUMN | Y | NULL | N | N | NULL | NULL | NULL | | ORDERSTATUS | VARCHAR(100) | COLUMN | Y | NULL | N | N | NULL | NULL | NULL | | PRICE | VARCHAR(255) | COLUMN | Y | NULL | N | N | NULL | NULL | NULL | +-------------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+
Erstellen Sie eine Tabelle mit den gleichen Spaltendefinitionen wie eine andere Tabelle, aber ohne Zeilen:
CREATE TABLE mytable (amount NUMBER); INSERT INTO mytable VALUES(1); SELECT * FROM mytable; +--------+ | AMOUNT | |--------| | 1 | +--------+ CREATE TABLE mytable_2 LIKE mytable; DESC TABLE mytable_2; +--------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+ | name | type | kind | null? | default | primary key | unique key | check | expression | comment | |--------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------| | AMOUNT | NUMBER(38,0) | COLUMN | Y | NULL | N | N | NULL | NULL | NULL | +--------+--------------+--------+-------+---------+-------------+------------+-------+------------+---------+ SELECT * FROM mytable_2; +--------+ | AMOUNT | |--------| +--------+
Erstellen Sie eine Tabelle mit einem mehrspaltigen Gruppierungsschlüssel:
CREATE TABLE mytable (date TIMESTAMP_NTZ, id NUMBER, content VARIANT) CLUSTER BY (date, id); SHOW TABLES LIKE 'mytable'; +---------------------------------+---------+---------------+-------------+-------+---------+------------------+------+-------+--------------+----------------+ | created_on | name | database_name | schema_name | kind | comment | cluster_by | rows | bytes | owner | retention_time | |---------------------------------+---------+---------------+-------------+-------+---------+------------------+------+-------+--------------+----------------| | Mon, 11 Sep 2017 16:20:41 -0700 | MYTABLE | TESTDB | PUBLIC | TABLE | | LINEAR(DATE, ID) | 0 | 0 | ACCOUNTADMIN | 1 | +---------------------------------+---------+---------------+-------------+-------+---------+------------------+------+-------+--------------+----------------+
Geben Sie die Sortierung für Spalten in einer Tabelle an:
CREATE TABLE collation_demo ( uncollated_phrase VARCHAR, utf8_phrase VARCHAR COLLATE 'utf8', english_phrase VARCHAR COLLATE 'en', spanish_phrase VARCHAR COLLATE 'sp' ); INSERT INTO collation_demo (uncollated_phrase, utf8_phrase, english_phrase, spanish_phrase) VALUES ('pinata', 'pinata', 'pinata', 'piñata');
Erstellen Sie eine Tabelle, bei der die Spaltendefinitionen von einem Satz von Stagingdateien abgeleitet sind, die Avro-, Parquet- oder ORC-Daten enthalten.
Beachten Sie, dass der Stagingbereich mystage
und das Dateiformat my_parquet_format
, auf die in der Anweisung verwiesen wird, bereits vorhanden sein müssen. Ein Satz von Dateien muss bereits in dem Stagingbereich an dem Cloudspeicherort bereitgestellt sein, auf den in der Stagingbereichsdefinition verwiesen wird.
Im folgenden Beispiel wird eine Tabelle unter Verwendung des erkannten Schemas aus Stagingdateien erstellt, und die Spalten werden nach order_id
sortiert. Das folgende Beispiel baut auf einem Beispiel aus dem Thema INFER_SCHEMA auf:
CREATE TABLE mytable USING TEMPLATE ( SELECT ARRAY_AGG(OBJECT_CONSTRUCT(*)) WITHIN GROUP (ORDER BY order_id) FROM TABLE( INFER_SCHEMA( LOCATION=>'@mystage', FILE_FORMAT=>'my_parquet_format' ) ));
Beachten Sie, dass die Sortierung der Spalten nach order_id
nur gilt, wenn alle Stagingdateien ein Einzelschema gemeinsam verwenden. Wenn die Menge der bereitgestellten Staging-Datendateien mehrere Schemas mit gemeinsamen Spaltennamen enthält, kann die in der Spalte order_id
dargestellte Reihenfolge möglicherweise mit keiner der Einzeldateien übereinstimmen.
Bemerkung
Die Verwendung von *
für ARRAY_AGG(OBJECT_CONSTRUCT())
kann zu einem Fehler führen, wenn das zurückgegebene Ergebnis größer als 16 MB ist. Es wird empfohlen, *
bei größeren Resultsets zu vermeiden und nur die erforderlichen Spalten COLUMN NAME
, TYPE
und NULLABLE
für die Abfrage zu verwenden. Die optionale Spalte ORDER_ID
kann bei Verwendung von WITHIN GROUP (ORDER BY order_id)
hinzugefügt werden.
Erstellen Sie eine temporäre Tabelle, die am Ende der Sitzung automatisch gelöscht wird:
CREATE TEMPORARY TABLE demo_temporary (i INTEGER); CREATE TEMP TABLE demo_temp (i INTEGER);
Aus Gründen der Kompatibilität mit anderen Anbietern unterstützt Snowflake auch die folgenden Schlüsselwörter als Synonyme für TEMPORARY:
CREATE LOCAL TEMPORARY TABLE demo_local_temporary (i INTEGER); CREATE LOCAL TEMP TABLE demo_local_temp (i INTEGER); CREATE GLOBAL TEMPORARY TABLE demo_global_temporary (i INTEGER); CREATE GLOBAL TEMP TABLE demo_global_temp (i INTEGER); CREATE VOLATILE TABLE demo_volatile (i INTEGER);