PutSnowpipeStreaming 2025.5.31.15

Bundle

com.snowflake.openflow.runtime | runtime-snowpipe-processors-nar

Beschreibung

Streamt Datensätze in eine Snowflake-Tabelle. Die Tabelle muss zuvor in dem Snowflake-Konto erstellt werden.

Tags

connection, database, experimental, jdbc, openflow, snowflake, snowpipe streaming

Eingabeanforderung

REQUIRED

Unterstützt sensible dynamische Eigenschaften

false

Eigenschaften

Eigenschaft

Beschreibung

Konto

Snowflake-Kontobezeichner mit dem Organisationsnamen und Kontonamen, formatiert als [organisation-name]-[account-name]

Authentication Strategy

Strategie zur Authentifizierung von Snowflake-Verbindungen

Client Lag

Die maximale Zeitspanne, die der Client wartet, bevor er Datensätze an Snowflake überträgt. Ein größerer Wert kann die Latenzzeit beim Senden an Snowflake erhöhen, aber für Tabellen, die nicht ständig aktualisiert werden, kann dies zu schnelleren und kostengünstigeren Abfragen führen.

Concurrency Group

Ermöglicht die Angabe einer „Concurrency Group“, zu der eine bestimmte FlowFile gehört, sodass die Anzahl der gleichzeitigen Tasks, die in Tabellen einer bestimmten Gruppe schreiben, begrenzt werden kann.

Connection Strategy

Strategie für die Verbindung mit Snowflake Snowpipe Streaming-Diensten

Datenbank

Snowflake-Datenbankziel für verarbeitete Datensätze

Delivery Guarantee

Gibt die Liefergarantie für die an Snowflake gesendeten Datensätze an.

Iceberg Enabled

Gibt an, ob der Prozessor Daten in eine Iceberg-Tabelle aufnimmt. Der Prozessor schlägt fehl, wenn diese Eigenschaft nicht mit dem tatsächlichen Tabellentyp übereinstimmt.

Max Batch Size

Maximale Anzahl von Datensätzen, die in einem einzigen Aufruf aufgenommen werden. Wenn die Anzahl der Datensätze die maximale Batchgröße überschreitet, werden mehrere Datenaufnahmeaufrufe durchgeführt. Die aktuellen Richtlinien empfehlen Batchgrößen von weniger als 16MB. Die „Max Batch Size“ kann auf der Grundlage der durchschnittlichen Datensatzgröße so eingestellt werden, dass die Stapel im Allgemeinen kleiner als 16MB sind.

Max Tasks Per Group

Die maximale Anzahl von Kanälen, die für ein bestimmtes Snowpipe Channel Prefix erstellt werden. Dadurch kann die Anzahl der gleichzeitigen Aufgaben, die in eine bestimmte Snowflake-Tabelle geschrieben werden können, begrenzt werden.

Private Key Service

RSA Private Key Service zur Authentifizierung von Verbindungen

Record Offset

Der Ausdruck in der Expression Language, der verwendet werden soll, um den Offset des ersten Datensatzes in einem FlowFile zu bestimmen.

Record Offset Record Path

Der Ausdruck für den Datensatzpfad, der verwendet werden soll, um den Offset des ersten Datensatzes in einem FlowFile zu bestimmen.

Record Offset Strategy

Gobt die Strategie zur Bestimmung des Offsets jedes Datensatzes an.

Record Reader

Der Record Reader, der zum Lesen der Eingabe verwendet wird

Rolle

Snowflake-Rolle, die der Benutzer bei der Authentifizierung von Verbindungen einnimmt

Schema

Snowflake Schema-Ziel für verarbeitete Datensätze

Snowpipe Channel Index

Der Index, der für den Namen des Snowpipe-Kanals verwendet werden soll. Der vollständige Kanalname wird als openflow.[prefix].[index] konstruiert. Dies ist notwendig, um Snowflake eine Exactly Once-Zustellung zu ermöglichen, da jeder Wiederholungsversuch über denselben Kanal erfolgen muss, der zuvor verwendet wurde.

Snowpipe Channel Prefix

Das Präfix, das für den Namen des Snowpipe-Kanals verwendet werden soll. Der vollständige Kanalname wird als openflow.[prefix].[index] konstruiert. Der Standardwert ist ${hostname(false)}, der sicherstellt, dass jeder NiFi-Knoten im Cluster in einen eindeutigen Kanal schreibt, indem der Hostname der NiFi-Instanz in den Kanalnamen aufgenommen wird.

Tabelle

Snowflake-Tabelle als Ziel für verarbeitete Datensätze

Benutzer

Snowflake-Benutzer für die Authentifizierung von Verbindungen

Beziehungen

Name

Beschreibung

failure

Für FlowFiles, bei denen der Upload auf Snowflake fehlgeschlagen ist

success

Für FlowFiles, die erfolgreich auf Snowflake hochgeladen wurden

Anwendungsfälle

Schreibt datensatzorientierte Daten so schnell wie möglich in eine Snowflake-Tabelle, wobei gelegentliche Duplikate in Kauf genommen werden.