PutDatabricksSQL 2025.5.31.15

Bundle

com.snowflake.openflow.runtime | runtime-databricks-processors-nar

Beschreibung

Sendet eine SQL-Ausführung mit der Databricks REST-API, und schreiben Sie die JSON-Antwort in den FlowFile-Inhalt. Für leistungsstarke SELECT- oder INSERT-Abfragen verwenden Sie stattdessen ExecuteSQL.

Tags

databricks, openflow, sql

Eingabeanforderung

Unterstützt sensible dynamische Eigenschaften

false

Eigenschaften

Eigenschaft

Beschreibung

Databricks Client

Databricks-Client Service.

Default Catalog

Standard-Tabellenkatalog, einige SQL Anweisungen wie „COPY INTO“ unterstützen die Verwendung eines Standardkatalogs nicht

Default Schema

Standard-Tabellenschema, einige SQL Anweisungen wie „COPY INTO“ unterstützen die Verwendung eines Standardschemas nicht

Record Writer

Gibt den Controller Service an, der für das Schreiben von Ergebnissen in ein FlowFile verwendet werden soll. Der Record Writer kann das „Inherit Schema“ verwenden, um die Verhaltensweise des abgeleiteten Schemas zu emulieren, d. h. ein explizites Schema muss nicht im Writer definiert sein, sondern wird von der gleichen Logik geliefert, die für die Ableitung des Schemas aus den Spaltentypen verwendet wird.

SQL Warehouse ID

Warehouse-ID, die verwendet wird, um SQL auszuführen

SQL Warehouse Name

SQL-Warehouse-Name, der zur Ausführung von SQL verwendet wird, durchsucht alle SQL-Warehouses nach dem passenden Namen.

Statement

Auszuführende SQL-Anweisung

Beziehungen

Name

Beschreibung

failure

Databricks-Beziehung „failure“

http.response

HTTP-Antwort auf SQL API-Anfrage

original

Das Original-FlowFile wird bei erfolgreicher Bearbeitung an diese Beziehung weitergeleitet.

records

Serialisierte SQL-Datensätze

Schreibt Attribute

Name

Beschreibung

statement.state

Der Endzustand der ausgeführten SQL-Anweisung.

error.code

Der Fehlercode für die SQL-Anweisung , wenn ein Fehler aufgetreten ist.

error.message

Die Fehlermeldung für die SQL-Anweisung, wenn ein Fehler aufgetreten ist.