PutDatabricksSQL 2025.5.31.15

Bundle

com.snowflake.openflow.runtime | runtime-databricks-processors-nar

Description

Soumet une exécution SQL à l’aide de Databricks REST API puis écrit la réponse JSON dans le contenu du FlowFile. Pour des requêtes très performantes sur SELECT ou INSERT, utilisez plutôt ExecuteSQL.

Balises

databricks, openflow, sql

Exigences en matière d’entrées

Prend en charge les propriétés dynamiques sensibles

false

Propriétés

Propriété

Description

Databricks Client

Service client Databricks.

Default Catalog

Catalogue de table par défaut, certaines instructions SQL telles que “COPY INTO” ne permettent pas l’utilisation d’un catalogue par défaut

Default Schema

Schéma de table par défaut, certaines instructions SQL telles que “COPY INTO” ne prennent pas en charge l’utilisation d’un schéma par défaut

Record Writer

Spécifie le Controller Service à utiliser pour écrire les résultats dans un FlowFile. Le Record Writer peut utiliser Inherit Schema pour émuler le comportement du schéma déduit, c’est-à-dire qu’un schéma explicite n’a pas besoin d’être défini dans le rédacteur, et sera fourni par la même logique que celle utilisée pour déduire le schéma à partir des types de colonnes.

SQL Warehouse ID

L’entrepôt ID utilisé pour l’exécution SQL

SQL Warehouse Name

Nom de l’entrepôt SQL utilisé pour exécuter SQL, recherchera dans tous les entrepôts SQL pour trouver le nom correspondant.

Statement

Instruction SQL à exécuter

Relations

Nom

Description

failure

Relation d’échec Databricks

http.response

Réponse HTTP à la requête SQL API

original

Le FlowFile original est routé vers cette relation lorsque le traitement est réussi.

records

Enregistrements en série SQL

Écrit les attributs

Nom

Description

statement.state

L’état final de l’instruction SQL exécutée

error.code

Code d’erreur de l’instruction SQL en cas d’erreur.

error.message

Message d’erreur de l’instruction SQL en cas d’erreur.