PromptLLM 2025.5.31.15

Bundle

com.snowflake.openflow.runtime | runtime-llm-processors-nar

Description

Ce processeur envoie une invite définie par l’utilisateur à un Large Language Model (LLM) pour qu’il y réponde.

Balises

ai, llm, openflow, prompt, text processing

Exigences en matière d’entrées

REQUIRED

Prend en charge les propriétés dynamiques sensibles

false

Propriétés

Propriété

Description

Message de l’assistant

Le message de l’assistant à envoyer à l’LLM. Les attributs FlowFile peuvent être référencés via Expression Language, et le contenu du FlowFile peut être référencé via la variable flowfile_content. Par exemple, ${flowfile_content}. Le message de l’assistant est ajouté en dernier lieu

Service fournisseur LLM

Le service fournisseur pour l’envoi d’invites d’évaluation à LLM

Output Strategy

Détermine la destination de la sortie de la réponse

Results Attribute

Le nom de l’attribut sur lequel la réponse doit être écrite.

System Message

Le message du système à envoyer à l’LLM. Les attributs FlowFile peuvent être référencés via Expression Language, et le contenu du FlowFile peut être référencé via la variable flowfile_content. Par exemple, ${flowfile_content}. Le message du système est ajouté en premier.

User Message

Le message utilisateur à envoyer à l’LLM. Les attributs FlowFile peuvent être référencés via Expression Language, et le contenu du FlowFile peut être référencé via la variable flowfile_content. Par exemple, ${flowfile_content}.

Relations

Nom

Description

failure

Les FlowFiles qui ne peuvent être traités sont routés vers cette relation

success

Les FlowFiles qui sont traités avec succès sont routés vers cette relation