全プロセッサー (アルファベット順)¶
このトピックでは、すべての Snowflake openflow プロセッサーのリストをアルファベット順に示します。リストには次が含まれます。
各プロセッサー名
各プロセッサーの概要
A¶
プロセッサー  | 
説明  | 
|
|---|---|---|
Snowflake  | 
一括 API 2 を使用してSalesforce でクエリジョブを中断  | 
|
入力 FlowFile 属性の CSV 表現を生成します。  | 
||
入力 FlowFile 属性の JSON 表現を生成します。  | 
C¶
プロセッサー  | 
説明  | 
|
|---|---|---|
記録セット内の記録数をカウントし、オプションでカテゴリごとに要素数をカウントします(カテゴリはユーザー定義のプロパティで定義されます)。  | 
||
Snowflake  | 
MySQL データベースから CDC イベントを読み込みます。  | 
|
Snowflake  | 
PostgreSQL データベースから CDC イベントを読み込みます。  | 
|
Snowflake  | 
SQL Server データベースから CDC イベントを読み込みます。  | 
|
Snowflake  | 
共有Googleドライブへの変更をキャプチャし、変更が発生するたびに FlowFile を返します。  | 
|
Snowflake  | 
Microsoft365 グループの変更をキャプチャし、変更が発生するたびに FlowFile を発行します。  | 
|
Snowflake  | 
Sharepoint ドキュメントライブラリから変更をキャプチャし、変更が発生するたびに FlowFile を発行します。  | 
|
Snowflake  | 
メタ広告レポートがダウンロード可能かどうかを確認するプロセッサー。  | 
|
Snowflake  | 
区切り文字や最大文字数で再帰的に分割するオプションを使用して、テキストをチャンクします。  | 
|
Snowflake  | 
区切り文字や最大文字数で再帰的に分割するオプションを使用して、テキストをチャンクします。  | 
|
ユーザー指定の圧縮アルゴリズムを使って FlowFiles のコンテンツを圧縮または伸長し、mime を更新します。  | 
||
リモートの WebSocket サーバーと対話するための WebSocket クライアントエンドポイントとして動作します。  | 
||
AMQP 0 を使って AMQP Broker から AMQP メッセージを消費します。  | 
||
Microsoft Azure Event Hubからのメッセージをチェックポイントで受信し、一貫したイベント処理を保証します。  | 
||
Box admin_logs_streaming Stream Typeからエンタープライズイベントを消費します。  | 
||
Boxのすべてのイベントを消費します。  | 
||
Rangeクエリを使用してフィールドに対してページ分割クエリを繰り返し実行し、Elasticsearchインデックス/クエリから新しいドキュメントを消費するプロセッサーです。  | 
||
構成された Google Cloud PubSub サブスクリプションからメッセージを消費します。  | 
||
IMAP プロトコルを使用して電子メールサーバーからメッセージを消費します。  | 
||
BytesMessage, TextMessage, ObjectMessage, MapMessage または StreamMessage のタイプの JMS メッセージを消費し、その内容を FlowFile に変換し、'success' 関係に移行します。  | 
||
Apache Kafka Consumer API からメッセージを消費します。  | 
||
Snowflake  | 
Apache Kafka Consumer API からメッセージを消費します。  | 
|
指定された AWS Kinesis ストリームからデータを読み取り、処理された記録 (raw) ごとに FlowFile を出力するか、Record ReaderとRecord Writerが構成されている場合は、処理された記録のバッチに FlowFile を出力します。  | 
||
トピックにサブスクライブし、 MQTT ブローカーからメッセージを受信します。  | 
||
POP3 プロトコルを使用して電子メールサーバーからメッセージを消費します。  | 
||
1つ以上の構成されたSlackチャンネルからメッセージを取得します。  | 
||
Snowflake  | 
本アプリで可用性のあるSlackの会話からメッセージを取得します。  | 
|
Snowflake  | 
本アプリで利用可能なすべてのSlackチャンネルから過去のメッセージを取得します。  | 
|
Snowflake  | 
Snowflake ストリームからデータを取得し、 FlowFile に書き込みます。  | 
|
API v2からのツイートのストリームのTwitterのストリーミング。  | 
||
後続プロセッサーへのデータ転送速度を制御。  | 
||
FlowFile の内容を、ある文字セットから別の文字セットに変換します。  | 
||
構成されたRecord ReaderおよびRecord Write Controller Servicesを使用して、あるデータ形式から別のデータ形式に記録を変換します。  | 
||
Snowflake  | 
入力されたデータベーススキーマをSnowflake CDC Journalテーブルの適切なスキーマに変換します。  | 
|
Azure Blobストレージ内のブロブを、あるアカウント/コンテナーから別のアカウント/コンテナーにコピーします。  | 
||
AWS S3 のあるバケットとキーから別のバケットにファイルをコピーします。  | 
||
受信テキストのさまざまなメトリクスをカウントします。  | 
||
Snowflake  | 
Amazon Adsコネクターのレポート構成を作成するプロセッサーです。  | 
|
Snowflake  | 
Azure OpenAI を使用してテキストの埋め込みを作成します。  | 
|
flowFileコンテンツの値で指定されたテンプレートを使用して、Boxファイルのメタデータインスタンスを作成します。  | 
||
flowFileの内容からフィールド指定を使用してBoxメタデータテンプレートを作成します。  | 
||
Snowflake  | 
Cohere を使用してテキストの埋め込みを作成します。  | 
|
Snowflake  | 
Meta Adsコネクターのレポート構成を作成するプロセッサー。  | 
|
Snowflake  | 
OpenAI を使ってテキストの埋め込みを作成します。  | 
|
Snowflake  | 
Snowflake Cortex Large Language Model関数を使用したベクトル埋め込み作成  | 
|
Snowflake  | 
VertexAI を使ってテキストの埋め込みを作成します。  | 
|
与えられたアルゴリズムを使用してフローファイルのコンテンツの暗号化ハッシュ値を計算し、出力属性に書き込みます。  | 
D¶
プロセッサー  | 
説明  | 
|
|---|---|---|
DebugFlow プロセッサーは、タイマーまたはcronベースのスケジュールを使用している場合、 FlowFile またはタイマーイベントの受信に応答して、 FlowFile なしでさまざまなレスポンスを明示的にトリガーできるようにすることで、 FlowFile フレームワークのテストとデバッグを支援します。  | 
||
年齢暗号化を使ってコンテンツを復号化します。  | 
||
OpenPGP メッセージの内容を復号化します。  | 
||
このプロセッサーは、記録セット内の個々の記録を重複除去します。  | 
||
Azure Blob Storage から指定した blob を削除します。  | 
||
Azure Data Lake Storageからプロバイダーファイルを削除します。  | 
||
指定したテンプレートキーを使用して、Box ファイルからメタデータインスタンスを削除します。  | 
||
クエリを使用して Elasticsearch インデックスから削除します。  | 
||
Snowflake  | 
DBFS ファイルとディレクトリを削除します。  | 
|
ハッシュと範囲キーに基づいて DynamoDB からドキュメントを削除します。  | 
||
ファイルシステムからファイルを削除します。  | 
||
Google Cloud バケットからオブジェクトを削除します。  | 
||
ファイル名またはクエリを使用して、 GridFS からファイルを削除します。  | 
||
Snowflake  | 
コレクションから Milvus データベースから ID によってベクターを削除します。  | 
|
MongoDB コレクションに対して削除クエリを実行します。  | 
||
Snowflake  | 
Pinecone インデックスからベクトルを削除します。  | 
|
Snowflake  | 
Salesforce で一括 API 2 を使用してクエリジョブを削除します。  | 
|
Amazon S3バケットからファイルを削除します。  | 
||
SFTP サーバー上のファイルを削除します。  | 
||
Amazon Simple Queuing Service Queueからメッセージを削除します。  | 
||
Snowflake  | 
Unityカタログのファイルまたはディレクトリを削除します。  | 
|
Snowflake  | 
Salesforce Data Cloud の指定されたデータ共有メタデータを記述します。  | 
|
Snowflake  | 
指定したオブジェクトのメタデータを Salesforce に記述します。  | 
|
各入力 FlowFile に対して、 FlowFile 属性から計算された値をキャッシュし、キャッシュされた値が既に参照されているかどうかを判断します。  | 
||
ディストリビューション戦略に基づいて、 FlowFiles を下流のプロセッサーに分配します。  | 
||
ロード テスト用として、このプロセッサーは、 FlowFile の各入力に対して、構成された数のコピーを作成します。  | 
E¶
プロセッサー  | 
説明  | 
|
|---|---|---|
Base64、Base32、または16進エンコード方式を使用して、 FlowFile の内容をエンコードまたはデコードします。  | 
||
年齢暗号化を使ってコンテンツを暗号化します。  | 
||
OpenPGP を使ってコンテンツを暗号化します。  | 
||
1つのノード内で同じデータグループに属する FlowFiles の順序を強制します。  | 
||
Snowflake  | 
構成された検索サービスを使用して値を検索し、その結果を 1 つ以上の属性として FlowFile に追加します。  | 
|
Snowflake  | 
CaptureChangePostgreSQL などから入ってくる FlowFiles を豊かにします。  | 
|
FlowFile の内容に対して、1 つ以上の JsonPath 式を評価します。  | 
||
Snowflake  | 
F1スコア、コサイン類似度、解答の正しさなどのメトリクスを計算することで、Retrieval-Augmented Generation (RAG) コンテキストで生成された解答の正しさを評価します。  | 
|
Snowflake  | 
LLM (e.を使って回答を分析することにより、Retrieval-Augmented Generation (RAG) システムで生成された回答の忠実度を評価します。  | 
|
Snowflake  | 
LLM を判定対象として、 RAG システムの検索メトリクス (Precision@N, Recall@N, FScore@N, MAP@N, MRR) を計算します。  | 
|
FlowFile の内容に対して、1つ以上の XPaths を評価します。  | 
||
FlowFile の内容に対して、1つ以上の XQueries を評価します。  | 
||
実験的な拡張 Groovy スクリプトプロセッサー。  | 
||
ユーザーによって指定されたオペレーティング・システム・コマンドを実行し、そのコマンドの出力を FlowFile に書き込みます。  | 
||
実験 - フローファイルとプロセスセッションを指定してスクリプトを実行します。  | 
||
プロバイダーの SQL select クエリを実行します。  | 
||
プロバイダーの SQL select クエリを実行します。  | 
||
Snowflake  | 
データベースに対して SQL DDL または DML ステートメントを実行します。  | 
|
ExecuteStreamCommand プロセッサーは、外部コマンドやスクリプトを NiFi データフローに統合する柔軟な方法を提供します。  | 
||
Avro データファイルのヘッダーからメタデータを抽出します。  | 
||
mime形式の電子メールファイルから添付ファイルを抽出し、個々のフローファイルに分割します。  | 
||
フローファイルの内容をデータソースとして、 RFC 準拠の電子メールファイルからヘッダーを抽出し、関連する属性をフローファイルに追加します。  | 
||
1つ以上の Grok 式を FlowFile の内容に対して評価し、結果を属性として追加するか、 FlowFile の内容を、マッチした内容の JSON 表記で置き換えます。  | 
||
付属のRecord Readerを使って FlowFile から記録スキーマを抽出し、 'avro に書き込みます。  | 
||
Snowflake  | 
付属の Record Reader を使用して FlowFile から記録スキーマ列を抽出し、 'schema に書き込みます。  | 
|
Box AI を使用して Box ファイルからメタデータを抽出します。  | 
||
FlowFile の内容に対して、1つ以上の正規表現を評価します。  | 
F¶
プロセッサー  | 
説明  | 
|
|---|---|---|
Azure Blob Storage から指定された blob を取得し、そのコンテンツを FlowFile のコンテンツに書き込みます。  | 
||
Azure Data Lake Storageから指定したファイルを取得します。  | 
||
ボックスフォルダからファイルを取得します。  | 
||
Box からファイルのメタデータを取得し、 FlowFile の属性に追加します。  | 
||
テンプレートキーとスコープを使用して、Box ファイルに関連付けられた特定のメタデータインスタンスを取得します。  | 
||
表現ヒント を使用して Box ファイル表現を取得し、 FlowFile コンテンツに書き込みます。  | 
||
着信 FlowFile ごとに、 FlowFile 属性からキャッシュキーを計算し、各キーに関連する分散マップキャッシュから値をフェッチします。  | 
||
Dropboxからファイルを取得します。  | 
||
ディスクからファイルの内容を読み取り、受信する FlowFile の内容にストリームします。  | 
||
リモートの FTP サーバーからファイルのコンテンツを取得し、受信 FlowFile のコンテンツ をリモートファイルのコンテンツで上書きします。  | 
||
Google Cloudバケットからファイルを取得します。  | 
||
Googleドライブフォルダからファイルを取得します。  | 
||
Snowflake  | 
Googleドライブファイルのコメントとその返信を取得します。  | 
|
Snowflake  | 
Google Driveファイルのメタデータを取得します。  | 
|
GridFS のバケットから、ファイル名またはユーザー定義のクエリによって、1 つ以上のファイルを取得します。  | 
||
Snowflake  | 
REST API v3 を使用し、構成可能な検索オプションで Jira Cloud から課題を取得します。  | 
|
Snowflake  | 
Microsoft Dataverseテーブルからの記録取得  | 
|
S3オブジェクトのコンテンツを取得し、それを FlowFile のコンテンツに書き込みます。  | 
||
リモートの SFTP サーバーからファイルのコンテンツを取得し、受信 FlowFile のコンテンツ をリモートファイルのコンテンツで上書きします。  | 
||
Snowflake  | 
Sharepointドライブからファイルのコンテンツを取得し、アプリケーションによっては、 PDF または HTML バージョンのファイルをダウンロードします。  | 
|
Snowflake  | 
各ドライブ・アイテムのメタデータとアクセス権を取得し、 FlowFile 属性として書き込みます。  | 
|
Snowflake  | 
Slackの会話情報とメンバーの電子メールを取得  | 
|
Snowflake  | 
Slackで共有されているファイルをダウンロードします。  | 
|
Snowflake  | 
単一のSlackメッセージに関するデータを取得します。  | 
|
SMB 共有からファイルを取得します。  | 
||
Snowflake  | 
テーブルからプロパティを読み取り、フローファイルの属性として保存します。  | 
|
Snowflake  | 
テーブルスキーマを取得します。 (i.  | 
|
Snowflake  | 
データベースからテーブルのスナップショットを取得します。  | 
|
FlowFile の属性を、指定した属性を残して残りを削除する、または指定した属性を削除して残りを残すことによってフィルターします。  | 
||
Snowflake  | 
ドライブ ID とアイテムパスから Sharepoint ドライブアイテムを検索します。  | 
|
ネストされた JSON ドキュメントを、シンプルなキー/値ペアのドキュメントにフラット化する機能をユーザーに提供します。  | 
||
JoinEnrichment プロセッサーとともに使用されるこのプロセッサーは、 JoinEnrichment プロセッサーがその関数を実行するために必要な属性を追加する役割を果たします。  | 
||
このプロセッサーでは、ユーザーが記録を複数の記録に分割することができます。  | 
G¶
プロセッサー  | 
説明  | 
|
|---|---|---|
Snowflake  | 
大容量言語モデル (LLM) を使用して、受信記録に存在する各質問に対する合成回答を生成します。  | 
|
Snowflake  | 
LLM を使用して、入力された記録の各質問に対する合成回答を生成します。  | 
|
このプロセッサーは、ランダムデータまたはカスタムコンテンツで FlowFiles を生成します。  | 
||
Snowflake  | 
構成可能な JSON スキーマに基づいて、ランダムなフィールド値を持つ JSON オブジェクトをバッチ生成します。  | 
|
このプロセッサーは、指定されたフィールドにランダムな値を持つ記録で FlowFiles を作成します。  | 
||
テーブルから行の「ページ」をフェッチする SQL セレクトクエリを生成します。  | 
||
IP アドレスのジオロケーション情報を検索し、ジオ情報を FlowFile 属性に追加します。  | 
||
IP アドレスのジオロケーション情報を検索し、ジオ情報を FlowFile 属性に追加します。  | 
||
Snowflake  | 
準備ができた場合、Amazon Adsからレポートをダウンロードするプロセッサー。  | 
|
AWS Polly ジョブの現在のステータスを取得します。  | 
||
AWS Textract ジョブの現在のステータスを取得します。  | 
||
AWS Transcribe ジョブの現在のステータスを取得します。  | 
||
AWS Translate ジョブの現在のステータスを取得します。  | 
||
信頼性の高いチェックポイント追跡なしでMicrosoft Azureイベントハブからのメッセージを受信します。  | 
||
Azure キューストレージからメッセージを取得します。  | 
||
Box ファイルのすべての共同作業者を取得し、その共同作業情報を FlowFile の属性に追加します。  | 
||
ボックスグループのメンバーを取得し、その詳細を FlowFile 属性に書き込みます。  | 
||
Snowflake  | 
Salesforce Data Cloud の指定されたデータ共有メタデータを記述します。  | 
|
Snowflake  | 
Salesforce Data Cloud の指定されたデータ共有メタデータを記述します。  | 
|
Snowflake  | 
DBFS ファイルを読み込みます。  | 
|
ハッシュと範囲キーに基づいて DynamoDB からドキュメントを取得します。  | 
||
Elasticsearch get processor は、公式の Elastic REST クライアントライブラリを使用し、Elasticsearch から _id によって単一のドキュメントを取得します。  | 
||
ディレクトリ内のファイルから FlowFiles を作成します。  | 
||
このプロセッサーは、構成されたファイルリソースの内容で FlowFiles を作成します。  | 
||
FTP サーバーからファイルを取得し、そこから FlowFiles を作成します。  | 
||
Google Vision操作の現在のステータスを取得します。  | 
||
Google Vision操作の現在のステータスを取得します。  | 
||
Snowflake  | 
Google Ads Reporting API と相互作用できるプロセッサーです。  | 
|
Snowflake  | 
ひとつあるいは複数の Google グループのメンバーを取得します。 FlowFile 属性で指定したグループ IDs のリストをカンマ区切りで返します。  | 
|
Snowflake  | 
Google Sheetsからデータを取得するプロセッサーです。  | 
|
HubSpot プライベートアプリケーションから JSON データを取得します。  | 
||
Snowflake  | 
ID または一意な値によって、 HubSpot オブジェクトとその関連付けを取得します。  | 
|
Snowflake  | 
LinkedIn Reporting APIs からメトリクスをダウンロードするプロセッサー。  | 
|
Snowflake  | 
Microsoft365 グループのメンバーを取得し、変更が発生するたびに FlowFile を発行します。  | 
|
ユーザー指定のクエリによって読み込まれた MongoDB のドキュメントから FlowFiles を作成します。  | 
||
MongoDB 結果セットを書き込むために Record ライターを使用する GetMongo の記録ベースのバージョン。  | 
||
Snowflake  | 
Bulk API 2 を使用して Salesforce のクエリジョブの結果を取得します。  | 
|
Snowflake  | 
Bulk API 2 を使用して Salesforce のクエリジョブのステータスを取得します。  | 
|
S3にオブジェクトが存在するかどうかをチェックし、ダウンロードを試みずにそのメタデータを取得します。  | 
||
S3にオブジェクトが存在するかチェックし、ダウンロードを試みずにそのタグを取得します。  | 
||
SFTP サーバーからファイルを取得し、そこから FlowFiles を作成します。  | 
||
Snowflake  | 
SharePoint サイトグループの全メンバーを取得します。  | 
|
カスタムShopifyストアからオブジェクトを取得します。  | 
||
samba ネットワークロケーションから FlowFiles にファイルを読み込みます。  | 
||
Splunk Enterprise からデータを取得します。  | 
||
Amazon Simple Queuing Serviceのキューからメッセージを取得  | 
||
Snowflake  | 
最大5 GiB までのUnityカタログファイルを読み込みます。  | 
|
Snowflake  | 
Unityカタログファイルのメタデータをチェックします。  | 
|
構成可能な Workday レポートと対話できるプロセッサー。  | 
||
Zendesk API からデータをインクリメンタルに取得します。  | 
H¶
プロセッサー  | 
説明  | 
|
|---|---|---|
HTTP サーバーを起動し、 HTTP リクエストをリッスンします。  | 
||
FlowFile を生成したリクエスト元に HTTP レスポンスを送信します。  | 
I¶
プロセッサー  | 
説明  | 
|
|---|---|---|
FlowFile に使用されている MIME タイプの識別を試みます。  | 
||
構成可能な HTTP エンドポイントと対話できる HTTP クライアントプロセッサー。  | 
||
Experimental - 指定したスクリプトで定義された Processor のスクリプト・エンジンを起動します。  | 
||
IP アドレスの ISP 情報を検索し、その情報を FlowFile 属性に追加します。  | 
J¶
プロセッサー  | 
説明  | 
|
|---|---|---|
2つの異なる FlowFiles の記録を結合します。1つ目の FlowFile 「オリジナル」には任意の記録が含まれ、2つ目の FlowFile 「エンリッチメント」には、1つ目のデータをエンリッチするために使用されるべき追加データが含まれます。  | 
||
Jolt仕様のリストを、 FlowFile JSON コンテンツか、指定された FlowFile JSON 属性のどちらかに適用します。  | 
||
FlowFile ペイロードの各記録に JOLT 仕様を適用します。  | 
||
FlowFile JSON ペイロードに JSLT 変換を適用します。  | 
||
Elasticsearch JSON DSL で記述されたクエリ(集約を含む)をユーザーに実行させるプロセッサーです。  | 
L¶
プロセッサー  | 
説明  | 
|
|---|---|---|
Snowflake  | 
選択したオブジェクトタイプの HubSpot からアーカイブされたデータをリストし、対応するメタデータを FlowFile 属性として、リストされたオブジェクトごとに FlowFile を 1 つ生成します。  | 
|
Azure Blobストレージコンテナー内のブロブをリストします。  | 
||
Azure Data Lake Storage Gen 2 ファイルシステム内のディレクトリをリストします。  | 
||
Box フォルダ内のファイルをリストします。  | 
||
ボックスフォルダ内の各ファイルのメタデータを取得します。  | 
||
Box ファイルに関連付けられているすべてのメタデータ インスタンスを取得します。  | 
||
Box ファイルに関連付けられたすべてのメタデータテンプレートを取得します。  | 
||
データベース接続からテーブルに関するメタデータに対応する属性を含むフローファイルのセットを生成します。  | 
||
Snowflake  | 
DBFS ディレクトリのファイル名をリストアップし、そのファイル名で新しい FlowFile を出力します。  | 
|
Dropboxからファイルのリストを取得します(ショートカットは無視されます)。  | 
||
指定したポートをリッスンし、受信ファイルを FlowFiles に変換する FTP サーバーを起動します。  | 
||
HTTP サーバーを起動し、指定されたベースパスでリッスンして、入ってくるリクエストを FlowFiles に変換します。  | 
||
HTTP または gRPC で OpenTelemetry メッセージを収集します。  | 
||
1つまたは複数のSlackの会話からリアルタイムのメッセージまたはSlackコマンドを取得します。  | 
||
TCP または UDP を介して、指定されたポートに送信される Syslog メッセージをリッスンします。  | 
||
着信する TCP 接続をリッスンし、メッセージの区切り文字としてラインセパレータを使用して、各接続からデータを読み込みます。  | 
||
リスト指定されたポートのデータグラム・パケットをリッスンします。  | 
||
指定されたポートのデータグラム・パケットをリッスンし、構成されたRecord Readerを使って各データグラムのコンテンツを読み取ります。  | 
||
WebSocket サーバーのエンドポイントとしてクライアント接続を受け付けます。  | 
||
入力ディレクトリからファイルのリストを取得します。  | 
||
FTP サーバーに存在するファイルのリストをパフォーマンスします。  | 
||
GCS バケットからオブジェクトのリストを取得します。  | 
||
Google Driveフォルダ内の具体的なファイル (ショートカットは無視されます) のリストをパフォーマンスします。  | 
||
Snowflake  | 
指定したGoogleドライブ内のすべてのファイルとフォルダをリスト表示します。  | 
|
Snowflake  | 
Google Workspace の指定したドメインのすべてのグループをリストします。  | 
|
Snowflake  | 
HubSpot から指定されたオブジェクトタイプのデータを取得し、対応するメタデータを FlowFile 属性として、リストされたオブジェクトごとに FlowFile を 1 つ生成します。  | 
|
Snowflake  | 
Microsoft Dataverse環境からのリストテーブル  | 
|
S3バケットからオブジェクトのリストを取得します。  | 
||
Snowflake  | 
識別子ユーザーが利用可能な組織内の利用可能データ共有をリストします。  | 
|
Snowflake  | 
識別子ユーザーが利用可能な組織内の利用可能オブジェクトをリストします。  | 
|
SFTP サーバーに存在するファイルのリストをパフォーマンスします。  | 
||
Snowflake  | 
指定した Sharepoint Site 内に存在する各ドライブに対して FlowFile を発行します。  | 
|
Snowflake  | 
指定された SharePoint サイトで利用可能なすべての SharePoint サイトグループをリストします。  | 
|
SMB プロトコルで共有される具体的なファイルをリストします。  | 
||
Snowflake  | 
すべてのソース・テーブル名を取得し、可能な構成の 1 つと一致させます。:- regexp 式 e.  | 
|
Snowflake  | 
Unityカタログのディレクトリにあるファイル名をリストアップし、そのファイル名の新しい FlowFile を出力します。  | 
|
FlowFile の属性を指定されたログレベルで出力します。  | 
||
指定されたログレベルでログメッセージを出力します。  | 
||
ルックアップ・サービスからの属性検索  | 
||
記録から 1 つまたは複数のフィールドを抽出し、それらのフィールドの値を LookupService で検索します。  | 
M¶
プロセッサー  | 
説明  | 
|
|---|---|---|
ユーザー定義の戦略に基づいて、 FlowFiles のグループをマージし、それらを単一の FlowFile にパッケージ化します。  | 
||
このプロセッサーは、複数の記録指向の FlowFiles を、入力 FlowFiles のすべての記録を含む単一の FlowFile にマージします。  | 
||
Snowflake  | 
Snowflakeのジャーナルテーブルから宛先テーブルへの変更に対するマージ演算子をトリガーします。  | 
|
バイナリファイルの先頭と末尾のバイト範囲、またはすべてのコンテンツを破棄します。  | 
||
ユーザー指定の圧縮アルゴリズムを使って FlowFiles のコンテンツを解凍し、指定の圧縮形式プロパティを使ってコンテンツを再圧縮することで、 FlowFile のコンテンツの圧縮に使われる圧縮アルゴリズムを変更します。  | 
||
フローのアクティビティを監視し、指定された時間フローにデータがない場合にインジケーターを送信し、フローのアクティビティが回復した場合に再度インジケーターを送信します。  | 
||
Azure Data Lake Storage Gen 2内のコンテンツを移動します。  | 
N¶
プロセッサー  | 
説明  | 
|
|---|---|---|
リリースシグナルの識別子を、 FlowFile の属性とともに分散キャッシュにキャッシュします。  | 
O¶
プロセッサー  | 
説明  | 
|
|---|---|---|
Snowflake  | 
音声を英語のテキストに書き起こします。  | 
P¶
プロセッサー  | 
説明  | 
|
|---|---|---|
このプロセッサーは、 FlowFile の属性とコンテンツを、 NiFi からエクスポートして NiFi にインポートできる出力 FlowFile にパッケージ化し、元の属性とコンテンツを保持します。  | 
||
Elasticsearch JSON DSL で記述されたページ分割クエリ(アグリゲーションを含む)をユーザーが実行できるプロセッサーです。  | 
||
Windowsイベント・ログ・ファイル(evtx)のコンテンツを解析し、 FlowFile に結果の XML を書き込みます。  | 
||
Snowflake  | 
Excelのセルリファレンス式を解析するプロセッサー。  | 
|
Syslogメッセージのコンテンツを RFC5424 と RFC3164 の形式に従って解析し、Syslogメッセージの各部分の FlowFile に属性を追加しようとします。  | 
||
RFC5424 形式に従って、適切に形成されたSyslogメッセージのコンテンツの解析を試み、構造化データを含むSyslogメッセージの各部分の FlowFile に属性を追加しようとします。  | 
||
データ内の構成フィールドに基づいて、記録指向のデータを分割します。  | 
||
Snowflake  | 
Snowflake Cortex ML 関数を使用して、 PDF ドキュメントで光学式文字認識 (OCR) を実行します。  | 
|
Snowflake  | 
完全修飾テーブル名のリストを受け入れ、テーブルが - 新しい (複製されていないが、ソースに追加された) - 存在する (複製されており、ソースに存在する) - 古い (複製されているが、ソースに存在しなくなった) かどうかを判断します。構成は FlowFile 属性として渡されます。  | 
|
Snowflake  | 
Anthropicにプロンプトを送信し、レスポンスを FlowFile 属性として、または受信した FlowFile のコンテンツに書き込みます。  | 
|
Snowflake  | 
Azureの OpenAI サービスにプロンプトを送信し、レスポンスを FlowFile 属性として、または着信 FlowFile のコンテンツに書き込みます。  | 
|
Snowflake  | 
このプロセッサは、ユーザー定義のプロンプトを大容量言語モデル (LLM) に送信して応答させます。  | 
|
Snowflake  | 
プロンプトを OpenAI に送信し、その応答を FlowFile 属性として、または着信 FlowFile のコンテンツに書き込みます。  | 
|
Snowflake  | 
Snowflake Cortexにプロンプトを送信し、レスポンスを FlowFile 属性として、または受信 FlowFile のコンテンツに書き込みます。  | 
|
Snowflake  | 
プロンプトを VertexAI に送信し、その応答を FlowFile 属性として、または着信 FlowFile のコンテンツに書き込みます。  | 
|
FlowFile のコンテンツから AMQP メッセージを作成し、そのメッセージを AMQP Exchange に送信します。  | 
||
構成された Google Cloud PubSub トピックに受信フローファイルのコンテンツを公開します。  | 
||
FlowFile のコンテンツから JMS メッセージを作成し、 JMS 宛先 (キューまたはトピック) に JMS BytesMessage または TextMessage として送信します。  | 
||
Kafka Producer API を使用して、 FlowFile のコンテンツをメッセージまたは個々の記録として Apache Kafka に送信します。  | 
||
Snowflake  | 
Kafka Producer API を使用して、 FlowFile のコンテンツをメッセージまたは個々の記録として Apache Kafka に送信します。  | 
|
MQTT トピックにメッセージを公開します。  | 
||
指定したSlackチャンネルにメッセージを投稿します。  | 
||
Azure Blob Storage上のBlobにコンテンツを格納します。  | 
||
このプロセッサーは、Core SQL API でCosmos DB にデータを挿入するための記録認識プロセッサーです。  | 
||
Azure Data Explorer のシンクとして動作し、提供されたエンドポイントに FlowFiles を送信します。  | 
||
FlowFile のコンテンツを Azure Data Lake Storage Gen 2 上のファイルとして書き込みます。  | 
||
FlowFile のコンテンツを Azure イベントハブに送信します。  | 
||
構成された Azure キューストレージに、受信 FlowFiles のコンテンツを書き込みます。  | 
||
FlowFile のコンテンツを Google BigQuery のテーブルに書き込みます。  | 
||
コンテンツを Box フォルダに配置します。  | 
||
Amazon CloudWatch にメトリクスを公開します。  | 
||
PutDatabaseRecord プロセッサーは、指定された RecordReader を使用して、入力されるフローファイルから(場合によっては複数の)記録を入力します。  | 
||
Snowflake  | 
Databricks REST API を使用して SQL を実行し、 JSON レスポンスを FlowFile Content に書き込みます。  | 
|
Snowflake  | 
FlowFile のコンテンツを DBFS に書き込みます。  | 
|
FlowFile 属性から計算されたキャッシュキーを使用して、 FlowFile のコンテンツを取得し、分散マップキャッシュに置きます。  | 
||
コンテンツを Dropbox フォルダに保存します。  | 
||
ハッシュと範囲キーに基づいて DynamoDB からドキュメントを配置します。  | 
||
記録指向のデータに基づいて、 DynamoDB に項目を挿入します。  | 
||
Elasticsearch put プロセッサー は、公式の Elastic REST クライアントライブラリを使用します。  | 
||
公式の Elastic REST クライアントライブラリを使用する、記録を意識した Elasticsearch put プロセッサー です。  | 
||
設定された受信者に、着信 FlowFile ごとに電子メールを送信します。  | 
||
FlowFile のコンテンツをローカルファイルシステムに書き込みます。  | 
||
FTP サーバーに FlowFiles を送信します。  | 
||
FlowFile のコンテンツを Google Cloud Storage のオブジェクトとして書き込みます。  | 
||
FlowFile のコンテンツを Google Drive にファイルとして書き込みます。  | 
||
GridFS バケットにファイルを書き込みます。  | 
||
Snowflake  | 
HubSpot オブジェクトをアップサートします。  | 
|
Snowflake  | 
名前空間とテーブルを管理するために構成可能なカタログを使用して、Icebergに記録を保存します。  | 
|
指定したAmazon Kinesis Firehoseにコンテンツを送信します。  | 
||
指定したAmazon Kinesisにコンテンツを送信します。  | 
||
指定したAmazon Lambda Functionにコンテンツを送信します。  | 
||
FlowFile のコンテンツを MongoDB に書き込みます。  | 
||
FlowFile のコンテンツを MongoDB に一括更新として書き込みます。  | 
||
このプロセッサーは、 MongoDB にデータを挿入/アップサートするための記録認識プロセッサーです。  | 
||
PutRecord プロセッサーは、指定された RecordReader を使用して、受信フローファイルから(おそらく複数の)記録を入力し、Record Destination Service(すなわち、レコード宛先サービス)によって指定された宛先に送信します。  | 
||
指定されたハッシュ値を使用してレコードフィールドデータをRedisに格納します。このハッシュ値は、ハッシュ値を含む各レコードのフィールドへの RecordPath によって決められます。  | 
||
FlowFile のコンテンツを S3 オブジェクトとして Amazon S3 バケットに書き込みます。  | 
||
指定した Salesforce sObject の新しい記録を作成します。  | 
||
SFTP サーバーに FlowFiles を送信します。  | 
||
FlowFile のコンテンツをsambaネットワークの場所に書き込みます。  | 
||
Snowflake  | 
Snowflake内部ステージにファイルを配置します。  | 
|
Snowflake  | 
記録をSnowflakeテーブルにストリームします。  | 
|
FlowFile のコンテンツを Amazon Simple Notification Service に通知として送信します。  | 
||
TCP, TCP + TLS/SSL, または UDP 経由でログを Splunk Enterprise に送信します。  | 
||
HTTP または HTTPS 経由で、指定した Splunk サーバーにフローファイルのコンテンツを送信します。  | 
||
SQL UPDATE または INSERT コマンドを実行します。  | 
||
Amazon Simple Queuing Serviceのキューにメッセージを発行します。  | 
||
TCP または UDP 経由で、指定したホストとポートに Syslog メッセージを送信します。  | 
||
シリアライズされた FlowFiles または記録を TCP 経由で、 TLS の任意のサポートの構成可能な宛先に送信します。  | 
||
PutUDP プロセッサーは、 FlowFile を受信し、 FlowFile コンテンツを単一の UDP データグラムパケットにパッケージ化し、構成された UDP サーバーに送信します。  | 
||
Snowflake  | 
最大5 GiB の FlowFile コンテンツをUnityカタログに書き込みます。  | 
|
Snowflake  | 
JSON ドキュメントを作成し、Vectara のアップロードエンドポイントにアップロードします。  | 
|
Snowflake  | 
Vectaraのインデックスエンドポイントに FlowFile コンテンツをアップロードします。  | 
|
ListenWebSocket または ConnectWebSocket によって確立された WebSocket セッションを使用して、 WebSocket リモートエンドポイントにメッセージを送信します。  | 
||
Zendesk API を使用して Zendesk チケットを作成します。  | 
Q¶
プロセッサー  | 
説明  | 
|
|---|---|---|
Azure Data Explorerにクエリを実行し、 JSON の結果を FlowFiles 出力にストリームします。  | 
||
SQL select クエリを生成するか、提供されたステートメントを使用し、それを実行して、指定された Maximum Value 列の値が以前に見た最大値よりも大きいすべての行を取得します。  | 
||
SQL select クエリを生成するか、提供されたステートメントを使用し、それを実行して、指定された Maximum Value 列の値が以前に見た最大値よりも大きいすべての行を取得します。  | 
||
Snowflake  | 
ベクトルを使用して、Milvus データベースの指定されたコレクションをクエリします。  | 
|
Snowflake  | 
入力ベクトルと似ているベクトルを Pinecone にクエリするか、 ID によってベクトルを取得します。  | 
|
FlowFile のコンテンツに対して、1 つ以上の SQL クエリを評価します。  | 
||
Salesforce sObject から記録を取得します。  | 
||
インデックス確認のステータスを取得するために Splunk サーバーにクエリを発行します。  | 
R¶
プロセッサー  | 
説明  | 
|
|---|---|---|
FlowFile の記録指向データを含むコンテナーのコンテンツを変更します。(i.  | 
||
FlowFile の各記録の 1 つ以上のフィールド名を変更します。  | 
||
FlowFile 内のテキスト値を (正規表現/正規表現、またはリテラル値で) 検索し、マッチした部分を代替値で置き換えることで、 FlowFile のコンテンツを更新します。  | 
||
正規表現を使って FlowFile のコンテンツを更新し、正規表現にマッチする部分をマッピングファイルで指定された代替値で置き換えます。  | 
||
このプロセッサーに渡される FlowFiles の 'Retry Attribute' の値は、構成された 'Maximum Retries' 値と照合されます。  | 
||
Attribute Expression Language(属性式言語)を使用して、属性に基づいて FlowFiles をルーティングします。  | 
||
FlowFile のコンテンツに正規表現を適用し、正規表現が一致する各宛先に FlowFile のコピーをルーティングします。  | 
||
ユーザー定義のルールセットに基づいてテキストデータをルーティングします。  | 
||
Snowflake  | 
事前に定義された Databricks ジョブをカスタムパラメーターで実行するトリガーです。  | 
|
フローファイルを受信するたびに集約クエリを実行するプロセッサー。  | 
S¶
プロセッサー  | 
説明  | 
|
|---|---|---|
指定されたサンプリング戦略(貯水池サンプリングなど)に基づき、 FlowFile の記録をサンプルします。  | 
||
FlowFiles の指定された属性をスキャンし、その値が指定された用語辞書内に存在するかどうかをチェックします。  | 
||
FlowFiles のコンテンツを、ユーザーが用意した辞書にある用語でスキャンします。  | 
||
このプロセッサーは、ユーザーが用意したスクリプトを使用して、 FlowFiles から記録をフィルターする機能を提供します。  | 
||
記録指向のデータを受信 (i.  | 
||
受信 FlowFile の各記録に対して簡単なスクリプトを評価する機能を提供します。  | 
||
このプロセッサーは、ユーザー提供のスクリプトを使用して FlowFiles の記録を検証する機能を提供します。  | 
||
Elasticsearch JSON DSL で記述されたページ分割されたクエリ(集約を含む)を繰り返し実行できるプロセッサーです。  | 
||
FlowFile をバイト境界で複数の小さなセグメントに分割します。  | 
||
OpenPGP プライベートキーを使用してコンテンツに署名します。  | 
||
Snowflake  | 
FlowFile のハッシュ (FlowFile 属性として提供) が既に Snowflake テーブルにあるかどうかをチェックし、 FlowFile が見つかった場合は 'duplicate'、見つからなかった場合は 'distinct'、エラーの場合は 'failure' にルーティングします。  | 
|
バイナリ符号化された Avro データファイルを、構成された出力サイズに基づいて小さなファイルに分割します。  | 
||
受信した FlowFiles を指定したバイト列で分割します。  | 
||
このプロセッサーは、複数シートのMicrosoft Excelスプレッドシートを複数のMicrosoft Excelスプレッドシートに分割し、元のファイルの各シートを独自のフローファイルの個々のスプレッドシートに変換します。  | 
||
JsonPath 式で指定された配列要素に対して、 JSON ファイルを複数の別々の FlowFiles に分割します。  | 
||
記録指向のデータ形式である入力 FlowFile を、複数の小さな FlowFiles データに分割します。  | 
||
最大行数またはフラグメントの合計サイズによって制限された行バウンダリで、テキストファイルを複数の小さなテキストファイルに分割します。  | 
||
XML ファイルを複数の別々の FlowFiles に分割し、それぞれを元のルート要素の子または子孫で構成します。  | 
||
AWS Pollyジョブをトリガーします。  | 
||
AWS Textract ジョブをトリガーします。  | 
||
AWS Transcribe ジョブをトリガーします。  | 
||
AWS Translate ジョブをトリガーします。  | 
||
ファイル入力でVision演算子をトリガーします。  | 
||
画像入力でVision演算子をトリガーします。  | 
||
Snowflake  | 
Bulk API 2. クエリジョブを Salesforce に送信します。  | 
|
Snowflake  | 
このプロセッサーは、大容量言語モデル (LLM) を使用して、 FlowFile のコンテンツを要約します。  | 
T¶
プロセッサー  | 
説明  | 
|
|---|---|---|
Amazon S3 オブジェクトにタグを追加または更新します。  | 
||
ファイルまたはファイルのリストを "テール "し、ファイルに書き込まれたデータをファイルから取り込みます。  | 
||
プロバイダーの XSLT ファイルを FlowFile XML ペイロードに適用します。  | 
U¶
プロセッサー  | 
説明  | 
|
|---|---|---|
いくつかの異なるパッケージング形式のいずれかでパッケージ化された FlowFiles のコンテンツを解凍し、入力 FlowFile ごとに 1 つから多数の FlowFiles を生成します。  | 
||
属性式言語を使用して FlowFile の属性を更新、および/または正規表現に基づいて属性を削除します。  | 
||
指定された flowFile の記録を使用して、Box ファイルのメタデータ Template 値を更新します。  | 
||
クエリを使用して Elasticsearch インデックスのドキュメントを更新します。  | 
||
このプロセッサーにより、ユーザーは特定のカウンターやフローのキーポイントをセットすることができます。  | 
||
このプロセッサーは、 JDBC 接続と受信記録を使用して、受信記録をサポートするために必要なデータベーステーブルの変更を生成します。  | 
||
記録指向のデータ を含む FlowFile のコンテンツを更新します。(i.  | 
||
Snowflake  | 
入力された FlowFile で提供されたスキーマに基づいて Snowflake テーブルの定義を更新します。  | 
|
Snowflake  | 
Snowflake Icebergテーブルの定義を更新します。  | 
|
Snowflake  | 
テーブル・ステート・サービスのテーブルの状態を更新します。  | 
|
Snowflake  | 
指定されたコレクションのベクターをMilvusデータベースに挿入します。  | 
|
Snowflake  | 
メタデータやテキストを含むベクターを Pinecone インデックスに公開します。  | 
|
Snowflake  | 
受信した FlowFile の記録を Salesforce にアップサートします。  | 
V¶
プロセッサー  | 
説明  | 
|
|---|---|---|
FlowFiles のコンテンツまたは FlowFile 属性値を、ユーザー指定の CSV スキーマに対して検証します。  | 
||
FlowFiles のコンテンツを、構成可能な JSON スキーマに対して検証します。  | 
||
入力された FlowFile の記録を、指定されたスキーマに照らして検証します。  | 
||
FlowFile に含まれる XML を検証します。  | 
||
提供された秘密キーを使ってメッセージ認証コードを計算し、提供された MAC プロパティと比較します。  | 
||
OpenPGP 公開キーを使用した署名の検証  | 
W¶
プロセッサー  | 
説明  | 
|
|---|---|---|
対応するNotifyプロセッサーからのリリース信号が分散キャッシュに格納されるまで、入ってくる FlowFiles を「wait」関係にルーティングします。  | 
||
Snowflake  | 
対応するテーブルのステートがacceptedステートに等しくなくなるまで、 FlowFiles の着信をブロックします。  |