Kafka용 Openflow Connector

참고

커넥터에는 커넥터 약관 이 적용됩니다.

이 항목에서는 Kafka용 Openflow Connector의 기본 개념과 제한 사항에 대해 설명합니다.

Apache Kafka 소프트웨어는 게시 및 구독 모델을 사용하여 메시지 큐 또는 엔터프라이즈 메시징 시스템과 유사한 레코드 스트림을 쓰고 읽습니다. Kafka를 사용하면 프로세스가 비동기적으로 메시지를 읽고 쓸 수 있습니다. 구독자는 게시자와 직접 연결할 필요가 없으며, 게시자는 구독자가 나중에 수신할 수 있도록 Kafka의 메시지를 큐에 추가할 수 있습니다.

애플리케이션이 항목에 메시지를 게시하면 애플리케이션이 해당 메시지를 수신하기 위해 항목을 구독합니다. Kafka는 메시지를 처리하고 전송할 수 있지만, 이와 관련한 설명은 이 문서의 범위를 벗어납니다. 항목를 파티션으로 나누어 확장성을 높일 수 있습니다.

Kafka용 Openflow Connector는 Kafka 항목에서 데이터를 읽고 Snowpipe Streaming 메커니즘을 사용하여 Snowflake 테이블에 씁니다.

다음 작업을 수행하려는 경우 이 커넥터를 사용하십시오.

  • 실시간에 가까운 분석을 위해 Apache Kafka에서 Snowflake로 실시간 이벤트 수집

제한 사항

  • Topic To Table Map 매개 변수가 설정되어 있지 않은 경우:

    • 테이블 이름은 해당 테이블이 보유한 데이터의 항목와 정확히 일치해야 합니다.

    • 테이블 이름은 대문자 형식이어야 합니다.

  • Topic To Table Map 매개 변수가 설정된 경우:

    • 테이블 이름은 매핑에 지정된 테이블 이름과 일치해야 합니다. 테이블 이름은 따옴표로 묶지 않은 유효한 Snowflake 식별자여야 합니다. 유효한 테이블 이름에 대한 내용은 식별자 요구 사항 을 참조하십시오.

  • JSON 및 AVRO 형식만 지원됩니다.

  • Confluent Schema Registry만 지원됩니다.

  • PLAINTEXT, SASL_PLAIN, SSL, SASL_SSL 보안 프로토콜이 지원됩니다.

  • PLAIN, SCRAM-SHA-256, SCRAM-SHA-512AWS_MSK_IAM SASL 메커니즘이 지원됩니다.

  • mTLSAWS MSK IAM 인증 방법은 서비스를 통해 추가 구성이 필요합니다. 자세한 내용은 Kafka용 Openflow Connector에 대한 다른 인증 방법 구성하기 섹션을 참조하십시오.

  • 테이블에 데이터 삽입에 실패하는 경우 커넥터는 무한히 재시도를 계속합니다.

다음 단계