큐 줄이기¶
이 항목에서는 웨어하우스 소유자 또는 관리자가 웨어하우스에서 실행 중인 쿼리의 성능을 개선하기 위해 큐 처리를 줄이는 방법을 설명합니다.
너무 많은 쿼리가 웨어하우스로 동시에 전송되면 웨어하우스의 컴퓨팅 리소스가 소진되고 리소스를 사용할 수 있을 때까지 후속 쿼리가 큐에 대기 상태가 됩니다. 쿼리가 시작하기 전에 큐에서 대기해야 할 때 쿼리 제출과 쿼리 결과 가져오기 사이의 시간이 더 깁니다.
참고
이 항목에서 제공되는 진단 쿼리를 실행하려면 공유 SNOWFLAKE 데이터베이스에 대한 액세스 권한 이 있어야 합니다. 기본적으로 ACCOUNTADMIN 역할만 쿼리 실행에 필요한 권한을 갖습니다.
큐 찾기¶
- Snowsight:
특정 웨어하우스에 큐가 있는지 확인하는 방법:
Snowsight 에 로그인합니다.
Admin » Warehouses 으로 이동합니다.
웨어하우스를 선택합니다.
Warehouse Activity 차트에서 Queued load 와 연결된 색상을 사용하여 큐를 식별합니다.
막대 높이에서 패턴을 찾아 큐가 사용량 급증과 관련이 있는지 확인합니다.
- SQL:
쿼리: 큐 기능을 사용하는 웨어하우스
이 쿼리는 지난달 큐가 있었던 웨어하우스를 날짜별로 정렬하여 나열합니다.
SELECT TO_DATE(start_time) AS date ,warehouse_name ,SUM(avg_running) AS sum_running ,SUM(avg_queued_load) AS sum_queued FROM snowflake.account_usage.warehouse_load_history WHERE TO_DATE(start_time) >= DATEADD(month,-1,CURRENT_TIMESTAMP()) GROUP BY 1,2 HAVING SUM(avg_queued_load) > 0;
QUERY_HISTORY 뷰 에 대해 쿼리를 작성하여 쿼리가 큐에서 쓰는 시간을 계산할 수도 있습니다.
큐를 줄이기 위한 옵션¶
웨어하우스 큐를 중지하는 여러 가지 옵션이 있습니다.
일반 웨어하우스(즉, 멀티 클러스터 웨어하우스가 아닌 웨어하우스)의 경우, 추가 웨어하우스를 만든 다음 이들 사이에 쿼리를 배포해 보십시오. 특정 쿼리로 인해 사용량이 급증하는 경우 해당 쿼리를 이동하는 데 집중하십시오.
수요가 급증할 때 웨어하우스에서 추가 컴퓨팅 리소스를 탄력적으로 프로비저닝할 수 있도록 웨어하우스를 멀티 클러스터 웨어하우스 로 전환해 보십시오. 멀티 클러스터 웨어하우스에는 Snowflake의 Enterprise Edition 이 필요합니다.
멀티 클러스터 웨어하우스를 이미 사용 중인 경우 최대 클러스터 수를 늘리십시오.
비용 고려 사항¶
멀티 클러스터 웨어하우스 실행이 크레딧 사용에 미치는 영향에 대한 설명은 멀티 클러스터 크기 및 크레딧 사용 섹션을 참조하십시오.
자동 확장 모드에서 멀티 클러스터 웨어하우스를 실행 중인 경우 확장 정책 을 사용하여 비용을 통제할 수 있습니다. 이코노미 확장 정책에서는 추가 클러스터를 시작하기보다는 실행 중인 클러스터를 완전히 로드된 상태로 유지하여 클러스터 탄력성보다 크레딧을 보존하도록 장려합니다. 이로 인해 쿼리가 큐에 들어가 완료하는 데 시간이 더 오래 걸릴 수 있습니다.
큐를 줄이도록 웨어하우스를 구성하는 방법¶
- 일반 웨어하우스:
쿼리를 배포할 수 있는 새 웨어하우스를 만들려면 Snowsight 에 로그인하고 Admin » Warehouses 를 선택하십시오. CREATE WAREHOUSE 명령을 사용할 수도 있습니다.
- 멀티 클러스터 웨어하우스:
기존 웨어하우스를 멀티 클러스터 웨어하우스로 전환하거나 기존 웨어하우스의 최대 클러스터 수를 늘리려면 다음을 수행하십시오.
Snowsight 에 로그인합니다.
Admin » Warehouses 으로 이동합니다.
웨어하우스를 찾아 … » Edit 를 선택합니다.
멀티 클러스터 웨어하우스로 전환하는 경우 Multi-cluster Warehouse 옵션을 켭니다. 이 옵션이 표시되지 않으면 Enterprise Edition 이상으로 업그레이드하십시오.
Max Clusters 드롭다운을 사용하여 최대 클러스터 수를 조정합니다.