Cortex Analyst¶
개요¶
Cortex Analyst 는 완전 관리형 LLM 기반 Snowflake Cortex 기능으로, Snowflake의 정형 데이터를 기반으로 비즈니스 질문에 신뢰할 수 있는 답변을 제공할 수 있는 애플리케이션을 구축할 수 있도록 도와줍니다. Cortex Analyst 를 사용하면 비즈니스 사용자는 SQL을 작성하지 않고도 자연어로 질문하고 직접 답변을 받을 수 있습니다. 편리한 REST API로 제공되는, Cortex Analyst 는 모든 애플리케이션에 원활하게 통합할 수 있습니다.
프로덕션 등급 대화형 셀프 서비스 분석 솔루션을 구축하려면 정확한 텍스트-SQL 응답을 생성하는 서비스가 필요합니다. 대부분의 팀에게 정확도, 지연 시간, 비용의 균형을 성공적으로 맞추는 서비스를 개발하는 것은 어려운 작업입니다. Cortex Analyst 는 이러한 모든 복잡성을 처리하고 매우 정확한 텍스트-SQL 응답을 생성하는 완전 관리형 정교한 에이전트 AI 시스템을 제공함으로써 이 프로세스를 간소화합니다. 비즈니스 팀에 매우 정교한 셀프 서비스 대화형 분석을 신속하게 제공하는 동시에 복잡한 RAG 솔루션 패턴, 모델 실험, GPU 용량 계획과 같은 시간 낭비를 피할 수 있습니다. 생성된 SQL 쿼리는 확장 가능한 Snowflake 엔진에 대해 실행되므로 업계 최고의 가격 성능과 낮은 총소유비용(TCO)을 보장합니다.
팁
Cortex Analyst 를 빠르게 시작하고 싶으신가요? 자습서: Cortex Analyst를 사용한 시계열 수익 데이터에 대한 질문에 답하기 자습서를 사용해 보십시오.
주요 기능¶
자연어 쿼리를 통한 셀프 서비스 분석. Snowflake의 정형 데이터에서 즉각적인 답변을 받고 이해하여 비즈니스 팀과 비전문 사용자에게 만족감을 선사할 수 있습니다. Cortex Analyst 를 사용하면, 자연어로 질문하고 즉시 정확한 답변을 받을 수 있는 다운스트림 채팅 애플리케이션을 구축할 수 있습니다.
기존 비즈니스 워크플로에 통합할 수 있는 편리한 REST API. Cortex Analyst 는 API 우선 접근법을 통해 최종 사용자 경험을 완벽하게 제어할 수 있습니다. 기존 비즈니스 도구 및 플랫폼에 Cortex Analyst 를 손쉽게 통합하여 Streamlit 앱, Slack, Teams, 사용자 지정 채팅 인터페이스 등 비즈니스 사용자가 이미 작업 중인 도구에 데이터 인사이트의 강력한 기능을 제공할 수 있습니다.
최신 대규모 언어 모델 기반: 기본적으로 Cortex Analyst 는 Snowflake의 지능형 완전 관리형 AI 서비스인 Snowflake Cortex 내에서 안전하게 실행되는 최신 Meta Llama 및 Mistral 모델에 의해 구동됩니다. 선택 사항으로 Cortex Analyst 에 최신 Azure 호스팅 OpenAI GPT 모델에 대한 액세스 권한을 부여할 수도 있습니다. 런타임 시에 Cortex Analyst 는 각 쿼리에 대해 최고의 정확도와 성능을 보장하기 위해 최적의 모델 조합을 선택합니다. 자세한 내용은 Azure OpenAI 모델 사용 활성화하기 섹션을 참조하십시오. LLMs이 발전함에 따라 Snowflake는 성능과 정확도를 더욱 향상하기 위해 더 많은 모델을 추가할 수 있는 방법을 지속적으로 모색할 예정입니다.
높은 정밀도와 정확도를 위한 의미 체계 모델: 일반 AI 솔루션의 경우 데이터베이스 스키마만 제공되면 스키마에 비즈니스 프로세스 정의 및 메트릭 처리와 같은 중요한 정보가 부족하기 때문에 텍스트-SQL 변환에 어려움을 겪는 경우가 많습니다. Cortex Analyst 는 비즈니스 사용자와 데이터베이스 사이의 간극을 메우는 의미 체계 모델 을 사용하여 이러한 한계를 극복합니다. 경량 YAML 파일로 캡처된 의미 체계 모델의 전체 구조와 개념은 데이터베이스 스키마와 유사하지만, 데이터에 대한 의미 체계에 대해 더 풍부한 설명을 제공할 수 있습니다.
보안 및 거버넌스. Snowflake의 개인정보 보호 우선 기반과 엔터프라이즈급 보안을 통해 최고 수준의 개인정보 보호 및 거버넌스로 데이터가 보호되므로, 안심하고 AI 기반 사용 사례를 탐색할 수 있습니다.
Cortex Analyst 는 고객 데이터에 대한 훈련을 하지 않습니다. 당사는 고객 데이터를 사용하여 당사 고객 기반 전반에서 사용할 수 있는 모델을 훈련시키거나 세부조정을 수행하지 않습니다. 또한 추론을 위해 Cortex Analyst 는 의미 체계 모델 YAML 파일에 제공되는 메타데이터(예: 테이블 이름, 열 이름, 값 유형, 설명 등)를 SQL 쿼리를 생성하기 위한 용도로만 활용합니다. 그런 다음 이 SQL 쿼리는 Snowflake 가상 웨어하우스에서 실행되어 최종 출력을 생성합니다.
데이터는 Snowflake의 거버넌스 경계 내에 유지됩니다. 기본적으로 Cortex Analyst 는 Mistral과 Meta의 Snowflake가 호스팅하는 LLMs으로 구동되므로 메타데이터 또는 프롬프트 등 어떤 데이터도 Snowflake의 거버넌스 경계를 벗어나지 않습니다. Azure OpenAI 모델을 사용하도록 선택하는 경우, 메타데이터 및 프롬프트만 Snowflake의 거버넌스 경계 외부로 전송됩니다.
Snowflake의 개인정보 보호 및 거버넌스 기능과의 완벽한 통합. Cortex Analyst 는 Snowflake의 역할 기반 액세스 제어(RBAC) 정책과 완벽하게 통합되어 생성 및 실행되는 SQL 쿼리가 설정된 모든 액세스 제어를 준수합니다. 이를 통해 강력한 데이터 보안 및 거버넌스가 보장됩니다.
액세스 제어 요구 사항¶
Cortex Analyst 에 요청하려면 SNOWFLAKE, CORTEX_USER 역할이 부여된 역할을 사용해야 합니다.
Cortex Analyst 를 의미 체계 모델과 함께 사용하려면 다음 권한도 필요합니다.
권한 |
오브젝트 |
---|---|
READ 또는 WRITE |
의미 체계 모델이 스테이지에 업로드된 경우 의미 체계 모델 YAML 파일이 포함된 스테이지입니다. |
USAGE |
의미 체계 모델에서 언급된 Cortex Search 서비스. |
SELECT |
의미 체계 모델에 언급된 테이블입니다. |
Cortex Analyst API 로의 요청에는 승인 토큰이 포함되어야 합니다. API 인증 방법에 대한 자세한 내용은 Snowflake를 사용하여 Snowflake REST APIs 인증하기 섹션을 참조하십시오.
이 항목의 예제에서는 세션 토큰을 사용하여 Snowflake 계정을 인증합니다.
특정 역할에 대한 액세스 제한하기¶
기본적으로 CORTEX_USER 역할은 PUBLIC 역할에 부여됩니다. PUBLIC 역할은 모든 사용자와 역할에 자동으로 부여됩니다. 모든 사용자에게 이 권한을 부여하지 않으려면 PUBLIC 역할에 대한 액세스를 취소하고 특정 역할에 대한 액세스 권한을 부여하면 됩니다. 자세한 내용은 필수 권한 섹션을 참조하십시오.
특정 의미 체계 모델에 대한 액세스를 제어하려면 YAML 파일을 스테이지에 저장하고 해당 스테이지에 대한 액세스를 제어할 수 있습니다.
리전 가용성¶
다음 리전에서는 Cortex Analyst 를 기본적으로 사용할 수 있습니다.
AWS ap-northeast-1(도쿄)
AWS ap-southeast-2(시드니)
AWS us-east-1(버지니아)
AWS us-west-2(오리건)
AWS eu-central-1(프랑크푸르트)
AWS eu-west-1(아일랜드)
Azure 동부 US 2(버지니아)
Azure 서유럽(네덜란드)
Snowflake 계정이 다른 클라우드 리전에 있는 경우에도 리전 간 추론 를 활용하여 Cortex Analyst 를 사용할 수 있습니다. 리전 간 추론이 활성화되면 Cortex Analyst 는 기본 리전에서 사용할 수 없는 모델에 대한 요청을 다른 리전에서 처리합니다. 최적의 성능을 위해 AWS US 리전과 함께 리전 간 추론을 구성합니다.
알려진 문제 및 제한 사항¶
의미 체계 모델 YAML 파일을 스테이지에 업로드하면 해당 의미 체계 모델에 대한 액세스는 해당 파일이 업로드된 스테이지에 대한 액세스로 제어됩니다. 즉, 스테이지에 액세스할 수 있는 모든 역할은 해당 역할이 기본 테이블에 액세스할 수 없더라도 해당 스테이지의 의미 체계 모델에 액세스할 수 있습니다.
기본적으로, Cortex Analyst 는 분당 20건의 요청으로 속도가 제한되며, 이는 개념 증명에는 충분합니다. 더 높은 한도를 요청하려면 영업 엔지니어에게 문의하십시오.
Azure OpenAI 모델 사용 활성화하기¶
기본적으로 Cortex Analyst 는 Snowflake 호스팅 LLMs 에 의해 구동됩니다. 그러나 명시적으로 Cortex Analyst 가 Microsoft Azure에서 호스팅하는 최신 OpenAI GPT 모델과 Snowflake에서 호스팅하는 모델을 함께 사용할 수 있도록 선택할 수 있습니다. 런타임 시에 Cortex Analyst 는 각 쿼리에 대해 최고의 정확도와 성능을 보장하기 위해 최적의 모델 조합을 선택합니다.
참고
Azure OpenAI 모델을 사용하도록 선택 하면 Gov 및 VPS 배포를 제외한 모든 AWS, Azure 및 GCP 리전에서 Cortex Analyst 를 사용할 수 있습니다.
ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI 매개 변수를 사용하여 Azure OpenAI GPT 모델을 사용하도록 계정을 구성할 수 있습니다. 기본적으로 이 매개 변수는 비활성화되어 있으며 ACCOUNTADMIN 역할만 ALTER ACCOUNT 명령을 사용하여 설정할 수 있습니다.
USE ROLE ACCOUNTADMIN;
ALTER ACCOUNT SET ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI = TRUE;
팁
이 매개 변수의 현재 값을 확인하려면 다음 SQL 문을 사용합니다.
SHOW PARAMETERS LIKE 'ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI' IN ACCOUNT
자세한 내용은 ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI 섹션을 참조하십시오.
이 매개 변수를 활성화하면 Cortex Analyst 는 다음의 조합으로 구동될 수 있습니다.
Snowflake 호스팅 모델, 현재 Mistral Large 및 Llama3 모델
Azure OpenAI 모델, 현재 GPT-4o(명시적 옵트인 필요)
참고
Cortex Analyst 는 향후 성능과 정확도를 더욱 개선하기 위해 다른 모델을 사용할 수 있습니다.
고려 사항¶
의미 체계 모델 파일은 메타데이터 로 분류됩니다. Cortex Analyst 에서 Azure OpenAI 모델을 사용하도록 선택하면 의미 체계 모델은 서드 파티인 Microsoft Azure에서 처리됩니다. 그러나 고객 데이터는 Azure와 공유되거나 처리되지 않습니다.
ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI¶
TRUE인 경우 ENABLE_CORTEX_ANALYST_MODEL_AZURE_OPENAI 계정 매개 변수 는 Cortex Analyst 가 Azure OpenAI 모델을 사용하도록 허용합니다.
매개 변수 유형 |
세션 |
---|---|
데이터 타입 |
BOOLEAN |
설명 |
Cortex Analyst 가 요청을 처리하는 데 Azure OpenAI 모델을 사용할 수 있는지 여부를 제어합니다. |
값 |
|
기본값 |
FALSE |
Cortex Analyst 에서의 멀티 턴 대화¶
Cortex Analyst 는 데이터 관련 질문에 대한 멀티턴 대화를 지원합니다. 이 기능을 사용하면 이전 쿼리를 기반으로 후속 질문을 할 수 있어 더욱 역동적이고 대화형 데이터 탐색 환경을 만들 수 있습니다. 예를 들어, 사용자가 “2021년 아시아 지역의 전월 대비 매출 성장률은 얼마인가요?”라고 질문한 다음, “북미는 어때요?”라고 후속 질문으로 질문할 수 있습니다.
Cortex Analyst 는 후속 쿼리를 인식하고 초기 쿼리에서 컨텍스트를 검색한 후 두 번째 질문을 “북미 지역의 2021년 전월 대비 매출 성장률은 얼마입니까?”와 같은 질문을 다시 작성합니다. 그러면 Cortex Analyst 는 이 질문에 답하기 위한 SQL 쿼리를 생성합니다.
이 기능을 사용하려면 messages
필드에 대화 기록을 전달하십시오.
{
"messages": [
{
"role": "user",
"content": [
{
"type": "text",
"text": "What is the month over month revenue growth for 2021 in Asia?"
}
]
},
{
"role": "analyst",
"content": [
{
"type": "text",
"text": "We interpreted your question as ..."
},
{
"type": "sql",
"statement": "SELECT * FROM table"
}
]
},
{
"role": "user",
"content": [
{
"type": "text",
"text": "What about North America?"
}
]
},
],
"semantic_model_file": "@my_stage/my_semantic_model.yaml"
}
대화 기록은 시간 순서대로 배열된 메시지로, 각 메시지에는 역할과 내용이 있습니다. 역할은 "user"
(이전 질문) 또는 "analyst"
(이전 응답)입니다. 분석가 응답에는 위의 예와 같이 텍스트와 SQL 응답이 모두 있지만 사용자 메시지에는 텍스트만 있습니다.
멀티 턴 대화의 알려진 제한 사항¶
다음 제한 사항 중 일부는 Cortex Analyst 의 향후 버전에서 해결될 수 있습니다.
- 이전 SQL 쿼리 결과에 액세스
Cortex Analyst 는 이전 SQL 쿼리 결과에 액세스할 수 없습니다. 예를 들어, “내 제품은 무엇인가요?”라고 먼저 질문한 다음 “두 번째 제품의 수익은 얼마인가요?”라고 질문하는 경우 Cortex Analyst 는 첫 번째 쿼리의 제품 목록을 참조하여 두 번째 제품을 가져올 수 없습니다.
- 일반적인 비즈니스 인사이트
Cortex Analyst 는 SQL 을 사용하여 해결할 수 있는 질문에 대한 답변으로 제한됩니다. “어떤 동향을 관찰하십니까?”와 같은 광범위한 비즈니스 관련 쿼리에 대한 인사이트는 생성하지 않습니다
- 긴 대화
대화에 너무 많은 차례가 포함되거나 사용자가 자주 의도를 바꾸는 경우 Cortex Analyst 가 후속 질문을 해석하는 데 어려움을 겪을 수 있습니다. 이러한 경우 대화를 재설정하고 다시 시작하십시오.
시작하기 선택 사항¶
개발자는 다음 리소스를 사용하여 Cortex Analyst 를 시작할 수 있습니다.
기본 코드 예제: 다음 섹션의 Cortex Analyst 예제 은 Cortex Analyst 를 사용하여 대화형 앱을 만드는 데 도움이 되는 간단하고 읽기 쉬운 스크립트를 제공합니다.
기본적인 기본 예제로 시작하고 싶고 Streamlit을 사용하고 직접 수정하는 데 익숙하다면 이 옵션을 선택합니다. 이 예제는 Streamlit in Snowflake (SiS) 또는 로컬에서 실행할 수 있습니다.
Snowflake 샘플 리포지토리: 보다 포괄적인 구현을 원하는 경우 Snowflake 샘플 리포지토리에 있는 Cortex Analyst 고급 SiS 데모에 이미 모든 기능과 선택 사항이 설정되어 있습니다. 이 리포지토리는 Cortex Analyst 를 원활하고 강력하게 배포할 수 있는 다양한 사전 구축 기능으로 구성되어 있습니다.
기능을 처음 테스트하거나 사용자 지정 수정할 항목이 적은 경우 이 옵션을 선택합니다.
참고
이는 예제로만 표시된 것입니다. Snowflake는 아래 내용을 지원하지 않으며, 아래 내용이 정확함을 보증하지 않습니다.
자세한 내용은 Snowflake 샘플 GitHub 리포지토리의 Cortex Analyst 고급 SiS 데모 섹션을 참조하십시오.
Cortex Analyst 예제¶
다음 단계에 따라 Cortex Analyst 를 사용하는 대화형 Streamlit in Snowflake(SiS) 또는 독립 실행형 Streamlit 앱을 생성할 수 있습니다.
의미 체계 모델 만들기¶
의미 체계 모델 은 데이터 세트에 대한 추가적인 의미 체계의 사양을 허용함으로써 비즈니스 사용자와 데이터베이스 정의 간의 언어 차이와 관련된 문제를 해결하는 경량 메커니즘입니다. 더 설명적인 이름이나 동의어와 같은 추가적인 의미 체계는 Cortex Analyst 가 데이터 질문에 훨씬 더 신뢰할 수 있는 답변을 제공할 수 있도록 합니다.
Cortex Analyst 가 답변하기를 원하는 질문 목록부터 작성하십시오. 이를 바탕으로 의미 체계 모델에 대한 데이터 세트를 결정합니다.
사양 에 따라 의미 체계 모델 YAML을 생성합니다. 편의를 위해 모델 생성기를 사용하여 의미 체계 모델 만들기 사용해 보십시오. 또한 의미 체계 모델 생성을 위한 팁 항목도 살펴보십시오.
의미 체계 모델 업로드¶
의미 체계 모델 YAML 파일을 스테이지 에 업로드하거나 요청 본문에 의미 체계 모델 YAML을 문자열로 전달할 수 있습니다. 의미 체계 모델 YAML을 스테이지에 업로드하면 해당 의미 체계 모델에 대한 액세스는 해당 파일이 업로드된 스테이지에 대한 액세스로 제어됩니다. 즉, 스테이지에 액세스할 수 있는 모든 역할은 해당 역할이 모델의 기반이 되는 테이블에 액세스할 수 없더라도 해당 스테이지의 의미 체계 모델에 액세스할 수 있습니다. 스테이지에 대한 액세스 권한이 부여된 역할이 해당 스테이지의 모든 의미 체계 모델에서 참조하는 모든 테이블에 대한 SELECT 액세스 권한이 있어야 합니다.
의미 체계 모델이 포함된 스테이지를 설정하는 방법에 대한 예는 다음과 같습니다. 한 스테이지(public
)에는 조직의 모든 구성원이 액세스할 수 있는 반면, 다른 스테이지(sales
)에는 sales_analyst
역할만 액세스할 수 있습니다.
스테이지에 대한 데이터베이스와 스키마를 생성합니다. 다음 예제에서는 이름이 definition
인 스키마가 있는 이름이 semantic_model
인 데이터베이스를 생성하지만, 이러한 이름에 유효한 식별자 문자열을 사용할 수 있습니다.
CREATE DATABASE semantic_model;
CREATE SCHEMA semantic_model.definitions;
GRANT USAGE ON DATABASE semantic_model TO ROLE PUBLIC;
GRANT USAGE ON SCHEMA semantic_model.definitions TO ROLE PUBLIC;
USE SCHEMA semantic_model.definitions;
그런 다음 의미 체계 모델을 저장하기 위한 스테이지를 생성합니다.
CREATE STAGE public DIRECTORY = (ENABLE = TRUE);
GRANT READ ON STAGE public TO ROLE PUBLIC;
CREATE STAGE sales DIRECTORY = (ENABLE = TRUE);
GRANT READ ON STAGE sales TO ROLE sales_analyst;
Snowsight를 사용하는 경우 페이지를 새로 고치고 데이터베이스 오브젝트 탐색기 에서 새로 생성된 스테이지를 찾을 수 있습니다. 새 탭에서 스테이지 페이지를 열고 Snowsight에서 YAML 파일을 업로드할 수 있습니다.
또는 Snowflake CLI 클라이언트 를 사용하여 로컬 파일 시스템에서 업로드할 수 있습니다.
snow stage copy file:///path/to/local/file.yaml @sales
Streamlit in Snowflake 만들기¶
이 예제는 자연어 질문을 입력으로 받아 공급자가 제공한 의미 체계에 따라 답변을 생성하기 위해 Cortex Analyst 를 호출하는 Streamlit in Snowflake 앱을 만드는 방법을 보여줍니다.
참고
이는 예제로만 표시된 것입니다. Snowflake는 아래 내용을 지원하지 않으며, 아래 내용이 정확함을 보증하지 않습니다.
Snowflake에서 Streamlit 앱을 생성하고 실행하는 방법에 대한 자세한 내용은 Streamlit in Snowflake 정보 섹션을 참조하십시오.
Snowsight 를 사용하여 Streamlit 앱 만들기 의 지시에 따라 Snowsight에서 새 Streamlit 앱을 생성합니다.
GitHub 리포지토리에서 Streamlit 코드 를 코드 편집기에 복사본으로 복사합니다.
자리 표시자 값을 사용자의 계정 세부 정보로 바꿉니다.
앱을 미리 보려면 Streamlit 미리보기 창에서 Run 을 선택하여 콘텐츠를 업데이트합니다.
Streamlit 앱과 상호 작용¶
브라우저에서 Streamlit 앱으로 이동하거나 Streamlit in Snowflake 미리 보기 창으로 이동합니다.
자연어로 데이터에 대한 질문(예: “What questions can I ask?”)을 시작합니다.
독립 실행형 Streamlit 앱 만들기¶
예제 코드를 사용하여 독립형 앱을 구축할 수도 있습니다.
참고
이는 예제로만 표시된 것입니다. Snowflake는 아래 내용을 지원하지 않으며, 아래 내용이 정확함을 보증하지 않습니다.
Streamlit 을 설치합니다.
로컬에
analyst_api.py
라는 Python 파일을 생성합니다.GitHub 리포지토리에서 Streamlit 코드 를 파일에 복사본으로 복사합니다.
자리 표시자 값을 사용자의 계정 세부 정보로 바꿉니다.
streamlit run analyst_api.py
를 사용하여 Streamlit 앱을 실행합니다.
코드에 지정된 데이터베이스와 스키마는 의미 체계 모델 YAML 파일의 스테이지 위치입니다. Snowflake 커넥터에서 사용되는 역할은 의미 체계 모델에 정의된 기본 데이터에 액세스할 수 있어야 합니다.
보다 포괄적인 구현은 Snowflake 샘플 GitHub 리포지토리의 Cortex Analyst 고급 SiS 데모 섹션을 참조하십시오. 이 리포지토리는 Cortex Analyst 를 원활하고 강력하게 배포할 수 있는 다양한 사전 구축 기능으로 구성되어 있습니다.
Cortex Analyst 기능 비활성화¶
계정에서 Cortex Analyst 를 사용하지 않으려면 ACCOUNTADMIN 역할을 사용하여 ENABLE_CORTEX_ANALYST 매개 변수를 변경하여 기능을 비활성화합니다.
USE ROLE ACCOUNTADMIN;
ALTER ACCOUNT SET ENABLE_CORTEX_ANALYST = FALSE;
매개 변수 유형 |
세션 |
---|---|
데이터 타입 |
BOOLEAN |
설명 |
계정에서 Cortex Analyst 기능을 활성화할지 여부를 제어합니다. |
값 |
|
기본값 |
TRUE |
비용 고려 사항¶
Cortex Analyst 의 크레딧 사용량은 Snowflake Service Consumption Table 에 설명된 대로 처리된 메시지 수를 기준으로 합니다. 성공 응답(HTTP 200)만 계산됩니다. 각 메시지에 포함된 토큰 수는 비용에 영향을 미치지 않습니다.
참고
위의 요금에는 텍스트-AI 변환에 대한 SQL 비용이 포함됩니다. Cortex Analyst 에서 생성된 SQL 을 실행하는 경우 추가 웨어하우스 비용이 적용됩니다.
Cortex Analyst 비용 모니터링¶
Cortex Analyst 에 대한 크레딧 사용을 보려면 CORTEX_ANALYST_USAGE_HISTORY 뷰 를 사용합니다. 예:
SELECT * FROM SNOWFLAKE.ACCOUNT_USAGE.CORTEX_ANALYST_USAGE_HISTORY;
Cortex Analyst 사용량은 서비스 유형이 AI_SERVICES 인 ACCOUNT_USAGE 스키마의 METERING_HISTORY 뷰 에도 표시됩니다.
법적 고지¶
Cortex Analyst 는 Meta의 Llama 3 및 Mistral Large 모델 등의 머신 러닝 기술로 구동됩니다. 파운데이션 Llama 3 모델은 Llama 3 커뮤니티 라이선스 및 Copyright (c) Meta Platforms, Inc.에 따라 라이선스가 부여됩니다. All Rights Reserved. 사용자의 이 기능 사용에는 Meta의 사용 제한 정책 이 적용됩니다.
입력 및 출력의 데이터 분류는 다음 테이블과 같습니다.
입력 데이터 분류 |
출력 데이터 분류 |
지정 |
---|---|---|
Usage Data |
Usage Data |
Preview AI Features [1] |
자세한 내용은 Snowflake AI 및 ML 섹션을 참조하십시오.