2024년 7월 24일 — Cortex Guard for Snowflake Cortex AI — 일반 공급

Snowflake는 기업에서 잠재적으로 부적절하거나 안전하지 않은 대규모 언어 모델(LLM) 응답을 걸러내는 안전장치를 손쉽게 구현할 수 있는 새로운 기능인 Cortex Guard for Snowflake Cortex AI를 일반 공급으로 제공합니다. Cortex Guard는 폭력 범죄, 혐오, 성적 콘텐츠, 자해 등 유해 콘텐츠와 관련된 언어 모델 응답을 자동으로 필터링할 수 있도록 COMPLETE 함수에 대한 호출에서 지정할 수 있는 새로운 안전 필터를 도입합니다. Snowflake는 기업이 엔드투엔드 생성형 AI 애플리케이션 개발 프로세스에 안전장치를 원활하게 도입할 수 있도록 지원하기 위해 생성형 AI 플랫폼의 차세대 버전인 Cortex Guard를 선보입니다.

이 기능을 사용하는 방법에 대한 자세한 내용은 Cortex Guard 를 참조하십시오.