예 및 빠른 시작

이 항목에는 Snowflake ML 에서 모델 로그 및 모델 추론에 대한 일반적인 사용 사례에 대한 몇 가지 예와 빠른 시작이 포함되어 있습니다. 이러한 예시를 자신만의 사용 사례를 위한 출발점으로 사용할 수 있습니다.

초보자 빠른 시작

Snowflake ML 시작하기: xgboost 회귀 모델을 학습시키고 Model Registry에 로깅하고 웨어하우스에서 추론을 실행합니다.

빠른 시작

xgboost 모델, Snowpark Container Services의 CPU 추론

이 코드는 Snowpark Container Services(SPCS)에서XGBoost 모델을 배포한 다음 배포된 모델을 추론에 사용하는 핵심 단계를 보여줍니다.

예시

사용자 지정 전처리 및 모델 학습으로 파이프라인 로그하기

이 예에서는 다음 방법을 설명합니다.

  • 기능 공학 수행하기

  • 사용자 지정 전처리 단계와 xgboost 예측 모델을 이용해 파이프라인 학습시키기

  • 하이퍼 매개 변수 최적화 실행하기

  • 최적의 파이프라인 로깅하기

  • 웨어하우스 또는 Snowpark Container Services(SPCS)에서 추론 실행하기

Notebook 예

Snowpark Container Services에서 Model Serving 시작하기

이 예에서는 다음 방법을 설명합니다.

  • Snowflake Model Registry를 사용하여 모델을 학습시키고, 등록하고, 버전 지정하기

  • Snowpark Container Services에서 모델을 서비스로 배포하기

  • 키 페어와 프로그래밍 방식 액세스 토큰(PAT) 인증을 모두 사용하는 REST API를 통해 배포된 모델 엔드포인트에 액세스하기

`빠른 시작<https://quickstarts.snowflake.com/guide/snowpark-container-services-model-serving-guide/index.html?index=..%2F..index#0>`__

대규모 오픈 소스 임베딩 모델, GPU 추론

이 예에서는 Container Runtime의 Snowflake Notebook을 사용하여 Hugging Face sentence_transformer 라이브러리에서 대규모 임베딩 모델을 학습시키고 Snowpark Container Services(SPCS)에서 GPU를 사용하여 대규모 예측을 실행합니다.

`빠른 시작<https://quickstarts.snowflake.com/guide/scale-embeddings-with-snowflake-notebooks-on-container-runtime/index.html?index=..%2F..index#0>`__

분산된 PyTorch 추천자 모델, GPU 추론으로 전체 파이프라인 완성하기

이 예에서는 GPU를 사용하여 엔드투엔드 분산 Pytorch 추천 모델을 구축하고, GPU 추론용 모델을 Snowpark Container Services(SPCS)에 배포하는 방법을 보여줍니다.

`빠른 시작<https://quickstarts.snowflake.com/guide/getting-started-with-running-distributed-pytorch-models-on-snowflake/index.html?index=..%2F..index#0>`__

외부에서 학습된 기존 모델(예: AWS Sagemaker/Azure ML/GCP Vertex AI)을 Snowflake로 가져옵니다.

이 예에서는 AWS Sagemaker, Azure ML 또는 GCP Vertex AI 의 기존 모델을 Snowflake로 가져오는 방법을 보여줍니다(자세한 내용은 블로그 게시물 참조).

MLFlow PyFunc 모델을 Snowflake로 가져오기

이 예에서는 Snowflake Model Registry에 MLFlow PyFunc 모델을 로깅하고 추론을 실행하는 방법을 보여줍니다.

Example

학습 및 추론을 위해 분할된 예측 모델을 로그에 기록하기

이 예에서는 Snowflake에서 분할된 학습 및 추론을 실행하기 위해 예측 모델을 로깅하는 방법을 보여줍니다.

`빠른 시작<https://quickstarts.snowflake.com/guide/partitioned-ml-model/index.html?index=..%2F..index#0>`__

분할된 추론을 대규모로 실행하기 위해 많은 모델을 컬렉션으로 로깅하기

이 예에서는 분산 파티션 추론을 실행하기 위해 수천 개의 모델을 사용자 지정 파티션 모델로 로깅하는 방법을 보여줍니다.

`빠른 시작<https://quickstarts.snowflake.com/guide/many-model-inference-in-snowflake/#0>`__