예 및 빠른 시작¶
이 항목에는 Snowflake ML 에서 모델 로그 및 모델 추론에 대한 일반적인 사용 사례에 대한 몇 가지 예와 빠른 시작이 포함되어 있습니다. 이러한 예시를 자신만의 사용 사례를 위한 출발점으로 사용할 수 있습니다.
초보자 빠른 시작¶
Snowflake ML 시작하기: xgboost 회귀 모델을 학습시키고 Model Registry에 로깅하고 웨어하우스에서 추론을 실행합니다.
xgboost 모델, Snowpark Container Services의 CPU 추론¶
이 코드는 Snowpark Container Services(SPCS)에서XGBoost 모델을 배포한 다음 배포된 모델을 추론에 사용하는 핵심 단계를 보여줍니다.
사용자 지정 전처리 및 모델 학습으로 파이프라인 로그하기¶
이 예에서는 다음 방법을 설명합니다.
특성 공학 수행하기
사용자 지정 전처리 단계와 xgboost 예측 모델을 사용하여 파이프라인 학습시키기
하이퍼 매개 변수 최적화 실행하기
최적의 파이프라인 로깅하기
웨어하우스 또는 Snowpark Container Services(SPCS)에서 추론 실행하기
대규모 오픈 소스 임베딩 모델, GPU 추론¶
이 예에서는 Container Runtime의 Snowflake Notebook을 사용하여 Hugging Face sentence_transformer
라이브러리에서 대규모 임베딩 모델을 학습시키고 Snowpark Container Services(SPCS)에서 GPU를 사용하여 대규모 예측을 실행합니다.
분산된 PyTorch 추천자 모델, GPU 추론으로 전체 파이프라인 완성하기¶
이 예에서는 GPU를 사용하여 엔드투엔드 분산 Pytorch 추천 모델을 구축하고, GPU 추론용 모델을 Snowpark Container Services(SPCS)에 배포하는 방법을 보여줍니다.
외부에서 학습된 기존 모델(예: AWS Sagemaker/Azure ML/GCP Vertex AI)을 Snowflake로 가져옵니다.¶
이 예에서는 AWS Sagemaker, Azure ML 또는 GCP Vertex AI 의 기존 모델을 Snowflake로 가져오는 방법을 보여줍니다(자세한 내용은 블로그 게시물 참조).
MLFlow PyFunc 모델을 Snowflake로 가져오기¶
이 예에서는 Snowflake Model Registry에 MLFlow PyFunc 모델을 로깅하고 추론을 실행하는 방법을 보여줍니다.
학습 및 추론을 위해 분할된 예측 모델을 로그에 기록하기¶
이 예에서는 Snowflake에서 분할된 학습 및 추론을 실행하기 위해 예측 모델을 로깅하는 방법을 보여줍니다.
분할된 추론을 대규모로 실행하기 위해 많은 모델을 컬렉션으로 로깅하기¶
이 예에서는 분산 파티션 추론을 실행하기 위해 수천 개의 모델을 사용자 지정 파티션 모델로 로깅하는 방법을 보여줍니다.