Pipeline Hugging Face¶
Le registre des modèles de Snowflake prend en charge tout modèle de Hugging Face défini comme transformateur qui peut être chargé avec la méthode transformers.Pipeline.
Utilisez l’une des méthodes suivantes pour connecter un modèle Hugging Face au registre des modèles :
Importez et déployez un modèle depuis Hugging Face à l’aide de Snowsight. Consultez Importer et déployer des modèles à partir d’un service externe pour obtenir des instructions.
Créez une instance
snowflake.ml.model.models.huggingface.TransformersPipelineet appelezlog_model():Important
Si vous ne spécifiez pas un argument
compute_pool_for_log, le modèle est enregistré en utilisant le pool de calcul CPU par défaut.Si vous spécifiez un argument
compute_pool_for_log, le modèle est enregistré en utilisant le pool de calcul spécifié.Si vous spécifiez l’argument
compute_pool_for_logsur Aucun, les fichiers de modèle sont téléchargés localement, puis chargés dans le registre des modèles. Cela nécessite d’installer huggingface-hub.
Chargez le modèle à partir de Hugging Face en mémoire et connectez-le au registre des modèles :
Si vous utilisez Snowflake Notebooks, afin de télécharger les poids du modèle, vous devez disposer d’une intégration d’accès externe attachée à votre notebook. Cette intégration est nécessaire pour permettre la sortie vers les hôtes suivants :
huggingface.cohub-ci.huggingface.cocdn-lfs-us-1.hf.cocdn-lfs-eu-1.hf.cocdn-lfs.hf.cotransfer.xethub.hf.cocas-server.xethub.hf.cocas-bridge.xethub.hf.c
Note
Cette liste d’hôtes ne comprend que ceux requis pour accéder à Hugging Face et peut changer à tout moment. Votre modèle peut nécessiter des artefacts provenant d’autres sources, qui doivent être ajoutés à la règle réseau comme autorisés pour la sortie.
L’exemple suivant crée une nouvelle intégration d’accès externe huggingface_network_rule pour l’utilisation avec un notebook :
Pour plus d’informations, voir Création et utilisation d’une intégration d’accès externe.
Une fois votre intégration d’accès externe créée, attachez-la à votre notebook et accédez au référentiel de modèles Hugging Face pour télécharger les poids et les configurations du modèle. Pour plus d’informations, voir Configurer l’accès externe pour Snowflake Notebooks.
API de registre de modèles¶
Lorsque vous appelez log_model(), le dictionnaire options prend en charge les clés suivantes :
Clé d’option |
Description |
Type |
|---|---|---|
|
Une liste des méthodes disponibles sur l’objet modèle. Les modèles Hugging Face utilisent la méthode |
|
|
La version de l’environnement d’exécution CUDA à utiliser lors du déploiement sur une plateforme avec un GPU. Si elle est définie sur |
|
Le registre des modèles déduit l’argument signatures si le pipeline contient une tâche de la liste suivante :
question-answering (sortie unique, plusieurs sorties)
text-classification (sortie unique, sorties multiples)
sentiment-analysis (sortie unique, sorties multiples)
translation_xx_to_yy, où
xxetyysont des codes de pays à deux lettres définis dans l’ISO 3166-1 alpha-2
Note
Les noms des tâches sont sensibles à la casse.
L’argument sample_input_data de log_model est complètement ignoré pour les modèles Hugging Face. Spécifiez l’argument signatures lors de l’enregistrement d’un modèle Hugging Face qui ne figure pas dans la liste précédente afin que le registre connaisse les signatures des méthodes cibles.
Pour voir la signature déduite, appelez la méthode show_functions(). Cette signature vous donne les types et les noms de colonnes requis pour l’entrée de la fonction de modèle, ainsi que le format de sa sortie. L’exemple suivant montre la signature du modèle bigscience/bloom-560m avec une tâche de text-generation :
L’exemple suivant montre comment invoquer un modèle à l’aide de la signature précédente :
Notes sur l’utilisation¶
De nombreux modèles Hugging Face sont de grande taille et ne rentrent pas dans un entrepôt standard. Utilisez un entrepôt optimisé pour Snowpark ou choisissez une version plus petite du modèle. Par exemple, une alternative à l”
Llama-2-70b-chat-hfle modèle estLlama-2-7b-chat-hf.Les entrepôts Snowflake n’ont pas de GPUs. N’utilisez que des modèles Hugging Face optimisés CPU.
Certains transformateurs Hugging Face renvoient un tableau de dictionnaires par ligne d’entrée. Le registre des modèles convertit ce tableau de dictionnaires en une chaîne contenant une représentation JSON du tableau. Par exemple, la sortie questions-réponses multi-sorties se présente comme suit :
Exemple¶
Résultat :
Signatures déduites pour les pipelines Hugging Face¶
Cette section décrit les signatures déduites des pipelines Hugging Face pris en charge, y compris une description et un exemple des entrées requises et des sorties attendues. Toutes les entrées et les sorties sont des DataFrames Snowpark.
Pipeline Fill-mask¶
Un pipeline dont la tâche est « fill-mask » a les entrées et sorties suivantes.
Entrées¶
inputs: une chaîne où il y a un masque à remplir.
Exemple :
Sorties¶
outputs: une chaîne contenant une représentation JSON d’une liste d’objets de résultat, chacun pouvant contenir des clés telles quescore,token,token_str, ousequence. Pour plus de détails, voir FillMaskPipeline.
Exemple :
Exemple de code¶
Classification de jetons¶
Un pipeline dont la tâche est « ner » ou token-classification » présente les entrées et sorties suivantes.
Entrées¶
inputs: une chaîne contenant les jetons à classer.
Exemple :
Sorties¶
outputs: une chaîne contenant une représentation JSON d’une liste d’objets de résultat, chacun pouvant contenir des clés telles queentity,score,index,word,name,start, ouend. Pour plus de détails, voir TokenClassificationPipeline.
Exemple :
Exemple de code¶
Réponse aux questions (sortie unique)¶
Un pipeline dont la tâche est « question-answering », où top_k est soit non défini, soit défini sur 1, a les entrées et sorties suivantes.
Entrées¶
question: une chaîne contenant la question à laquelle il faut répondre.context: une chaîne qui peut contenir la réponse.
Exemple :
Sorties¶
score: score de confiance en virgule flottante comprise entre 0,0 et 1,0.start: indice entier du premier jeton de la réponse dans le contexte.end: indice entier du dernier jeton de la réponse dans le contexte original.answer: une chaîne contenant la réponse trouvée.
Exemple :
Exemple de code¶
Réponse aux questions (sorties multiples)¶
Un pipeline dont la tâche est « question-answering », où top_k est défini et est supérieur à 1, a les entrées et sorties suivantes.
Entrées¶
question: une chaîne contenant la question à laquelle il faut répondre.context: une chaîne qui peut contenir la réponse.
Exemple :
Sorties¶
outputs: une chaîne contenant une représentation JSON d’une liste d’objets de résultat, chacun pouvant contenir des clés telles quescore,start,end, ouanswer.
Exemple :
Exemple de code¶
Synthétisation¶
Un pipeline dont la tâche est « summarization », où return_tensors est False ou unset, a les entrées et sorties suivantes.
Entrées¶
documents: une chaîne contenant le texte à résumer.
Exemple :
Sorties¶
summary_text: une chaîne contenant soit le résumé généré, soit, sinum_return_sequencesest supérieur à 1, une chaîne contenant une représentation JSON d’une liste de résultats, chaque dictionnaire contenant des champs incluantsummary_text.
Exemple :
Exemple de code¶
Réponse aux questions sur les tables¶
Un pipeline dont la tâche est « table-question-answering » a les entrées et sorties suivantes.
Entrées¶
query: une chaîne contenant la question à laquelle il faut répondre.table: une chaîne contenant un dictionnaire sérialisé JSON sous la forme{column -> [values]}représentant la table pouvant contenir une réponse.
Exemple :
Sorties¶
answer: une chaîne contenant une réponse possible.coordinates: une liste d’entiers représentant les coordonnées des cellules où se trouve la réponse.cells: une liste de chaînes contenant le contenu des cellules où se trouve la réponse.aggregator: une chaîne contenant le nom de l’agrégateur utilisé.
Exemple :
Exemple de code¶
Classification de textes (sortie unique)¶
Un pipeline dont la tâche est « text-clasification » ou « sentiment-analysis », où top_k n’est pas défini ou est « None », a les entrées et sorties suivantes.
Entrées¶
text: une chaîne à classer.text_pair: une chaîne à classer avectext, utilisée avec les modèles qui calculent la similarité des textes. Laissez vide si le modèle ne l’utilise pas.
Exemple :
Sorties¶
label: une chaîne représentant le libellé de classification du texte.score: un score de confiance en virgule flottante compris entre 0,0 et 1,0.
Exemple :
Exemple de code¶
Classification de textes (sorties multiples)¶
Un pipeline dont la tâche est « text-clasification » ou « sentiment-analysis », où top_k est défini comme un nombre, a les entrées et sorties suivantes.
Note
Une tâche de classification de texte est considérée comme à sorties multiples si top_k est défini comme un nombre quelconque, même si ce nombre est 1. Pour obtenir une sortie unique, utilisez la valeur None pour top_k.
Entrées¶
text: une chaîne à classer.text_pair: une chaîne à classer avectext, utilisée avec les modèles qui calculent la similarité des textes. Laissez vide si le modèle ne l’utilise pas.
Exemple :
Sorties¶
outputs: une chaîne contenant une représentation JSON d’une liste de résultats, dont chacun contient des champs comprenantlabeletscore.
Exemple :
Exemple de code¶
Génération de texte à texte¶
Un pipeline dont la tâche est « text2text-generation », où return_tensors est False ou non défini, a les entrées et sorties suivantes.
Entrées¶
inputs: une chaîne qui contient une invite.
Exemple :
Sorties¶
generated_text : une chaîne contenant le texte généré si
num_return_sequencesvaut 1, ou si num_return_sequences est supérieur à 1, une représentation sous forme de chaîne d’une liste JSON de dictionnaires de résultats contenant des champs incluantgenerated_text.
Exemple :
Exemple de code¶
Note
Les pipelines de génération de texte à texte où return_tensors est True ne sont pas pris en charge.
Génération de traductions¶
Un pipeline dont la tâche est « translation », où return_tensors est False ou unset, a les entrées et sorties suivantes.
Note
Les pipelines de génération de traductions pour lesquels return_tensors est True ne sont pas pris en charge.
Entrées¶
inputs: une chaîne contenant le texte à traduire.
Exemple :
Sorties¶
translation_text: une chaîne représentant la traduction générée sinum_return_sequencesest 1, ou une chaîne représentant une liste JSON de dictionnaires de résultats, chacun contenant des champs incluanttranslation_text.
Exemple :
Exemple de code¶
Classification Zero-shot¶
Un pipeline dont la tâche est « zero-shot-classification » a les entrées et sorties suivantes.
Entrées¶
sequences: chaîne contenant le texte à classer.candidate_labels: une liste de chaînes contenant les libellés à appliquer au texte.
Exemple :
Sorties¶
sequence: la chaîne d’entrée.labels: une liste de chaînes représentant les libellés qui ont été appliqués.scores: une liste de scores de confiance en virgule flottante pour chaque libellé.
Exemple :
Génération de texte¶
Un pipeline dont la tâche est « text-generation », où return_tensors est False ou non défini, a les entrées et sorties suivantes.
Note
Les pipelines de génération de texte pour lesquels return_tensors est True ne sont pas pris en charge.
Entrées¶
inputs: une chaîne qui contient une invite.
Exemple :
Sorties¶
outputs: une chaîne contenant une représentation JSON d’une liste d’objets de résultats, chacun d’entre eux contenant des champs dontgenerated_text.
Exemple :
Exemple de code¶
Génération de texte (compatible avec OpenAI)¶
Un pipeline dont la tâche est « text-generation », où return_tensors est False ou non défini, a les entrées et sorties suivantes.
En fournissant la signature snowflake.ml.model.openai_signatures.OPENAI_CHAT_SIGNATURE, lors de la journalisation du modèle, le modèle sera compatible avec l’API OpenAI. Cela permet aux utilisateurs de transmettre des requêtes de style openai.client.ChatCompletion au modèle.
Note
Les pipelines de génération de texte pour lesquels return_tensors est True ne sont pas pris en charge.
Entrées¶
messages: une liste de dictionnaires contenant les messages à envoyer au modèle.max_completion_tokens: Le nombre maximal de jetons à générer.temperature: La température à utiliser pour la génération.stop: La séquence d’arrêt à utiliser pour la génération.n: Le nombre de générations à produire.stream: Indique s’il convient de diffuser la génération.top_p: La valeur p supérieure à utiliser pour la génération.frequency_penalty: La pénalité de fréquence à utiliser pour la génération.presence_penalty: La pénalité de présence à utiliser pour la génération.
Exemple :
Sorties¶
outputs: une chaîne contenant une représentation JSON d’une liste d’objets de résultats, chacun d’entre eux contenant des champs dontgenerated_text.
Exemple :