27 janvier 2026 : estimer l’utilisation du jeton avec AI_COUNT_TOKENS (disponibilité générale)¶
AI_COUNT_TOKENS, une fonction d’aide Cortex AI qui aide les utilisateurs à estimer la consommation de jetons et à comprendre l’impact du contexte du prompt sur les coûts, est désormais disponible de manière générale. AI_COUNT_TOKENS prend en compte la fonction, le modèle LLM (le cas échéant), et toute entrée supplémentaire qui affecte le nombre de jetons, telle que les catégories/libellés pour les tâches de classification.
En général, l’utilisation des jetons augmente à mesure que les invites deviennent plus descriptives et plus complexes. Les invites minimales avec un contexte limité consomment moins de jetons, tandis qu’un contexte plus profond, des descriptions de tâches et des exemples augmentent le nombre de jetons. Avec AI_COUNT_TOKENS, les utilisateurs peuvent évaluer comment ces compromis affectent l’utilisation des jetons et donc le coût tout en développant leur charges de travail AI.
Cette capacité est particulièrement utile pour établir les meilleures pratiques autour des éléments suivants :
Quantité de contexte à inclure dans les invites
Lorsque des invites plus riches améliorent considérablement la précision
Lorsque les exemples valent le coût supplémentaire du jeton
Comment standardiser la conception des prompts dans les équipes et les charges de travail
Les fonctions prises en charge sont les suivantes :
Pour plus d’informations, voir AI_COUNT_TOKENS.