27 de janeiro de 2026: estimar o uso de token com AI_COUNT_TOKENS (disponibilidade geral)¶
AI_COUNT_TOKENS, uma função auxiliar do Cortex AI, que ajuda os usuários a estimar o consumo de tokens e entender como o contexto do prompt afeta o custo, agora está em disponibilidade geral. AI_COUNT_TOKENS leva em conta a função, o modelo LLM (se aplicável) e quaisquer entradas adicionais que afetem a contagem de tokens, como categorias/rótulos para tarefas de classificação.
Em geral, o uso de tokens aumenta à medida que os prompts se tornam mais descritivos e complexos. Prompts mínimos com contexto limitado consomem menos tokens, enquanto um contexto mais profundo, descrições de tarefas e exemplos aumentam a contagem de tokens. Com AI_COUNT_TOKENS, os usuários podem avaliar como esses prós e contras afetam o uso do token e, portanto, o custo ao desenvolver as cargas de trabalho de AI.
Essa capacidade é especialmente útil para estabelecer as práticas recomendadas em relação a:
Quanto contexto incluir nos prompts
Quando prompts mais enriquecidos melhoram significativamente a precisão
Quando os exemplos compensam o custo adicional de token
Como é melhor padronizar o esquema dos prompts entre equipes e cargas de trabalho
As funções compatíveis incluem:
Para obter mais informações, consulte AI_COUNT_TOKENS.