27. Januar 2026: Schätzen der Token-Nutzung mit AI_COUNT_TOKENS (Allgemeine Verfügbarkeit)¶
AI_COUNT_TOKENS, eine Cortex AI-Hilfsfunktion, die Benutzenden hilft, den Token-Verbrauch abzuschätzen und zu verstehen, wie sich der Eingabeaufforderungskontext auf die Kosten auswirkt, ist jetzt allgemein verfügbar. AI_COUNT_TOKENS berücksichtigt die Funktion, das LLM-Modell (falls zutreffend) und alle zusätzlichen Eingaben, die sich auf die Anzahl der Token auswirken, wie z. B. Kategorien/Bezeichnungen für Klassifizierungsaufgaben.
Im Allgemeinen erhöht sich die Token-Nutzung, da die Eingabeaufforderungen aussagekräftiger und komplexer werden. Minimale Eingabeaufforderungen mit eingeschränktem Kontext verbrauchen weniger Token, während tieferer Kontext, Aufgabenbeschreibungen und Beispiele die Anzahl der Token erhöhen. Durch AI_COUNT_TOKENS können Benutzende bewerten, wie sich diese Kompromisse auf die Token-Nutzung und damit auf die Kosten bei der Entwicklung ihrer AI-Workloads auswirken.
Diese Funktion ist besonders nützlich, um bewährte Verfahren in folgenden Bereichen zu evaluieren:
Wie viel Kontext in Eingabeaufforderungen aufgenommen werden soll
Wenn umfangreichere Eingabeaufforderungen die Genauigkeit erheblich verbessern
Wenn Beispiele die zusätzlichen Kosten für Token wert sind
Wie Sie das Design von Eingabeaufforderungen über Teams und Workloads hinweg am besten standardisieren können
Folgende Funktionen werden unterstützt:
Weitere Informationen dazu finden Sie unter AI_COUNT_TOKENS.