27. Januar 2026: Schätzen der Token-Nutzung mit AI_COUNT_TOKENS (Allgemeine Verfügbarkeit)

AI_COUNT_TOKENS, eine Cortex AI-Hilfsfunktion, die Benutzenden hilft, den Token-Verbrauch abzuschätzen und zu verstehen, wie sich der Eingabeaufforderungskontext auf die Kosten auswirkt, ist jetzt allgemein verfügbar. AI_COUNT_TOKENS berücksichtigt die Funktion, das LLM-Modell (falls zutreffend) und alle zusätzlichen Eingaben, die sich auf die Anzahl der Token auswirken, wie z. B. Kategorien/Bezeichnungen für Klassifizierungsaufgaben.

Im Allgemeinen erhöht sich die Token-Nutzung, da die Eingabeaufforderungen aussagekräftiger und komplexer werden. Minimale Eingabeaufforderungen mit eingeschränktem Kontext verbrauchen weniger Token, während tieferer Kontext, Aufgabenbeschreibungen und Beispiele die Anzahl der Token erhöhen. Durch AI_COUNT_TOKENS können Benutzende bewerten, wie sich diese Kompromisse auf die Token-Nutzung und damit auf die Kosten bei der Entwicklung ihrer AI-Workloads auswirken.

Diese Funktion ist besonders nützlich, um bewährte Verfahren in folgenden Bereichen zu evaluieren:

  • Wie viel Kontext in Eingabeaufforderungen aufgenommen werden soll

  • Wenn umfangreichere Eingabeaufforderungen die Genauigkeit erheblich verbessern

  • Wenn Beispiele die zusätzlichen Kosten für Token wert sind

  • Wie Sie das Design von Eingabeaufforderungen über Teams und Workloads hinweg am besten standardisieren können

Folgende Funktionen werden unterstützt:

Weitere Informationen dazu finden Sie unter AI_COUNT_TOKENS.