<nom_du_modèle>!SHOW_THRESHOLD_METRICS¶
Renvoie les chiffres bruts et les métriques pour un seuil spécifique pour chaque classe dans les modèles où l’évaluation a été activée lors de l’instanciation. Cette méthode ne prend aucun argument. Voir Métriques dans show_threshold_metrics.
Sortie¶
Colonne |
Type |
Description |
---|---|---|
|
Nom de l’ensemble de données utilisé pour le calcul des métriques, actuellement EVAL. |
|
|
Classe prévue. Chaque classe a son propre ensemble de mesures, qui sont fournies sur plusieurs lignes. |
|
|
Seuil utilisé pour générer des prédictions. |
|
|
Précision pour la classe donnée. Rapport entre le nombre de vrais positifs et le nombre total de positifs prédits. |
|
|
Rappel pour la classe donnée. Également appelé « sensibilité ». Rapport entre les vrais positifs et le total des positifs réels. |
|
|
Score F1 pour la classe donnée. |
|
|
Taux de vrais positifs pour la classe donnée. |
|
|
Taux de faux positifs pour la classe donnée. |
|
|
Nombre total de vrais positifs dans la classe donnée. |
|
|
Nombre total de faux positifs dans la classe donnée. |
|
|
Nombre total de vrais négatifs dans la classe donnée. |
|
|
Nombre total de faux négatifs dans la classe donnée. |
|
|
Précision (rapport entre les prédictions correctes, positives et négatives, et le nombre total de prédictions) pour la classe donnée. |
|
|
Prise en charge (vrais positifs plus faux négatifs) pour la classe donnée. |
|
|
Contient des messages d’erreur ou d’avertissement. |