Métriques d’Évaluation

Le module metrics agrège les résultats de scoring individuels pour produire un rapport de performance global.

Rôle

La classe EvaluationMetrics prend une liste de ScoreResult et calcule des statistiques agrégées pour donner une vue d’ensemble de la performance du pipeline sur le jeu de données.

Fonctionnalités

  • Calcule des métriques sommaires (nombre d’items identiques, différents, en erreur).

  • Calcule un taux de concordance parfaite (accuracy).

  • Fournit une analyse fine des différences :
    • Nombre total de différences atomiques.

    • Nombre moyen de différences par item incorrect.

    • Distribution des erreurs (ex: « 5 items avec 1 différence, 2 items avec 3 différences »).

  • Affiche un rapport textuel complet et lisible dans la console.

Module

class src.smart_watch.evaluate.metrics.EvaluationMetrics(results: List[ScoreResult])[source]

Bases : object

Calcule et affiche les métriques d’évaluation à partir d’une liste de scores.

__init__(results: List[ScoreResult]) None[source]

Initialise les métriques d’évaluation avec une liste de résultats.

calculate_metrics() dict[source]

Calcule un ensemble de métriques de performance.

display() None[source]

Affiche un rapport complet des métriques.