Statistiques globales
Performance agrégée du modèle Dixon-Coles sur la saison 2024-25 (Big 5, 3060 matchs prédits).
Précision par championnat
Comparaison modèle vs marché (cotes football-data closing-avg). Validation ADR-011 : modèle dans ±3 % du marché sur les 5 championnats — confirmé en gros sur le tableau ci-dessous. Log-loss et Brier mesurent la qualité de calibration : plus bas = mieux. Référence pure-hasard sur 1X2 : log-loss ≈ 1.099, Brier ≈ 0.667.
| Championnat | N | Acc. Modèle | Acc. Marché | Écart | Log-loss | Brier |
|---|---|---|---|---|---|---|
| Big 5 (toutes) | 3060 | 52.6% | 54.5% | -1.9 pt | 0.9956 | 0.5939 |
| Ligue 1 | 568 | 54.9% | 55.6% | -0.7 pt | 0.9864 | 0.5869 |
| Premier League | 665 | 49.8% | 53.4% | -3.6 pt | 1.0206 | 0.6123 |
| La Liga | 657 | 53.1% | 55.6% | -2.4 pt | 0.9815 | 0.5828 |
| Serie A | 666 | 53.5% | 53.3% | +0.2 pt | 0.9912 | 0.5927 |
| Bundesliga | 504 | 51.8% | 54.8% | -3.0 pt | 0.9973 | 0.5934 |
Calibration 1X2
Une probabilité est bien calibréesi, quand le modèle dit 70 %, l'événement arrive vraiment ~70 % du temps. Chaque point bleu représente un bin de 10 % de proba prédite ; la taille du point est proportionnelle au nombre de matchs dans ce bin (label n=...). La diagonale pointillée = calibration parfaite.
- Au-dessus de la diagonale : modèle sous-confiant (réalité dépasse la proba prédite).
- Sur la diagonale : calibration parfaite.
- En-dessous : modèle sur-confiant (proba prédite plus haute que la fréquence réelle).
Distribution des erreurs sur les matchs prédits
Pour chaque match, on calcule un score d'erreur : log-loss (= -ln de la proba modèle au résultat réel) et Brier 1X2(= somme des écarts proba/indicateur au carré). Plus le score est bas, mieux le modèle a prédit. La ligne pointillée marque le score d'un modèle pur-hasard ; tout ce qui est à gauche = mieux que le hasard.
Log-loss par match
Brier 1X2 par match
Lecture : la queue droite (log-loss > 2 ou Brier > 1) regroupe les vraies surprises de la saison. Tu peux les trouver via le leaderboarddans la section "Le modèle s'est trompé".
Top/flop équipes prédites
Pour chaque équipe ayant joué au moins 20 matchs prédits sur la saison 2024-25, on calcule le log-loss moyen et le Brier moyen sur leurs matchs. Une équipe avec un log-loss bas est bien modélisée par Dixon-Coles ; une équipe avec un log-loss haut surperforme ou sous-performe ses fondamentaux (équipe en reconstruction, joueurs clés blessés en série, dynamique imprévue, etc.). C'est précisément le genre de signal contextuel que le baseline N1 ignore — voir les niveaux N2/N3 dans la méthodologie.
Top 5 — équipes les mieux modélisées
Log-loss moyen le plus bas. Le modèle sait à quoi s'attendre quand elles jouent.
| # | Équipe | Comp. | N | Acc. | Log-loss | Brier |
|---|---|---|---|---|---|---|
| 1 | Barcelona | SP1 | 69 | 74% | 0.713 | 0.394 |
| 2 | Southampton | E0 | 36 | 83% | 0.713 | 0.399 |
| 3 | Valladolid | SP1 | 36 | 78% | 0.716 | 0.398 |
| 4 | Bayern Munich | D1 | 61 | 77% | 0.719 | 0.387 |
| 5 | Paris SG | F1 | 65 | 74% | 0.751 | 0.430 |
Méthode
Toutes ces métriques sont calculées out-of-sample: le modèle a été entraîné sur les saisons 2020-21 → 2023-24 et testé sur 2024-25 qu'il n'avait jamais vue. Pour la définition complète et le rationale du critère de validation, voir la page méthodologie et l'ADR-011 dans le repo.