Confiance statistique
.webp)
Niveau de certitude que l’on a dans les résultats d’un test statistique. Elle est généralement exprimée en pourcentage, par exemple 95 %, ce qui signifie que si l’on répétait le test un grand nombre de fois dans les mêmes conditions, 95 % des tests mèneraient à la même conclusion. C’est une notion centrale dans les analyses fréquentistes, utilisées dans la majorité des outils d’A/B testing classiques.
En approche fréquentiste :
- La confiance statistique est liée à la probabilité de rejeter à tort l’hypothèse nulle (risque d’erreur de type I).
- Un niveau de confiance de 95 % correspond à un seuil de signification (p-value) de 0,05.
- Cela indique qu’on accepte au maximum 5 % de chances que la différence observée soit due au hasard.
Exemple : Si la variation B a une confiance statistique de 96 %, on considère qu’elle surperforme significativement la version A avec une marge d’erreur inférieure à 4 %.
En approche bayésienne :
- On parle plutôt de probabilité qu’une variation soit meilleure que l’autre (ex. : "la variation B a 92 % de chances d’être supérieure à A").
- Il ne s’agit pas d’un test de rejet, mais d’une estimation directe de la probabilité d’un gain réel.
- Cette approche est souvent plus intuitive pour les équipes métier, mais dépend plus fortement des priors (hypothèses de départ).
En CRO :
Quel que soit le cadre choisi, la confiance statistique est essentielle pour :
- valider les résultats d’un test A/B,
- limiter les faux positifs (effets dus au hasard),
- prendre des décisions éclairées sur la base de données fiables.
Attention : une confiance statistique élevée ne garantit pas un impact business significatif. Elle doit être croisée avec d’autres indicateurs (uplift, taille d’échantillon, valeur incrémentale) pour guider une décision d’implémentation.