Faux Positifs
.webp)
Résultat d’un test statistique qui indique à tort qu’un effet est significatif, alors qu’il ne l’est pas réellement. Dans le cadre du CRO et de l’A/B testing, un faux positif peut conduire à valider une variation inefficace, ce qui risque d’entraîner des décisions contre-productives (ex. : généralisation d’une version qui n’apporte aucun gain réel).
Les faux positifs sont liés au niveau de confiance choisi pour un test (souvent 95 %) : il y a toujours une probabilité (ex. : 5 %) de conclure à une différence simplement due au hasard. Ce phénomène est d’autant plus critique si l’on mène de nombreux tests simultanément, sans contrôle du taux de faux positifs (ex. : via correction de Bonferroni ou test de fausse découverte).
Les faux positifs sont l’inverse des faux négatifs, qui, eux, ratent un effet réellement présent. Trouver le bon équilibre entre ces deux types d’erreurs est essentiel pour des expérimentations fiables et une stratégie CRO solide.