G
Statistiques

Faux Positifs

Résultat d’un test statistique qui indique à tort qu’un effet est significatif, alors qu’il ne l’est pas réellement. Dans le cadre du CRO et de l’A/B testing, un faux positif peut conduire à valider une variation inefficace, ce qui risque d’entraîner des décisions contre-productives (ex. : généralisation d’une version qui n’apporte aucun gain réel).

Les faux positifs sont liés au niveau de confiance choisi pour un test (souvent 95 %) : il y a toujours une probabilité (ex. : 5 %) de conclure à une différence simplement due au hasard. Ce phénomène est d’autant plus critique si l’on mène de nombreux tests simultanément, sans contrôle du taux de faux positifs (ex. : via correction de Bonferroni ou test de fausse découverte).

Les faux positifs sont l’inverse des faux négatifs, qui, eux, ratent un effet réellement présent. Trouver le bon équilibre entre ces deux types d’erreurs est essentiel pour des expérimentations fiables et une stratégie CRO solide.

Échangez avec un expert Welyft

L'agence Data-Marketing qui booste le ROI de vos parcours clients

Prendre rendez-vous
Partager cet article sur

Dites-nous en plus de votre projet

Nous savons comment augmenter la performance de vos canaux digitaux.
CRO
Data
User Research
Expérimentation
Nous contacter