Falsche Negative
.webp)
Ergebnis eines statistischen Tests, bei dem es nicht gelingt, einen tatsächlichen Effekt zu erkennen, indem fälschlicherweise geschlussfolgert wird, dass es keinen signifikanten Unterschied zwischen zwei Varianten gibt, obwohl ein solcher vorhanden ist. Im Zusammenhang mit CRO undA/B-Testing kann ein falsch negatives Ergebnis dazu führen, dass eine Variation, die eigentlich gut abschneidet, abgelehnt wird, nur weil dem Test die Power fehlte (z. B.: Stichprobe zu klein, Dauer nicht ausreichend, MDE zu niedrig).
Falsche Negative werden häufig falschen Positiven gegenübergestellt, die ihrerseits fälschlicherweise einen Effekt als signifikant ausweisen, obwohl er es nicht ist. Das Gleichgewicht zwischen diesen beiden Fehlern hängt von den gewählten statistischen Parametern (Konfidenzniveau, Power) ab und muss sorgfältig kalibriert werden, um Fehlentscheidungen in Optimierungstests zu vermeiden.