G
Statistiken

Falsche Positive

Ergebnis eines statistischen Tests, das fälschlicherweise anzeigt, dass ein Effekt signifikant ist, obwohl er es in Wirklichkeit nicht ist. Im Rahmen von CRO undA/B-Testing kann ein falsches positives Ergebnis dazu führen, dass eine unwirksame Variation validiert wird, was wiederum zu kontraproduktiven Entscheidungen führen kann (z. B. die allgemeine Verbreitung einer Version, die keinen wirklichen Gewinn bringt).

Falsch positive Ergebnisse hängen mit dem für einen Test gewählten Konfidenzniveau (häufig 95 %) zusammen: Es besteht immer eine Wahrscheinlichkeit (z. B. 5 %), dass man auf einen lediglich zufällig entstandenen Unterschied schließt. Dieses Phänomen ist umso kritischer, wenn viele Tests gleichzeitig durchgeführt werden, ohne dass die Rate der falsch positiven Ergebnisse kontrolliert wird (z. B. via Bonferroni-Korrektur oder False Discovery Test).

Falsch-positive Fehler sind das Gegenteil von falsch-negativen Fehlern, die ihrerseits einen tatsächlich vorhandenen Effekt verpassen. Das richtige Gleichgewicht zwischen diesen beiden Arten von Fehlern zu finden, ist entscheidend für zuverlässige Experimente und eine solide CRO-Strategie.

Tauschen Sie sich mit einem Welyft-Experten aus

Die Data-Marketing-Agentur, die den ROI Ihrer Customer Journeys steigert

Termin vereinbaren
Teilen Sie diesen Artikel auf

Erzählen Sie uns mehr über Ihr Projekt

Wir wissen, wie Sie die Leistung Ihrer digitalen Kanäle steigern können.
CRO
Data
User Research
Experimente
Kontaktieren Sie uns