A/B Test im Online-Marketing: sinnvoll oder Zeitverschwendung?

A/B Test im Online-Marketing: sinnvoll oder Zeitverschwendung?

Moderne Tools machen die Durchführung von A/B-Tests kinderleicht. Doch genau hier liegt die Krux. Die wenigsten Experimente werden korrekt durchgeführt. Vielmehr locken sie Marketer auf die falsche Fährte. Kann ein A/B Test dennoch sinnvoll sein?

Was ist ein A/B Test?

Der A/B Test (auch bekannt unter A/B/n Test, AB Test, Split Test, ABTest, …) ist ein bewährtes Verfahren für direkte Leistungsvergleiche. Das Prinzip: Zwei verschiedene Varianten (z. B. Texte oder Grafiken) ausspielen und prüfen, welche besser performt. Beim “Gewinner” geht man davon aus, dass dieser den größten Erfolg verspricht.

Besonders verbreitet sind A/B Tests im E-Commerce, Advertising-Umfeld und E-Mail-Marketing. Doch mittlerweile werden Vergleichstests vermehrt auch im Content- und Inbound-Marketing eingesetzt. Vor allem aber in der Online-Werbung.

Wissenschaftlich betrachtet gehört es zu den sogenannten Feldexperimenten. Anders als in Laborexperimenten wird ein A/B Test nämlich unter realen Bedingungen durchgeführt. Er gilt unter Statistikern deshalb als Goldstandard.

Automatisierte A/B Tests

Speziell im E-Mail-Marketing und in der Online-Werbung laufen A/B Tests häufig weitgehend automatisiert: Der Gewinner eines abgeschlossenen Tests wird hier automatisch für die Kampagne verwendet. Zum Beispiel die Betreffzeile einer E-Mail im Rahmen eines Newsletter-Versands. Der Marketing Manager muss nicht aktiv eingreifen.

Überwachte A/B Tests

Am Ende eines überwachten Tests muss der Marketing Manager bzw. der Analyst entscheiden, ob der Gewinner genutzt wird oder zunächst weitere Tests mit neuen Varianten gefahren werden sollen. Überwachte Tests werden häufig auch vorzeitig abgebrochen.

Vorteile von A/B Tests

Ein A/B Test ist mit den entsprechenden Tools relativ “einfach” umsetzbar. Daraus resultiert jedoch auch ein großes Risiko: Falsch umgesetzte A/B Tests können ein Marketing Team mit einer Vielzahl irreführender “Erkenntnisse” fluten, die in der Folge zu falschen Entscheidungen führen. 

A/B Split Test
Quelle: vwo.com

Nachteile von A/B Tests

Conversion-Optimierung auf Basis von A/B Tests setzt voraus, dass ausreichend Daten genutzt werden können. Anders ausgedrückt: Je weniger Website Traffic, desto langwieriger und schwieriger sind aussagekräftige Experimente. 

Darüber hinaus ist der Weg hin zu einem brauchbaren Testergebnis gesäumt von Fallstricken. Nur wer die alle kennt und mit Widrigkeiten umgehen kann, ist vor Fehlschlüssen gewappnet.

Tipps für brauchbare A/B Tests

1) Achte auf ein gutes Testdesign!

Ohne korrekte Planung kaum brauchbare Testergebnisse. Lege deshalb viel Wert auf ein gut durchdachtes Testdesign. Dazu gehören Fragestellung nach der zu untersuchenden Einheit und dem zu untersuchenden Segment. Dazu kommt die Festlegung des angestrebten Uplifts, der statistischen Signifikanz und schließlich der Hypothese.

Statistische Signifikanz

Bei einem A/B Test sollte der Unterschied mehr als das Doppelte der Quadratwurzel der Gesamtmenge betragen. Beispiel:

A bringt 50.000 Klicks
B bringt 40.000 Klicks
Summe = 90.000
Differenz= 10.000

Die doppelte Quadratwurzel der Summe beträgt 600.
Die doppelte Quadratwurzel der Differenz beträgt 200.

600 > 200


Resultat: Das Ergebnis ist signifikant, d.h. der Test ist aussagefähig – und A ist der Gewinner.

Stichwort Segment: Experimente sind wenig aussagekräftig, wenn die Struktur der zu untersuchenden User heterogen ist. Du verkaufst, ähnlich wie amazon oder Netflix an alle möglichen Zielgruppen? Dann ist die Bildung von Segmenten unverzichtbar. Mehr zum Thema findest Du in diesem Artikel von Yaniv Navot: Segmented A/B tests: Avoiding average experiences

2) Überprüfe jedes Ergebnis!

Kausalität gibt es ohne Korrelation. Überprüfe das Ergebnis also immer auf weitere Einflussfaktoren. Lädt eine der Varianten langsamer? Gibt es Differenzen in den Wochentagen? Was ist mit wiederkehrenden Usern? Was ist mit Usern ohne Cookie Consent? Tatsächlich ist die Realität meistens viel komplexer als angenommen. 

3) Erspare Dir Tests für das eigene Ego!

A/B Tests sind nicht dazu da, eine Meinung durchzusetzen. Sie dienen allein dem Erkenntnisgewinn. Persönliches Ego und Bauchgefühl haben mit Data-Driven Marketing nichts zu tun.

4) Vermeide Risiken mittels Ramp-ups!

Ist die zu testenden Variante mit Risken verbunden? Dann macht es Sinn, sie vor dem eigentlichen Experiment innerhalb eines kleineren Segments zu testen.

5) Verändere eine Variation möglichst nur an einer Stelle!

Veränderst Du in der Variante sowohl eine Headline als auch eine Grafik, weißt Du am Ende nicht, was den möglichen Uplift verursacht hat. Zumal sich verschiedene Änderungen auch untereinander beeinflussen können. Teste deshalb möglichst immer nur kleine Änderungen, wenn Du etwas lernen möchtest. 

Vorsicht

A/B Tests kosten immer Geld. Ganz besonders schlechte Tests, welche potenzielle Kunden von einem Kauf abhalten. Du tust Dich schwer mit explorativer Statistik? Dann lass die Finger davon!

Tools für A/B Tests

Für die Optimierung von Webseiten, Shops und Apps wird eine Vielzahl spezieller Tools angeboten. Die Bekanntesten sind:

Diese Tools arbeiten jedoch nicht immer sauber. Vor allem dann nicht, wenn es im Rahmen des Set-ups und bei der Konfiguration zu Fehlern kommt. Und das passiert erstaunlich häufig. 

UX Research
Quelle: maze

Alternativen zum A/B Test

FSBO

Gemäß dem Pareto-Prinzip (80-20-Regel) lässt sich fast jede Websites und jeder Online-Shop auch ohne A/B Tests optimieren. Dazu werden offensichtliche Schwachstellen und Fehler identifiziert und behoben. 

Ein auf Pragmatismus setzende Verfahren nennt sich FBSFO (‘Fix broken shit first’ Optimization) und wurde 2021 von Rich Page erstmals erwähnt. Es bringt handfeste Vorteile mit sich:

  • Geschwindigkeit: FBSFO lässt sich ohne große Vorbereitungen umsetzen. Anders als korrekt durchgeführte Experimemte, für die schon mal einige Wochen investiert werden muss.
  • Unabhängig vom Trafficvolumen: FBSFO ist auch für minimales Traffic geeignet. Also perfekt für B2B-Organisationen und Startups, die nicht über Big Data verfügen.
  • Kosten: Ander als CRO ist FBSFO kein kontinuierlicher Prozess. Entsprechend sind die Kosten für Personal und Technologie auch deutlich geringer.
  • Sicherheit und Compliance: FBSFO stellt sicher, dass Webseiten und Shops sicher sind und Cookies korrekt setzen.

Das FBSFO-Verfahren ist jedoch ebenfalls nichts für Anfänger. Auch hier sind Skills aus den Bereichen Analytics, UX Design, UX Writing und Frontend Development unverzichtbar. 

Qualitative Erhebungen

Sofern das Budget es zulässt, sind natürlich auch qualitative Erhebungen eine Alternative zum A/B Test. Dazu wird insbesondere auf Einzelinterviews und Fokusgruppen zurückgegriffen. Quantitative Techniken hingegen sind mit Fragebögen verbunden, und ihr Ergebnis sind Online- oder Offline-Umfragen. Quantitative Techniken können auch Modelle beinhalten, die auf Big Data basieren.

Fazit

Aussagekräftige A/B Tests sind komplex - und nicht korrekt durchgeführte Experimente liefern fehlerhafte Ergebnisse. Sie verschlingen somit mehr Geld, als sie einbringen.

Das Problem: Im Markt für Conversion-Optimierung tummeln sich viele selbsternannte Experten*innen mit angelesenem Halbwissen. Sofern Du auf A/B-Tests nicht verzichten möchtest, stelle sicher, dass die verantwortlichen Akteure sich gut mit Statistik auskennen (z. B. MINT-Absolventen).

Ergänzende Artikel

Über den Autor
Über den Autor

Moin aus Hamburg! Mein Name ist Frank und ich beschäftige mich bereits seit 25 Jahren mit E-Mail- und Content-Marketing. Als Diplom-Wirtschaftsinformatiker interessiert mich vor allem die Schnittstelle zwischen Mensch und Maschine. Falls Du mehr zu einem Thema wissen willst oder selbst als Autor*in in Aktion treten möchtest, melde Dich!