Evaluierung mit A/B Tests

Von Alina Mielemeier, veröffentlicht am 16.03.2021
Aprikosen und Pfirsiche auf dem Markt

Unter anderem zählt hierbei die Usability, also die Nutzerfreundlichkeit, zu einem Erfolgsfaktor. Denn nur wenn ein Kunde positive Erfahrungen macht, wird er wiederholt einen Online-Auftritt besuchen und ihn idealerweise weiterempfehlen. Ziel sollte es dementsprechend sein, dass sich der User gut aufgehoben fühlt und sich intuitiv mit der Webseite zurechtfindet. (vgl. Süss, 2016: 27)  

Optimalerweise verhilft die Usability dazu, dass die User definierte Zielseiten erreichen. Doch wie messe und teste ich Usability? Es gibt unterschiedliche Evaluierungsmethoden, unter anderem können Informationen, wie z.B. die Conversion Rate, aus Statistiken abgelesen werden. Auch können beispielsweise die Klickpfade der User auf dem Weg durch die Webseite analysiert werden. Um detailliertere Aussagen einzelner Seiten zu treffen, können mit Hilfe von A/B-Tests beispielsweise zwei verschiedene Szenarien auf einer Unterseite genau auf deren Wirkung und Klickhäufigkeit analysiert und gegenübergestellt werden. Zum Beispiel könnte analysiert werden, bei welcher Farbtonwahl eines Buttons, die meisten Klicks getätigt werden. (vgl. Hauser, 2015: 202 ff.) Somit tragen A/B-Tests zur Entscheidungsfindung bei.  

So funktioniert ein A/B Test 

Bei einem A/B-Test mit zwei Varianten, auch Split-Test genannt, besuchen zwei Gruppen dieselbe Webseite in unterschiedlichen Varianten. 50% der User, die Gruppe A, werden zu der bisherigen Website-Version geleitet und 50% der Besucher, also Gruppe B, zu der optimieren Variante. Ziel ist es z.B. mit einer anderen Farbgebung, unterschiedlichen Checkout-Prozessen oder einer anderen Startseitengestaltung die Conversion-Rate und ggf. weitere Kennzahlen zu erhöhen. Mit Hilfe des A/B-Tests können diverse Aspekte der Website-Gestaltung verändert und optimiert werden. Auch Fotos spielen hierbei eine Rolle. Führt ein emotionales Foto mit Menschen auf der Startseite vielleicht eher zum Klick als ein neutrales Bild mit einem Gebäude? 

Um identifizieren zu können, welcher Aspekt die Veränderung der Kennzahlen genau herbeigeführt hat, ist es wichtig, immer nur einen Aspekt anzupassen und danach die Zahlen der verschiedenen Versionen miteinander zu vergleichen. Um ein valides Ergebnis zu erhalten, braucht es eine ausreichend große Gruppe von Testpersonen: Das Minimum liegt bei 1.000 Personen, besser sind allerdings 2.000 – 3.000 Tester. 

Diverse Shop-Softwares bieten A/B-Tests als Modul an, welche mit Webanalysetools ausgewertet werden können. (vgl. Süss, 2016: 100 f.) Ein Beispiel ist Google Optimize. Es ist in Google Analytics integriert und somit frei und kostenlos zugänglich. (vgl. Lammenett, 2017: 164) Die eigenen Zugriffe per statischer IP-Adresse sollten immer ausgeschlossen werden, um die Ergebnisse nicht zu verfälschen. (vgl. Sens, 2019: 91)  

Ein A/B-Test hat den Vorteil, dass eindeutige Erkenntnisse abgelesen werden können. Die Entscheidung wird datengestützt getroffen, was langwierige Diskussionen über Geschmack im Design und Wording überflüssig macht. (vgl. Spreer, 2018: 265) Da die Wahrnehmung derselben Seite auf einem Desktop oder Smartphone unterschiedlich sein kann, sollte der A/B-Test über mehrere Endgeräte hinweg durchgeführt werden.   

Anwendungsbeispiele des A/B-Tests  

Es gibt unterschiedliche Möglichkeiten A/B-Tests in der Praxis umzusetzen. Neben der Anwendung für Websites und Online-Shops, kann es auch sinnvoll sein den A/B-Test im E-Mail-Marketing anzuwenden. Hierbei werden zwei Ausgestaltungsvarianten einer E-Mail oder eines Newsletters verwendet. Es kann zum Beispiel eine Betreffzeile, ein bisher präsentiertes Angebot oder ein Newsletter-Konzept im Vergleich zu einer Alternative eingesetzt werden. (vgl. Kreutzer, 2016: 106)  

Weitere A/B-Test-Beispiele sind:  

  • Alte gegen neue Website 
  • Navigationsleiste (zum Beispiel unterschiedliche Anordnung oder Benennung) 
  • Funktionen (zum Beispiel die Suche mit Tools wie Sempria oder Findology) 
  • Bilder oder Videos (zum Beispiel mit Menschen/ohne Menschen) 
  • Kontaktformulare (unterschiedlicher Aufbau, zum Beispiel Start mit Anrede vs. ein neues Element wie Direktabfrage der Kundenwünsche) 
  • Text (mehr/weniger) 
  • Überschriften (emotionale vs. Keyword-Überschriften)  

(Sens, 2017: 59)  

Bewertung des A/B-Tests – die richtige Entscheidungshilfe für Ihr Vorhaben? 

Je nachdem, welches Ziel verfolgt wird, eignen sich unterschiedliche Evaluierungsmethoden besser oder schlechter. So ist es natürlich auch beim A/B-Test. Für ein Feedback zum Gesamteindruck eines komplett neuen Designs beispielsweise, wäre im Gegensatz zum A/B-Test eine Nutzerbefragung sinnvoller. Um zu erfahren, welchen Weg die User durch die verschiedenen Unterseiten einer Webseite nehmen und auf welche Elemente sie klicken, eignen sich Klickpfade und Heatmaps am besten. Der A/B-Test eignet sich hingegen sehr gut zur detaillierten Conversion-Optimierung, da zwei Website-Versionen direkt verglichen werden. 

Ein Vorteil von A/B Tests ist, dass sich der Aufwand in Grenzen hält. Es ist keine aufwendige manuelle Befragung oder Beobachtung von Nutzern erforderlich. Eine Person muss zwar Optimierungsvorschläge liefern und Ergebnisse interpretieren, die Erhebung übernimmt allerdings der Computer. Auch müssen die Nutzer keine Zeit in Umfragen oder Kommentare investieren.  Sie nehmen unbewusst am Test teil und die Stichprobe erfolgt zufällig. So wird vermieden, dass sich eher unzufriedene User mit ihrem Feedback melden und zufriedene Nutzer im Monitoring nicht auftauchen.

Es gilt allerdings zu beachten, dass der A/B-Test je nach Größe des Projekts mehrfach wiederholt werden sollte, da immer nur ein Aspekt verändert werden darf. Dies führt jedoch dazu, dass das Optimierungspotenzial mithilfe eines A/B-Tests sehr hoch ist. Die datengestützte Entscheidungshilfe verhindert außerdem langwierige Diskussionen über persönliche Geschmäcker - ein A/B-Test könnte sich also auch für Sie lohnen! Vielleicht ist der A/B-Test sogar schon in Ihrem Auswertungstool integriert?  


Literatur:
Hauser, Tobias (2015): Usability – vom Nutzererlebnis zur Conversion-Rate, in: Wenz
Kreutzer, Ralf T. (2016): Online-Marketing, Wiesbaden: Springer Fachmedien 
Lammenett, Erwin (2017): Praxiswissen Online-Marketing, Springer Fachmedien 
Sens, Bastian (2017): Schluss mit 08/15-Websites – so bringen Sie Ihr Online-Marketing auf Erfolgskurs, Wiesbaden: Springer Fachmedien 
Sens, Bastian (2019): Das Online-Marketing-Cockpit, Wiesbaden: Springer Fachmedien 
Spreer, Philipp (2018): PsyConversion, Wiesbaden: Springer Fachmedien 
Süss, Yannik (2016): E-Commerce für klein- und mittelständische Unternehmen, Wiesbaden: Springer Fachmedien  

Avatar of Alina Mielemeier

Alina Mielemeier

arbeitet im Online Marketing bei ams - Radio und MediaSolutions. Sie beschäftigt sich mit verschiedenen Themen rund ums Internet, schwerpunktmäßig Suchmaschinenoptimierung. Parallel studiert sie Marketing und digitale Medien (BA).