Aktuelle MeldungenTechnologie

Fallstricke bei der Conversion-Optimierung

ARKM.marketing
     

Sieben Tipps für genaue Ergebnisse beim A/B-Testing von Websites und Onlineshops

Hamburg – Schwachstellen auf der Website können dem Betreiber buchstäblich teuer zu stehen kommen. Doch Optimierungsmaßnahmen sollten nie ohne vorheriges Testing durchgeführt werden. Eine bewährte Methode ist das A/B-Testing. Dabei werden mehrere Webseiten-Varianten an Besucher ausgespielt und gegeneinander getestet. Was einfach klingt, birgt aber einige Fallstricke, die der Web-Controlling- und Targeting-Anbieter etracker vorstellt.

Quelle: ots
Quelle: ots

1. Wildes Testen ohne Strategie

Da A/B-Tests im Handumdrehen erstellt werden können, verführt das dazu, ohne Strategie zu handeln. Marketingverantwortliche sollten zunächst das Problem identifizieren und dann eine Hypothese formulieren: „Wenn ein durch verändert wird, erreichen wir eine Verbesserung von .“

2. Achtung Fehlerteufel

Wenn es an den Launch eines A/B-Tests geht, ist ebenfalls Bedacht angesagt. Einmal nicht aufgepasst und der Fehlerteufel hat sich eingeschlichen. Vor dem Release des Tests müssen Marketingverantwortliche noch einmal explizit die Funktionalität sowie die Anzeige der Varianten in unterschiedlichen Browsern und auf diversen Endgeräten prüfen.

3. Zu hohe Ziele

Mehr Bestellungen oder Umsatz als Ziel eines A/B-Tests anzugeben, kann den Test verfälschen, weil zu viele Faktoren auf den Verkauf einwirken. Es gilt, auf kürzere Conversion-Ziele zu setzen, sogenannte Mikro-Conversions. Wird im A/B-Test ein neuer Call-to-Action-Button ausprobiert, kann das Ziel der Klick darauf sein.

4. Duplicate Content würgt SEO-Ranking

Ein gutes Suchmaschinenranking kann durch A/B-Tests schnell zunichtegemacht werden. Damit die Seitenvarianten von Google nicht als Duplicate Content behandelt werden, muss man den Content der Seite dynamisch ändern, so dass der Google-Crawler immer nur die Originalseite durchsucht.

5. Zu schnell Ende im Gelände

Auch wenn sich nach 100 Testbesuchern schon ein Gewinner des A/B-Tests herauskristallisiert, die Datenmenge muss groß genug sein, um die Gewinner-Variante mit statistischer Signifikanz zu bestimmen. Typischerweise braucht es einige 100 bis 1000 Besucher pro Test, abhängig davon, wie stark sich die Conversion-Rate der Seitenvarianten vom Original unterscheidet.

6. Aus den Augen aus dem Sinn

Ein A/B-Test kann manchmal schneller ein eindeutiges Ergebnis erzielen, als man vermutet. Mit jedem Tag, an dem der A/B-Test noch läuft, büßt der Websitebetreiber Umsatz oder zumindest die definierten Conversion-Ziele ein. Ein Autopilot kann helfen. Er erkennt, wenn es eine eindeutige Gewinnervariante gibt, und spielt diese mehrheitlich aus.

7. Testing ohne Segmentierung

In der Regel werden A/B-Tests über alle Kundengruppen gefahren. Allerdings sollte der Marketingverantwortliche die Ergebnisse immer segmentieren, nach Wiederkehrern, Stammkunden etc. Das ermöglicht auch einen ersten Einblick in mögliche Personalisierungsstrategien. Je nach Besuchergruppe und Verhalten können dann personalisierte Websiteinhalte automatisch ausgespielt werden.

Olaf Brandt, Director Product Management der etracker GmbH, gibt zu bedenken: „Die Optimierung der Website ist keine Aufgabe, die man sich einmal im Jahr vornehmen sollte, sondern eine kontinuierliche. Durch Analyse und Testing stellen Websitebetreiber sicher, dass nur erfolgversprechende Maßnahmen umgesetzt werden.“

Quelle: ots

ARKM.marketing
 

Zeige mehr
Schaltfläche "Zurück zum Anfang"