Website-Analytics: Deshalb sind wir auf einem Auge blind.

Stell Dir vor, Du hast Dir einen edlen Drink bestellt. Die Bedienung verschüttet leider die Hälfte und füllt das Glas mit billigem Fusel wieder auf. Wie schmeckt Dir das wohl?

Ähnlich verhält es sich bei der Website-Analytics. Relevante Daten gehen verloren und werden mit irrelevanten Daten vermengt. Das Ergebnis: Deine Analytics geben ein verzerrtes Bild der Realität wieder. Häufig derart verzerrt, dass Fehlentscheidungen immer wahrscheinlicher werden. Wie soll auf dieser Basis datengetriebenes Marketing überhaupt möglich sein?

Darum ist datengetriebenes Marketing so wichtig.

Vor allem im Digitalmarketing müssen Entscheidungen oft in Sekundenschnelle getroffen werden. Wer tagelang über eine Landingpage-Headline diskutiert, wird vom Wettbewerber mit automatisierten A/B-Tests übertrumpft. Heute fressen nicht mehr die Großen die Kleinen, sondern die Schnellen die Langsamen.

Daten sind nicht gleich Daten.

Daten helfen uns dabei, bessere Entscheidungen zu treffen und besser mit Zielkunden zu kommunizieren. Deshalb gehören sie zum wichtigsten Treibstoff für Unternehmen der Zukunft. Nicht umsonst sagen einige, Daten sind das neue Öl.

Ähnlich wie Rohöl gibt es auch bei den Daten qualitative Unterschiede. Die wichtigsten Qualitätsfaktoren lauten:

  • Richtigkeit: Sind ausgegebene Werte korrekt?
  • Gültigkeit: Sind ausgegebene Werte noch gültig?
  • Vollständigkeit: Fehlen Datensätze und Werte?
  • Aktualität: Sind ausgegebene Werte aktuell?
  • Relevanz: Sind die Daten für den Einsatzzweck relevant?
  • Konsistenz: Sind die Daten frei von Widersprüchen?
Datenqualität

Was ist an unzulänglichen Rohdaten so gefährlich?

Schwefelhaltiges Rohöl kann man noch zurechtbiegen. Bei Daten ist es schon schwieriger: Fehler oder fehlende Daten erkennt man nicht mit bloßem Auge. Schon gar nicht, nachdem sie von Google und Co. aggregiert worden sind. Es entsteht ein verzerrtes Abbild der Realität, was naturgemäß zu Fehlinterpretationen führt.

Unvollständige Daten

Daten für Website Analytics sind vor allem eines: unvollständig. In manchen Fällen werden rund 80% der Besucher gar nicht erfasst oder wenigstens nicht wiedererkannt. Fehlende Daten sind bei der Erfolgsmessung alles andere als hilfreich. Darüber hinaus dauert es länger, bis eine Erhebung statistisch signifikant ist, d.h die Irrtumswahrscheinlichkeit einer These sich in Grenzen hält.

Ursachen für fehlende Daten

Fehlendes Cookie Consent

Hast Du mal getestet, wie viele Besucher beim Aufpoppen des Cookie Banners ihr Ok verweigern? Im Netz geistern Zustimmungsraten von 10 bis 90% – also in einer enormen Spannbreite. Große Unterschiede gibt es abhängig von der Branche, der Marken-Vertrauenswürdigkeit und der Aufmachung des Cookie Banners. Dazu muss man sagen, dass die wenigsten Banner den gesetzlichen Anforderungen genügen.

tracking-cookies

Tracking Prevention

Nein, die Rede ist nicht von Usern, die im Browser ihr JavaScript deaktivieren. Deren Anzahl dürfte sich im Promillebereich bewegen. Vielmehr ist die Rede von Features in gängigen Browsern, welche das Tracken automatisch blockieren. Ganz vorne an die Nutzer von Safari und Firefox. Vor allem im mobilen Datenverkehr mit den vielen IOS Geräten hat Safari in Deutschland einen Marktanteil von 27,3 %. Prinzipiell gibt es derartige Features und Plugins für alle Browser und sie werden auch gern genutzt.

Verfallszeit von Cookies

Wiederkehrende Besucher werden normalerweise per Cookie oder per Eintrag in dem sogenannten Local Storage identifiziert. Doch diese Daten sind oft nach ein paar Wochen wieder weg. Entweder, Tracking Prevention Tools das Ablaufdatum verkürzen. Oder aber weil User ihren Cache etc. regelmäßig löschen. Ad Blocker Tools blockieren Cookies oft komplett.

Technische Probleme

Ebenfalls nicht zu unterschätzen ist der Einfluss technischer Probleme. Viele Browser-Sessions erzeugen deshalb keinen sauberen Datenstrom, weil sich Skripte gegenseitig blockieren oder verhaken. Besonders dann, wenn mehrere Tags parallel aufgerufen werden. Auch Cookie Consent Tools sind nicht selten dafür verantwortlich, dass Tracking Streams irrtümlich unterbrochen werden.

Sonstige Hürden

Besonders schwierig ist das Tracken von Usern, die im Wechsel verschiedene Endgeräte nutzen. Das Chaos ist perfekt, wenn das sich das eigene Webangebot über verschiedene Domains verteilt. Der Grund: First-party Cookies beziehen sich stets auf eine konkrete Domain bzw. Subdomain.

Irrelevante Daten

Besonders fies sind irrelevante Daten, denn sie lenken den Web Analyst auf eine falsche Fährte. Nicht zuletzt, weil sie oft für statische Ausreißer verantwortlich sind. Das führt dazu, dass zuhauf irreführende Durchschnittswerte berechnet werden.

Ursachen für irrelevante Daten

In der Webanalyse gibt man sich größte Mühe, die Klicks der Buyer Personas zu isolieren. In Zeiten von Homeoffice ist das naturgemäß schwierig. Die wenigsten IP-Nummern lassen sich eindeutig einer Organisation zuordnen. Ein noch größeres Problem sind jedoch Bots…

Bot-Traffic

Es wird angenommen, dass über 40 % des gesamten Internet-Traffics aus Bot-Traffic besteht, und ein beträchtlicher Teil davon sind böswillige Bots. Diese stellen nicht nur ein Sicherheitsrisiko dar, sondern verfälschen auch massiv die Website Analytics.

Das fiese ist, dass Bots nicht so leicht von echten Besuchern zu unterscheiden sind. Google und Co. gleichen deshalb die IP-Nummern mit Datenbanken ab, in denen Bot-Netzwerke verzeichnet sind. Das klappt jedoch nicht immer perfekt.

Das Problem wird jedoch größer: Bots der neuesten Generation verhalten sich wie Menschen. Dazu imitieren sie sogar Cursor- und Scroll-Bewegungen. Mehr noch: Sie ändern ständig ihre IP-Adresse, ihren User Agent und löschen ihre Cookies.

Bot Traffic

Höhere Datenqualität mit Google Analytics?

Nein! Fehlende Daten und Cookies kann natürlich Google auch nicht mehr herzaubern. Darüber hinaus werden beim Aggregieren der Daten die Auswertungen leicht verfälscht. Vor allem durch das eingesetzte Data Sampling. Was bislang jedoch gut klappt ist das Herausfiltern von Bot-Zugriffen.

Wie ist es im E-Commerce?

Weil die meisten Webshops mit Logins arbeiten, sind dort generierte Daten signifikant besser. Die beschriebenen Probleme beziehen sich auf das Tracking anonymer Besucher.

Lösungsansätze

Es gibt unzählige Ansätze, die Datengenerierung zu optimieren. Ganz vorne steht die Implementierung eines Login-Bereichs für Websitebesucher (Closed User Group). Auch serverseitiges Tag Management in Kombination mit einem zentralen Data Warehouse wird zunehmend populärer.

Du kannst auch erstmal auf spezifische Maßnahmen zurückgreifen wie Consent Retrieval per A/B-Test, Bot-Filterungen mit GTM-Spamschutz, Session Stitching auf Hit-Level oder dem Vergleich des Verhaltens eingeloggter User (uid-Parameter) und Pseudo-Besuchern (cid-Parameter).

Fazit

Daten aus Web Analytics werden auf der einen Seite wichtiger - auf der anderen Seite sinkt deren Qualität zunehmend. Wie kommen wir raus aus diesem Dilemma? Eine einfache Antwort gibt es nicht. Schritt 1 sollte perspektivisch sein, Rohdaten unabhängig von Google und Co. zu generieren. Technisch zuverlässig und rechtlich sauber. Tools zur Auswertung können im zweiten Schritt auf diese Daten angesetzt werden. Auch Tools, die heute noch gar nicht verfügbar sind.

Du wünscht Dir Dashboards für besseres Content-Marketing?

Artikel teilen

Share on linkedin
Share on twitter
Share on whatsapp
Share on email