Website-Analytics: Deshalb sind wir auf einem Auge blind.

Website-Analytics: Deshalb sind wir auf einem Auge blind.

Stell Dir vor, in einer Bar verschütet der Kellner die Hälfte Deiner Margarita und füllt sie mit Wasser wieder auf.  Wie schmeckt Dir das wohl?

Ähnlich ist es bei Website-Analytics: relevante Daten gehen zuhauf verloren. Im Gegenzug kommen unbrauchbare Daten ins Spiel. Das Resultat ist ein Gemisch, welches die Realität nur bedingt wiederspiegelt. Fehlentscheidungen sind so vorprogrammiert.

Darum ist datengetriebenes Marketing so wichtig.

Vor allem im Digitalmarketing müssen Entscheidungen oft in Sekundenschnelle getroffen werden. Wer tagelang über eine Landingpage-Headline diskutiert, wird vom Wettbewerber mit automatisierten A/B-Tests übertrumpft. Heute fressen nicht mehr die Großen die Kleinen, sondern die Schnellen die Langsamen. Experten*innen sind sich einig, dass Data-Driven Marketing eine große Zukunft hat.

Daten sind nicht gleich Daten.

Daten helfen uns dabei, bessere Entscheidungen zu treffen und besser mit Zielkunden zu kommunizieren. Deshalb gehören sie zum wichtigsten Treibstoff für Unternehmen der Zukunft. Nicht umsonst sagen einige, Daten sind das neue Öl.

Ähnlich wie Rohöl gibt es auch bei den Daten qualitative Unterschiede. Die wichtigsten Qualitätsfaktoren lauten:

  • Richtigkeit: Sind ausgegebene Werte korrekt?
  • Gültigkeit: Sind ausgegebene Werte noch gültig?
  • Vollständigkeit: Fehlen Datensätze und Werte?
  • Aktualität: Sind ausgegebene Werte aktuell?
  • Relevanz: Sind die Daten für den Einsatzzweck relevant?
  • Konsistenz: Sind die Daten frei von Widersprüchen?
Datenqualität

Was ist an unzulänglichen Rohdaten so gefährlich?

Schwefelhaltiges Rohöl kann man noch zurechtbiegen. Bei Daten ist es schon schwieriger: Fehler oder fehlende Daten erkennt man nicht mit bloßem Auge. Schon gar nicht, nachdem sie von Google und Co. aggregiert worden sind. Es entsteht ein verzerrtes Abbild der Realität.

Unvollständige Daten

Daten für Website Analytics sind vor allem eines: unvollständig. In manchen Fällen werden rund 80 % der Besucher gar nicht erfasst oder wenigstens nicht wiedererkannt. Fehlende Daten sind bei der Erfolgsmessung alles andere als hilfreich. Darüber hinaus dauert es länger, bis eine Erhebung statistisch signifikant ist, d.h die Irrtumswahrscheinlichkeit einer These sich in Grenzen hält.

Ursachen für fehlende Daten

Fehlendes Cookie Consent

Hast Du mal getestet, wie viele Besucher beim Aufpoppen des Cookie Banners ihr Ok verweigern? Im Netz geistern Zustimmungsraten von 10 bis 90 % – also in einer enormen Spannbreite. Große Unterschiede gibt es abhängig von der Branche, der Marken-Vertrauenswürdigkeit und der Aufmachung des Cookie Banners. Dazu muss man sagen, dass die wenigsten Banner den gesetzlichen Anforderungen genügen.

Tracking Prevention

Nein, die Rede ist nicht von Usern, die im Browser ihr JavaScript deaktivieren. (Deren Anzahl dürfte sich im Promillebereich bewegen.) Vielmehr ist die Rede von Features in gängigen Browsern, welche das Tracken automatisch blockieren. Ganz vorne an die Nutzer von Safari, Firefox und Brave. Vor allem im mobilen Datenverkehr mit den vielen IOS Geräten hat Safari in Deutschland einen Marktanteil von 27,3 %. Prinzipiell gibt es derartige Features und Plugins für alle Browser und sie werden auch gern genutzt.

Verfallszeit von Cookies

Wiederkehrende Besucher werden normalerweise per Cookie oder per Eintrag in dem sogenannten Local Storage identifiziert. Doch diese Daten sind oft nach ein paar Wochen wieder weg. Entweder, Tracking Prevention Tools das Ablaufdatum verkürzen. Oder aber weil User ihren Cache etc. regelmäßig löschen. Ad Blocker Tools blockieren Cookies oft vollständig.

Technische Probleme

Ebenfalls nicht zu unterschätzen ist der Einfluss technischer Probleme. Viele Browser-Sessions erzeugen keinen sauberen Datenstrom, weil sich Skripte gegenseitig blockieren oder verhaken. Besonders dann, wenn mehrere Tags parallel aufgerufen werden. Auch Cookie Consent Tools sind nicht selten dafür verantwortlich, dass Tracking Streams irrtümlich unterbrochen werden.

Sonstige Hürden

Besonders schwierig ist das Tracken von Usern, die im Wechsel verschiedene Endgeräte nutzen. Das Chaos ist perfekt, wenn das sich das eigene Webangebot über verschiedene Domains verteilt. Der Grund: First-party Cookies beziehen sich stets auf eine konkrete Domain bzw. Subdomain.

Irrelevante Daten

Besonders fies sind irrelevante Daten, denn sie lenken den Web Analyst auf eine falsche Fährte. Nicht zuletzt, weil sie oft für statische Ausreißer verantwortlich sind. Das führt dazu, dass zuhauf irreführende Durchschnittswerte berechnet werden.

Ursachen für irrelevante Daten

In der Webanalyse gibt man sich größte Mühe, die Klicks der Buyer Personas zu isolieren. In Zeiten von Homeoffice ist das naturgemäß schwierig. Die wenigsten IP-Nummern lassen sich eindeutig einer Organisation zuordnen. Ein noch größeres Problem sind jedoch Bots…

Bot-Traffic

Es wird angenommen, dass über 40 % des gesamten Internet-Traffics aus Bot-Traffic besteht, und ein beträchtlicher Teil davon sind böswillige Bots. Diese stellen nicht nur ein Sicherheitsrisiko dar, sondern verfälschen auch massiv die Website Analytics.

Das fiese ist, dass Bots nicht so leicht von echten Besuchern zu unterscheiden sind. Google und Co. gleichen deshalb die IP-Nummern mit Datenbanken ab, in denen Bot-Netzwerke verzeichnet sind. Das klappt jedoch nicht immer perfekt.

Das Problem wird jedoch größer: Bots der neuesten Generation verhalten sich wie Menschen. Dazu imitieren sie sogar Cursor- und Scroll-Bewegungen. Mehr noch: Sie ändern ständig ihre IP-Adresse, ihren User Agent und löschen ihre Cookies.

Bot Traffic

Höhere Datenqualität mit Google Analytics?

Jein! Fehlende Daten und Cookies kann natürlich Google auch nicht mehr herzaubern. Darüber hinaus werden beim Aggregieren der Daten die Auswertungen leicht verfälscht. Vor allem durch das eingesetzte Data Sampling.

Neuartige Features wie der Consent Mode von versprechen Hilfe – doch hier bleiben u.a. Fragen zum Datenschutz unbeantwortet.

Ach ja, was Google gut kann, ist das Herausfiltern von Bot-Zugriffen.

Lösungsansätze

Login-Bereich

Es gibt unzählige Ansätze, die Datengenerierung zu optimieren. Ganz vorne steht die Implementierung eines Login-Bereichs für Websitebesucher (Closed User Group).

Im Rahmen eines Login-Bereichs ist Tracking naturgemäß deutlich einfacher und zuverlässiger. Auch kann ein rechtsicheres Opt-in vorausgesetzt werden. Viele Shops  nutzen längst Logins, aber aus Komfortgründen wollen/sollen sie natürlich auch anonym zugänglich sein. 

Serverseitiges Tag Management

Hilfreich ist es, wenn die Tags für GA, Facebook und Co nicht länger innerhalb des Browsers ausgeführt werden. Das ermöglicht serverseitiges Tag Management. Hier liegen die entsprechenden Skript auf dem Server und nutzen APIs zur Kommunikation. 

Server-side Tagging

Google Analytics überprüfen

Händisches überprüfen war gestern. Pfiffige Tools helfen dabei, Fehler im Analytics Setup in Sekundenschnelle zu identifizieren. Hier ein paar ausgewählte Tools im Überblick:

  •  GA Diagnostics Notification Tool: liefert automatisch Warnungen und kann über das Benachrichtigungen-Icon idirekt aus der GA-Benutzeroberfläche aufgerufen werden. 
  • Fiddler: Auf Client installierbarer Proxy Server zum Debuggen von GA Requests. Sehr praktisch.
  • Screaming Frog SEO Spider: Beliebtes Tool zur Analyse der eigenen Website.
  •  Google Trouble Shooter Tool: Ebenfalls hilfreich ist das interaktive Trouble Shooter Tool von Google. Für UA ist es hier verfügbar. Für GA4 ist es hier verfügbar.
  • Google Analytics Debugger als Chrome Plugin
  • Diverste fest integrierte Tools im Chrome Browser (z. B. Google Developer Console)
  • GA Checker: Tool zum Überprüfen einer ganzen Website (bis zu 10.000 Seiten) im Hinblick auf alle gängigen Google Tags. Mehr erfahren.

Sonstige Maßnahmen

Du kannst auch erstmal auf spezifischere Maßnahmen zurückgreifen wie Consent Retrieval per A/B-Test, Bot-Filterungen mit GTM-Spamschutz, Session Stitching auf Hit-Level oder dem Vergleich des Verhaltens eingeloggter User (uid-Parameter) und Pseudo-Besuchern (cid-Parameter).

Komplett auf Web Analytics verzichten?

Viele Marketer kommen zu dem Schluss, dass ihnen Web Analytics eher schadet als nützt. Insbesondere dann, wenn sie die generierten Daten eh nie benutzt. Eine Lösung kann aussehen, auf sämtliche Webanalyse-Tools zu verzichten. Das erhöht die Geschwindigkeit der Website und ermöglicht ggf. den Verzicht eines Cookie Consent Banners. Gute Insights liefern dann die Kontakt- und Bestellformulare sowie die Google Search Console.

Fazit

Daten aus Web Analytics werden auf der einen Seite wichtiger - auf der anderen Seite sinkt deren Qualität zunehmend. Wie kommen wir raus aus diesem Dilemma? Eine einfache Antwort gibt es nicht. Schritt 1 sollte perspektivisch sein, Rohdaten unabhängig von Google und Co. zu generieren. Oder aber denn Sinn von Analytics insgesamt infrage stellen.

Über den Autor
Über den Autor

Moin aus Hamburg! Mein Name ist Frank und ich habe einst Wirtschaftsinformatik studiert. Seit rund 20 Jahren beschäftige ich mich intensiv mit Inbound-Marketing. Vor allem liebe ich es, hilfreichen Content zu publizieren.