Web Analytics (auch Web-Controlling, Web-Analyse, Datenverkehrsanalyse, Traffic-Analyse, Clickstream-Analyse, Webtracking) ist die Sammlung und Auswertung des Verhaltens von Besuchern auf Websites.
Ein Analytic-Tool untersucht typischerweise, woher die Besucher kommen, welche Bereiche auf einer Internetseite aufgesucht werden und wie oft und wie lange welche Unterseiten und Kategorien angesehen werden. Für professionell betriebene Websites wird diese Analyse vor allem zur Optimierung der Website und zur besseren Erreichung von Zielen der Website (z. B. Häufigkeit von Besuchen, Vermehrung von Seitenaufrufen, Bestellungen, Newsletter-Abonnements) eingesetzt.
Wenn ein Analytic-Tool beispielsweise analysiert, wie viele „Klicks“ auf eine bestimmte Unterseite einer Internetseite erfolgen, so erfährt der Betreiber welche konkreten Unterseiten besonders beliebt sind. Auf diese Weise ist es dem Betreiber möglich, sich auf die Gewohnheiten des Publikums einzustellen. Der Betreiber wird dann versuchen, sein Angebot so gezielt wie möglich an der Nachfrage auszurichten. Dies muss aus Verbrauchersicht nicht per se schlecht sein.
Grundlegend kann bei Web Analytics zwischen Auswertungsverfahren zur permanenten Messung der Site-Effektivität und Methoden zur Auffindung von Schwachpunkten in der Site und Verbesserungsmöglichkeiten unterschieden werden (siehe Methoden). Weltweit bieten etwa 150 Unternehmen professionelle Lösungen für Web Analytics an. Die Produkte können teilweise unternehmensintern installiert werden oder auch als ASP-Angebot mit (meist) monatlichen Nutzungsgebühren ohne wesentliche unternehmensinterne Hard- oder Software-Aufwände genutzt werden (siehe Lösungsübersichten).
Begriff
Während sich global weitgehend der Begriff Web Analytics durchgesetzt hat, wird in Deutschland oft der Begriff ‚Web Controlling‘ als Synonym verwendet. Der ältere Begriff ‚Logdateianalyse‘ teilt mit Web Analytics eine Schnittmenge (Analyse von Webserver-Protokolldateien), allerdings kann mit Logdateianalyse auch die Analyse anderer Protokoll-Dateien gemeint sein. Wie ‚Web Controlling‘ hat sich in Deutschland auch der Begriff ‚Page Impression‘ (PI) abweichend vom international genutzten ‚Page View‘ (PV) durchgesetzt.
Gemeint ist in jedem Fall der Abruf einer Seite eines Internetangebotes durch einen menschlichen Besucher (keine Crawler, Spider etc.). Mehrere einzelne Seitenabrufe werden zu einer Sitzung zusammengefasst (Visit, Besuch). Ein Besucher (Unique User oder Visitor) kann eine Website in mehreren Sitzungen besuchen.
Ziele
Moderne Web Controlling Tools ermöglichen es, den Erfolg einer Webseite und den dazugehörigen Marketing-Aktionen nutzbringend zu messen. Eine Vielzahl von Kennzahlen und Auswertungen sind mithilfe dieser Tools quasi auf Knopfdruck verfügbar. Wichtige Kennzahlen im elektronischen Handel beziehen sich zum Beispiel auf:
- die Wirksamkeit einzelner Werbemittel (z. B. Banner, Newsletter)
- die Anzahl der Besucher ihres Web-Shops
- den Anteil der Besucher, die etwas in den Warenkorb legen
- den Anteil der Besucher, die den Kaufprozess abschließen
- den durchschnittlichen Warenkorbwert
Ziel ist es nun, diese Kennzahlen auszuwerten und aufgrund dieser Ergebnisse neue Marketing-Aktionen zu starten und die eigene Webseite entsprechend zu optimieren.
Verfahren zur Datensammlung
Gewöhnlich werden für Web Analytics entweder die Logdateien der Webserver ausgewertet oder bestimmte Tags in Websites zur Datengewinnung genutzt. Neben diesen beiden existieren noch Verfahren, die WebServer Plugins oder Netzwerk Sniffer benutzen.
Server-basierte Daten: Logdateianalyse
Die Software zum Betrieb von Websites, ein sogenannter Webserver wie Apache oder MS IIS, produziert gewöhnlich ein fortlaufendes Protokoll aller Aktivitäten der Software. Diente dies zunächst vor allem zur Aufzeichnung und Behebung von Fehlern im Betrieb, entdeckte man schnell die Möglichkeit, mithilfe dieser Logdatei Ergebnisse zur Beliebtheit der Website, zur Häufigkeit von Seitenabrufen und zur Aktivität der Website-Besucher zu sammeln.
Da diese Protokolle direkt von der eigenen Software angelegt werden, zeigen sie ein getreues Abbild der Server-Aktivitäten. Zur Auswertung der Protokolle – pure Text-Dateien, die zeilenweise Aktivitäten der Software wiedergeben – wird gewöhnlich eine Software genutzt, die Statistiken erstellt, Daten zuordnet und in Grafiken und Tabellen anschaulich macht.
Client-basierte Daten: Tags und Pixel
Seit etwa 1996 gibt es ein weiteres, einfaches Verfahren zur Datensammlung: Direkt in den Quellcode der Website selbst werden unsichtbare Minibilder (1-Pixel-Grafiken) integriert. Ein Abruf dieser Grafik kann jetzt für genau einen Seitenabruf stehen. Die Pixel-Datei muss sich dabei nicht auf dem gleichen Server wie die eigentlichen Inhalte der Website befinden. So können ASP-Dienstleister die Sammlung, Speicherung und Auswertung der Daten übernehmen.
Neben den noch immer genutzten 1-Pixel-Bildern wird heute von fast allen Lösungen zusätzlich Javascript-Code zur Datenerhebung eingesetzt. Diese ‚Javascript-Tags‘ werden ebenso in den Quellcode der Seite integriert, können aber zusätzliche Informationen über den abrufenden Client (gewöhnlich den Browser) sammeln – z. B. grafische Auflösung des genutzten Monitors, Farbtiefe, im Browser installierte Plugins etc. Neuere Tools erlauben auch die Aufnahme der Mausbewegungen (Mouse Tracking) oder Tastatureingaben der Website-Besucher.
Weitere Verfahren
Für die Netzwerk-Protokoll-Analyse (NPA, Network Sniffer) wird ein spezieller Decoder zwischen die eigenen Webserver und der Verbindung zum Internet eingesetzt. Dieser sammelt nun den gesamten Datenverkehr in diesem Netzwerk. Beim URL-Rewriting wird ein Proxy zwischen Webserver und Internet installiert, der in speziellen Logdateien die Datenverkehrsdaten speichert und dabei gleichzeitig zusätzliche Informationen (Session-IDs) in die URL schreibt.
Sogenannte Hybrid-Verfahren verarbeiten mehr als eine Datenquelle gleichzeitig. Besonders die integrierte Auswertung von Tag-Daten und Server-Daten stellt eine besonders reichhaltige und zuverlässige, aber auch aufwändige Art der Datenverkehrsanalyse dar.
Cookies
Um einen einzelnen Seitenaufruf einer Sitzung und eine Sitzung einem eventuell wiederkehrenden Besucher zuordnen zu können, werden gewöhnlich Cookies eingesetzt. Es gibt heftige Debatten um dieses Thema, hier sei etwa auf die Seite HTTP-Cookie verwiesen. Festzuhalten bleibt, dass für eine professionelle Datenverkehrsanalyse, die in das Zentrum ihrer Aufmerksamkeit den ‚Besucher‘ (nicht die einzelne Sitzung) stellt, Cookies gegenwärtig unabdingbar sind. Alternative Methoden mit Flash-Objekten scheinen nur eine Nischenexistenz zu führen. Im Unterschied zu klassischen Cookies können damit Besucher auch wiedererkannt werden, wenn sie verschiedene Browser verwenden.
Methoden
Allgemein lassen sich zwei Anwendungsbereiche von Web Analytics unterscheiden:
1. regelmäßiges Monitoring der Effektivität der Website und dazugehörige Kampagnen
Durch die Definition von Kennziffern (z. B. Kosten, Umsatz, Konversionsrate, PageViews pro Sitzung, Sitzungen pro Besucher) lassen sich die einzelnen Daten der Analysen zu sinnvollen Informationen verdichten und in einen Kontext der Vergleichbarkeit setzen: Verlauf des Umsatzes über das Jahr, Kosten pro Kampagne, Konversionsrate im Vergleich zu einem gesetzten Ziel etc.
2. Strategien zur Optimierung der Website
- Pfad-Analysen helfen bei der Suche nach besonders beliebten und unbeliebten Seiten in einer Website
- Segmentierungen helfen beim Auffinden und weiteren Unterscheiden von bestimmten Besuchergruppen (z. B. Besucher von Suchmaschine A im Vergleich zu Besuchern von Suchmaschine B)
- Konversionspfade (Funnel) helfen bei der Messung und Optimierung von definierten, wichtigen Seitenabfolgen in der Website
- Optimierungen von Startseiten oder Landing Pages durch schnelles Ausprobieren von kleinen Verbesserungen und Veränderungen (A/B-Tests)
Nutzung
Professionelles Webcontrolling ist für Websites mit kommerziellen Inhalten unabdingbar.
Web Analytics dient der Analyse, Optimierung und Kontrolle von Prozessen, betreffend alle Internet-Aktivitäten eines Unternehmens.
Webcontrolling ist eine Maßnahme zur Investitionssicherung. Mit der Kontrolle des Userverhaltens in Verbindung mit der Weiterentwicklung der eigenen Online-Strategie kann die Effizienz des Webauftritts zielgerichtet verbessert werden. Die eigene Website muss einem permanenten Optimierungsprozess unterworfen sein.
Ein fundiertes Web-Controlling ist wichtiges Element des Customer Relationship Managements (CRM). Webcontrolling ermöglicht Kundenwünsche besser zu verstehen, das Marketing zu optimieren und Betrugsfälle (Klickbetrug, Affiliate Hopping) zu vermeiden.
Statistiken über ROI, Warenkörbe, Konversionsraten und Online-Umsätze zeigen Schwachstellen in der eigenen Webpräsenz auf und weisen auf die Parameter hin, die verändert werden müssen.
Webcontrolling ist weit mehr als nur das Zählen von Statistiken.
Software
Eine Webstatistik bietet eine Auswertung zum Surfverhalten von Website-Besuchern. Dabei werden Seitenaufrufe und einzelne Besuche (engl. visit) ausgewertet, um das Verhalten der Besucher auf Webseiten zu analysieren. Im wesentlichen beruhen Webstatistiken auf einer Auswertung von Logdateien (vgl. Logdateianalyse) des Servers, jedoch existieren auch andere Techniken (Erfassung per Zählpixel oder mit einem JavaScript-Code, der den Zählimpuls an einen Zählserver übergibt).
Neben den oft graphisch aufbereiteten Statistiken über frei wählbare Auswertungszeiträume präsentieren Webstatistiken weitere Informationen (Technik der Besucher, Herkunft, spezielle Funktionen, Verhalten der Besucher auf der Webseite), die über den Inhalt der Logdateien hinaus gehen und z. B. unter dem Begriff Webtracking anzutreffen sind. Die Webstatistik stößt meist allerdings dann auf ihre Grenzen, wenn der User das Internet verlässt und einen Telefonkontakt herstellt. Diesen sogenannten „Medienbruch“ überwindet zwischenzeitlich das so genannte Telefontracking.
Gesetzliche Zulässigkeit in Deutschland
Gesetzliche Regelung
Die Rechtslage bei der Nutzung von Analytic-Tools ist gegenwärtig in Deutschland umstritten. Rechtlicher Anstoß für die Kritik ist häufig das Speichern der IP-Adresse und das Verwenden von Cookies. Das Bundesdatenschutzgesetz lässt die Erhebung und die Speicherung von personenbezogenen Daten nur dann zu, wenn dies von einer gesetzlichen Vorschrift explizit erlaubt wird oder eine eindeutige und vorherige Einwilligung des Nutzers vorliegt.
Relevant ist dabei die Regelung in § 15 Telemediengesetz (TMG). Demnach dürfen personenbezogene Daten von Besuchern einer Internetseite ohne die Einwilligung des Nutzers nur erhoben und verwendet werden, soweit dies erforderlich ist, um die Inanspruchnahme von geschäftsmäßigen Angeboten im Internet zu ermöglichen und abzurechnen.
Die Verwendung dieser Daten über das Ende des Nutzungsvorgangs ist nur erlaubt, soweit die Daten „für Zwecke der Abrechnung mit dem Nutzer erforderlich sind“. Nach § 13 Telemediengesetz (TMG) haben Anbieter von Internetportalen sicherzustellen, dass „die anfallenden personenbezogenen Daten über den Ablauf des Zugriffs oder der sonstigen Nutzung unmittelbar nach deren Beendigung gelöscht“ werden.
Personenbezug von IP-Adressen
Umstritten ist, ob die IP-Adresse eines Internetnutzers in Verbindung mit dem Nutzungszeitpunkt ein personenbezogenes Datum darstellt. Das Amtsgericht München lehnte den Personenbezug einer dynamischen IP-Adresse, die durch den Betreiber eines Internetdienstes gespeichert worden war, in einem ergänzenden Hinweis (obiter dictum) ab (Urt. v. 30. September 2008 – 133 C 5677/08, MMR 2008, 860). Es folgte damit einigen juristischen Kommentatoren (Gola/Schomerus, § 3 Rn. 10), die IP-Adressen nur für „relativ“ personenbezogen halten, so dass die Speicherung von IP-Adressen bei Content-Anbietern zulässig und erst ihre Übermittlung unzulässig sei.
Das Amtsgericht Berlin-Mitte hat demgegenüber einen Personenbezug angenommen und es dem Betreiber eines Internetportals verboten, die IP-Adressen seiner Nutzer über die Dauer des Nutzungsvorgangs hinaus aufzubewahren (Urt. v. 27. März 2007 – 5 C 314/06, DuD 2007, 856-858, bestätigt durch Landgericht Berlin, Urt. v. 6. September 2007 – 23 S 3/07, MMR 2007, 799-800). Unter Zuhilfenahme weiterer Daten, wie sie etwa bei Internet-Zugangsanbietern gespeichert werden, sei die Ermittlung des genutzten Internetanschlusses und dessen Inhabers möglich.
Dem schloss sich das Verwaltungsgericht Wiesbaden an (Beschl. v. 27. Februar 2009 – 6 K 1045/08, MMR 2009, 428-432). Auch das Amtsgericht Wuppertal sieht die IP-Adresse als personenbezogenes Datum an. Im europäischen Ausland haben das schweizerische Bundesverwaltungsgericht, das oberste schwedische Verwaltungsgericht und der französische Verfassungsgerichtshof unter Bezugnahme auf die auch in Deutschland geltende Datenschutzrichtlinie 95/46/EG den Personenbezug von IP-Adressen bejaht.
Gleicher Meinung sind das Bundesjustizministerium, der Bundesdatenschutzbeauftragte, die Datenschutzbeauftragten des Bundes und der Länder sowie die Datenschutzbeauftragten aller EU-Staaten. Der deutsche Bundesgerichtshof hatte noch nicht über die Frage zu entscheiden, hat jedoch in einer Entscheidung aus dem Jahr 2009 ein „Recht des Internetnutzers auf Anonymität“ anerkannt.
Quelle: Wikipedia (http://de.wikipedia.org/wiki/Web_Analytics)