Digital Analytics: GA4 - Internen Traffic mit IPv6 Adressen via CIDR-Notation ausschließen… oder besser nicht?

Die Digitalisierung schreitet unaufhörlich voran und mit ihr die Weiterentwicklung von Netzwerktechnologien. IPv6-Adressen gewinnen immer mehr an Bedeutung, da der Adressraum von IPv4 langsam erschöpft ist. Doch wie passt dies in die Welt von Google Analytics 4, das primär für IPv4 konzipiert wurde? Die Verwendung von IPv6 in GA4 birgt sowohl Chancen als auch Herausforderungen. In diesem Blogbeitrag beleuchten wir, wie man IPv6-Adressen in GA4 nutzt, um internen Traffic zu filtern und gehen auf die Hürden ein, die sich durch die Fokussierung von GA4 auf IPv4 ergeben.

IPv6 ist längst der neue Standard zum Thema IP-Adressen. Trotzdem wird er oft noch in zahlreichen Firmen stiefmütterlich behandelt. Zahlreiche Unternehmen müssen sich der Anforderung stellen die IPv6 Adressen als internen Traffic bei Google Analytics 4 herauszufiltern. Dabei dreht sich die komplette Dokumentation hauptsächlich um IPv4 Adressen und auch das Interface von GA4 behandelt IPv6 Adressen als Randerscheinung. Wenn du dennoch IPv6 Adressen als internen Traffic herausfiltern musst, dann haben wir hier für dich im Folgenden ein paar wissenswerte Informationen zusammengestellt:

Grundsätzlich können aktuell alle Operatoren zur Eingrenzung internen Traffics mit IPv6-Adressen in GA4 durchgeführt werden. Von Google selbst wurde in der Dokumentation bezüglich der IPv6-Adressen-Filterung allerdings bisher nur ein Beispiel zur CIDR-Notation bereitgestellt.

Quote: „Wenn Sie IPv6-Adressen verwenden und einen Bereich ausdrücken möchten, geben Sie mit demselben „Schrägstrich“-Suffix an, wie viele Bits des Bereichs fest sind. Wenn der Bereich beispielsweise 0:0:0:0:0:ffff:c080:ff00 – 0:0:0:0:0:ffff:c080:ffff ist, geben Sie ihn als 0:0:0:0:0:ffff:c080:ff00/120 an (die ersten 120 Bits sind fest).“

Quelle: https://support.google.com/analytics/answer/10104470?sjid=12656966587956890926-EU#zippy=%2Ccidr-notation-verwenden
 

Mit dem anschließenden Beispiel erkläre ich dir das nun noch einmal genauer. Folgende IPv6-Adressen sollen zukünftig als interner Traffic herausgefiltert werden:

  • 2001:9e8:c048:1d00:286c:6432:85af:efc3
  • 2001:9e8:c048:1d00:286c:6432:85af:efcf
  • 2001:9e8:c048:1d00:286c:6432:85af:efe8
  • 2001:9e8:c048:1d00:286c:6432:85af:effa

Zuerst muss ermittelt werden, welcher Bereich diese IPs vollständig umfasst. In diesem Beispiel wäre das der Bereich von

2001:9e8:c048:1d00:286c:6432:85af:efc0 bis 2001:9e8:c048:1d00:286c:6432:85af:efff

Für die Umrechnung in die CIDR-Notation nutzen wir entsprechende Online-Tools, sogenannte IPv6 Subnet Calculator. Darüber kann ich dann mit wenigen Subnetzvorkenntnissen schnell herausfinden, dass die CIDR-Notation diese ist:

2001:09e8:c048:1d00:286c:6432:85af:efc0/122

122 Bits der IP sind als Mask Bits definiert und somit wären 64 Adressen in diesem Bereich dann zukünftig für internen Traffic herausgefiltert.

Doch wird dies in der neuen Welt von Google Analytics 4 passend berücksichtigt?

Während für Universal Analytics noch ein entsprechender Eintrag in der Google Analytics-Hilfe zu finden ist, fehlt bisher jegliche Dokumentation dazu für GA4. Allseits bekannt ist, dass die IP-Anonymisierung bei GA4 nun automatisch vorgenommen wird und nicht mehr konfiguriert werden muss. Beim Herausfiltern von internem Traffic muss diese Anonymisierung jedoch nicht mehr berücksichtigt werden. Hier können die vollständigen IP-Adressen oder IP-Bereiche angegeben werden und auch nur dieser Traffic wird dann gefiltert.

Das ist eine Verbesserung zu der Logik von Universal Analytics, wo dann maximal bis zum Anonymisierungsgrad die IPs herausgefiltert werden konnten. Das machte dort mit IPv6-Adressen Filtern zu einem unverhältnismäßigen Impact bei einer Maskierung der letzten 80 Bits und damit einem viel zu großen Adressraum, der dadurch ausgeschlossen wurde. Hier hat Google bei GA4 nun offensichtlich einen deutlich besseren Weg der IP-Anonymisierung gefunden.

Ein wichtiger Hinweis zum Thema Testing noch zum Schluss

Google weist daraufhin, dass die Filter bis zu 24 oder sogar 48h Zeit benötigen können, bis sie greifen. Ab und zu greift der Filter allerdings auch sofort. Das verführt zu früherem Testing. Da die Filter allerdings nicht zuverlässig sofort greifen, sollten die Testfälle mit Bedacht geplant und mit ausreichend Zeit durchgeführt werden. Ein guter Best Practise Tipp dazu ist: Positive & negative Testcases sollte man abwechseln. So merkt man zuverlässig anhand der Testing-Daten (im „Test data filter name“) im Real-Time-Traffic in GA4, ob der neu konfigurierte Filter schon greift.

Kathrin Fahrland
Analytics Consultant synaigy GmbH

Vertiefe dein Wissen mit uns

Jetzt Blog abonnieren und keine News mehr verpassen

✔️kostenlos ✔️jede Woche News ✔️Expertenwissen

Blog 15.05.25

Deine Traffic-Zahlen sind im Keller? Das musst du jetzt tun!

Klassische Content-Marketing-Strategien zünden nicht mehr. Ben Harmanus von HubSpot zeigt im Interview, wie du deinen Traffic wieder auf Kurs bringst. Er gibt dir konkrete Tipps mit an die Hand.

Referenz

BYK startet die Reise zur Data Driven Company

Mit synaigy als Partner schafft BYK die Grundlage für datenbasierte Entscheidungen – durch Strategie, klare KPIs und ein Reporting, das Wirkung zeigt.

Blog

E-Mobilität-Business lebt von der Datenqualität

Das E-Auto laden und weiterfahren? X-INTEGRATE hat dafür eine Technologieplattform entwickelt, über die sie zugleich ei-ne hohe Datenqualität sicherstellt.

Blog

Deep Learning: Ein Beispiel aus dem öffentlichen Dienst

Automatische Bilderkennung hat das Potenzial, Wasserwirtschaftsverbände spürbar zu entlasten – und so beim Hochwasserschutz zu unterstützen. Ein Fallbeispiel.

Blog

So verändert Data Analytics die Industrie

Mit dem Einsatz von Data Analytics in der Industrie tun sich für Unternehmen zahlreiche neue Möglichkeiten auf.

Blogbeitrag, wie Sie One Identity Safeguard und One Identity Manager verkuppeln
Blog 22.12.20

Administrationstiefe von IAM-Systemen

In unseren IAM-Projekten haben wir regelmäßig mit Prüferinnen und Prüfern der internen Revision zu tun. Insbesondere während der ersten Projektschritte ereilen uns immer wieder die Fragen: Woran erkenne ich denn jetzt im IAM-System, ob Herr Meier auf das Share XYZ Zugriff hat? Was sind aktuell seine wirksamen Berechtigungen?

Blog

Deep Learning: Ein Beispiel aus dem öffentlichen Dienst

Automatische Bilderkennung hat das Potenzial, Wasserwirtschaftsverbände spürbar zu entlasten – und so beim Hochwasserschutz zu unterstützen. Ein Fallbeispiel.

Blog 24.10.24

So transformierst du dein Unternehmen mit KI

Viele reden über KI, aber nur wenige setzen wirklich schon konkrete Projekte um! Genau darum geht es in dieser insights!-Folge mit Oliver Hoeck, Gründer von Digital DNA.

Blog 22.10.24

Zukunftsforschung: Wie KI und Technologie uns verändert

In der neuen Insights-Folge haben wir Zukunftsforscher Dirk Herrmann zu Gast! Sein Fazit? KI wird die Welt so radikal verändern wie einst die Elektrizität – und das viel schneller, als wir denken!

Blog 17.10.24

IoT und Edge AI: Technologien für die smarte, morgige Welt

Wie schafft man den Sprung von einer Idee zu einem marktfähigen Produkt? Gaylord Aulke, CEO von der 100 DAYS software projects GmbH, hat in der neusten insights!-Folge genau darüber gesprochen.

Blog 29.08.24

Kann IoT den E-Commerce wirklich smarter machen?

In unserer neuesten insights!-Folge zeigen dir Sonja und Joubin, wie IoT die Zukunft des E-Commerce prägt und welche Schritte notwendig sind, damit auch du von dieser Revolution profitieren kannst.

Blog 14.10.24

203 Mrd. Euro Schaden:Cyberkriminalität als größte Bedrohung

Der Blogbeitrag warnt vor der zunehmenden Bedrohung durch Cyberkriminalität für deutsche Unternehmen. Im Jahr 2022 waren 84 % aller deutschen Unternehmen von Cyberangriffen betroffen, was zu enormen finanziellen Schäden führte.

Blog 04.09.24

Interview: Stärkung der Cyber-Sicherheit im deutschen Markt

Im Interview spreche ich über die Bedeutung von Web Application Firewalls für Cybersicherheit und Compliance sowie die Rolle von Datensouveränität im digitalen Zeitalter.

Blog 22.08.24

Das leisten Chatbots wirklich im E-Commerce

In dieser insights!-Folge interviewed Sonja Fuhrmann, TV-Moderatorin, Joubin Rahimi über die Zukunft der Chatbots und deren aktuellen Einsatz in verschiedenen Branchen.

Blog 08.08.24

AI, Marktplatz, Internationalisierung

In dieser insights!-Folge erzählt Oliver Lucas, Managing General Partner bei NFQ, von seiner langjährigen Erfahrung im Bereich E-Commerce und Digitalisierung, seinen unterschiedlichen Perspektiven aus der Fulfillment- und Beratungsseite sowie seiner aktuellen Arbeit bei NFQ. Es wird auch über die Herausforderungen und Chancen der Digitalisierung, die Bedeutung von Marktplätzen, die Rolle von KI und die Veränderung der Softwareentwicklung diskutiert. Zum Abschluss sprechen sie darüber, wie Digitalprojekte eher als fortlaufende Veränderungsprozesse statt als einmalige Projekte betrachtet werden sollten.

Blog 14.04.25

OVHcloud vs. AWS – Wer bietet die bessere Leistung pro Euro?

In diesem Beitrag vergleichen wir die Block Storage-Angebote von OVHcloud und AWS auf Basis aktueller Benchmark-Daten und technischer Spezifikationen.

Blog 20.03.25

Agil, smart, kundenzentriert – So gestaltet BYK die Zukunft

In der Folge zeigt Maik Dudda von BYK wie sie durch digitale Lösungen wie Kundenportale, Echtzeit-Produktinfos die Branche transformieren.

Blog 13.03.25

Die Wahrheit über Virtual Reality im Online-Handel

Brille auf, Shop rein, fertig? So einfach ist es (noch) nicht. Die Wahrheit ist: Virtual Reality im Handel war bisher mehr Hype als Alltag. Ist Virtual Reality die Zukunft?

Blog 13.02.25

Machine Learning: Macht KI den Online-Handel besser?

Smartere Empfehlungen, bessere Kundenerlebnisse, aber auch dynamische Preise und algorithmische Kontrolle – wie verändert Machine Learning den Online-Handel wirklich? Optimierung oder Manipulation?

Blog 06.02.25

Daten sind mächtig, aber nur wenn du sie richtig nutzt!

Erfolgreiche Entscheidungen basieren nicht nur auf Bauchgefühl, sondern vor allem auf einer klugen Nutzung von Daten. Es geht nicht darum, möglichst viele Zahlen zu sammeln, sondern sie richtig zu interpretieren und daraus konkrete Maßnahmen abzuleiten.