Kapitel 1. Das neue Google Analytics 4
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
In diesem Kapitel wird das neue Google Analytics 4 (GA4) vorgestellt und es wird erläutert, warum es entwickelt wurde. Wir werden sehen, wo Google der Meinung war, dass sein Vorgänger Universal Analytics Mängel aufwies und wie GA4 diese Bereiche auf der Grundlage eines neuen Datenmodells stärken will.
Außerdem werden wir uns ansehen, wie die Integration der Google Cloud Platform (GCP) in GA4 dessen Funktionalität verbessert und einen ersten Blick auf die Anwendungsfälle werfen, die die neuen Möglichkeiten von GA4 veranschaulichen und dir den Einstieg in deine eigenen Datenprojekte erleichtern.
Wir stellen vor: GA4
Google Analytics 4 wurde aus der Beta veröffentlicht und Anfang 2021 als das neue Google Analytics eingeführt. Der Betaname "App+Web" wurde durch Google Analytics 4 ersetzt.
Die wichtigsten Unterschiede zwischen GA4 und Universal Analytics , die in der Ankündigung von GA4 hervorgehoben wurden, sind die maschinellen Lernfunktionen, das einheitliche Datenschema für Web und Mobile und das datenschutzfreundliche Design.
Google hatte die Veröffentlichung von GA4 schon viele Jahre vor der öffentlichen Ankündigung geplant. Nach seiner Veröffentlichung wurde Google Analytics zum beliebtesten Webanalysesystem, doch sein Design spiegelte auch 2021 noch die Designziele der vorherigen 15 Jahre wider. Obwohl die Plattform im Laufe der Jahre durch das engagierte Google Analytics-Team verbessert wurde, gab es einige moderne Herausforderungen, die schwieriger zu lösen waren: Nutzer/innen fragten nach einzelnen Kundenansichten für Web und mobile Apps, anstatt Daten an zwei getrennte Objekte senden zu müssen, Google Cloud war führend bei Technologien für maschinelles Lernen, doch maschinelles Lernen war nicht einfach in das GA-Datenmodell zu integrieren, und der Datenschutz der Nutzer/innen war ein wachsendes Anliegen, das eine strengere Kontrolle darüber erforderte, wohin Analysedaten fließen.
Als Google Analytics im Jahr 2005 auf den Markt kam, revolutionierte es die Analysebranche, indem es eine kostenlose Version mit allen Funktionen anbot, die zuvor nur in kostenpflichtigen Produkten für Unternehmen verfügbar waren. Google Analytics war eine Win-Win-Investition, denn je mehr Webmaster über ihren Traffic wussten, desto eher waren sie bereit, in AdWords (heute Google Ads) zu investieren, und ermöglichte es allen, die Stimme ihrer Nutzerinnen und Nutzer auf ihrer Website zu hören.
Im Jahr 2020 sah die Analyselandschaft ganz anders aus. Konkurrierende Analyseprodukte kamen mit einfacheren Datenmodellen auf den Markt, die datenquellenübergreifend arbeiten konnten und sich besser für maschinelles Lernen und Datenschutz (eine wichtige Funktion für die Nutzer/innen) eigneten. Mit der Cloud konnte man ein Analysesystem offener gestalten und den Analytikern mehr Kontrolle geben. Konkurrierende Analyselösungen könnten sogar auf Googles eigener Cloud-Infrastruktur betrieben werden, was die Wirtschaftlichkeit von "Build or Buy" verändert. Die idealen Analyselösungen hätten vernünftige Standardeinstellungen für diejenigen, die einen schnellen Einstieg suchen, wären aber besser anpassbar und skalierbar, um die Bedürfnisse der abenteuerlustigeren Kunden zu erfüllen.
Die Vereinheitlichung von Mobile und Web Analytics
Während der frühere Name "App+Web" bei der Markteinführung von GA4 durch ersetzt wurde, war der verworfene Name eher repräsentativ dafür, warum GA4 anders war.
Bis zu seiner Abschaffung Ende 2019 hatte Google Analytics für mobile Apps (Android/iOS) ein eigenes Analysesystem, das sich von den Web-Analysen unterschied. Diese Software Development Kits (SDKs) verwendeten ein anderes Datenmodell, das sich besser für die App-Analyse eignete. Konzepte wie Seitenaufrufe, Sitzungen und Nutzer hatten alle eine leicht unterschiedliche Bedeutung und konnten daher nicht ohne Weiteres mit den Webzahlen verglichen werden. Nutzer/innen, die sowohl die App als auch das Web besuchten, wurden normalerweise nicht miteinander verknüpft.
Das Datenmodell von GA4 folgt einer anpassbaren, ereignisbasierten Struktur, die von mobilen Apps übernommen wurde. Universal Analytics schränkte die Kombinierbarkeit von Daten ein, was als Data Scoping bezeichnet wird. Das bedeutete, dass Marketer/innen sich überlegen mussten, wie ihre Daten in Bereiche wie Nutzer/innen, Sitzungen oder Ereignisse passen. Diese Bereiche wurden von Google vorgegeben, sodass du gezwungen warst, sein Datenmodell zu übernehmen. Mit dem ereignisbasierten Ansatz von GA4 hast du mehr Flexibilität, um zu bestimmen, wie deine Daten aussehen sollen.
Wenn die alten Google Analytics für mobile SDKs 2019 auslaufen, hat Google den Nutzern empfohlen, stattdessen auf die Firebase SDKs umzusteigen. Firebase wurde als komplettes mobiles Entwicklererlebnis für iOS und Android entwickelt, mit einem integrierten mobilen SDK für die Erstellung mobiler Apps von Grund auf, das nun auch Web Analytics enthält. Mit dem neuen GA4 kam ein zusätzlicher Datenstrom hinzu: der neue Web-Stream. Da iOS-, Android- und Web-Streams alle dasselbe System nutzen, haben wir jetzt eine wirklich vernetzte Möglichkeit, digitale Analysen über all diese Quellen hinweg zu messen.
Firebase und BigQuery - Erste Schritte in die Cloud
Für viele Marketingfachleute ist GA4 die erste Begegnung mit den neuen Cloud-Produkten, die für den Betrieb von GA4 unerlässlich sind: Firebase und BigQuery.
Firebase und BigQuery sind beides Produkte innerhalb des GCP, einem umfassenden Service, den Google für alle möglichen Cloud-Dienste anbietet. Dieses Buch konzentriert sich auf die Produkte, die Teil des Cloud-Angebots für Datenanalyse sind, aber sei dir bewusst, dass diese nur eine Teilmenge der gesamten Cloud-Plattform sind.
Firebase ist ein umfassendes Framework für die mobile Entwicklung, das jetzt auch Google Analytics enthält. Mobile Entwickler nutzen es auch, um ihre mobilen Apps mit nützlichen Funktionen wie Remote Config zu versehen, um den Code der bereitgestellten Apps zu ändern, ohne sie erneut im App Store zu veröffentlichen, sowie mit APIs für maschinelles Lernen wie Predictive Modeling, Authentifizierung, mobile Alarmierung und Google-Anzeigenintegrationen. Firebase ist eine Untergruppe der GCP-Dienste, die in einigen Fällen ein Rebranding des zugrundeliegenden GCP-Produkts sind - zum Beispiel sind die Firebase Cloud Functions die gleichen wie die GCP Cloud Functions.
BigQuery ist eine der Perlen von GCP und gilt als eines der überzeugendsten Produkte im Vergleich zu den entsprechenden Produkten anderer Cloud-Provider. BigQuery ist eine SQL-Datenbank, die speziell für Analytics-Workloads entwickelt wurde, und war eine der ersten serverlosen Datenbanken. Es beinhaltet Innovationen wie ein Preismodell, das Daten günstig speichert und Abfragen nach Bedarf abrechnet, und eine blitzschnelle Abfrage-Engine, die auf Dremel läuft und in einigen Fällen 100-fache Geschwindigkeitssteigerungen im Vergleich zu MySQL bietet. GA360-Nutzer/innen kennen es vielleicht schon, denn eine seiner Funktionen war der Export von rohen, nicht gesampelten Daten nach BigQuery - allerdings nur, wenn du eine GA360-Lizenz erworben hast (das war mein Einstieg in die Cloud!). GA4 BigQuery-Exporte werden für alle verfügbar sein, was sehr interessant ist, da BigQuery selbst ein Tor zum Rest von GCP ist. BigQuery spielt in diesem Buch eine große Rolle.
GA4-Einsatz
Dieses Buch ist kein erschöpfender Leitfaden für die Implementierung von GA4. Hierfür sind die in Kapitel 10 beschriebenen Ressourcen besser geeignet. Das Buch deckt jedoch gängige Konfigurationen ab, die ein umfassendes Bild von der Datenerfassung bis zum Geschäftswert vermitteln.
Es gibt im Wesentlichen drei Möglichkeiten, das Erfassen von Daten von Websites zu konfigurieren: gtag.js
, analytics.js
oder Google Tag Manager (GTM). In fast allen Fällen würde ich empfehlen, sie über den GTM zu implementieren, über den du in Kapitel 3 mehr lesen kannst. Die Gründe dafür sind Flexibilität und die Möglichkeit, die dataLayer-Arbeit von der Analytics-Konfiguration zu entkoppeln, was den Entwicklungsaufwand innerhalb der HTML-Seite minimiert. Die Entwicklerressourcen werden am effektivsten eingesetzt, wenn du einen ordentlichen dataLayer für dein GTM implementierst, da dieser alle deine Tracking-Bedürfnisse abdeckt, nicht nur GA4 oder Google Tags. Alle weiteren Änderungen an deiner Tracking-Konfiguration können dann in der Weboberfläche von GTM vorgenommen werden, ohne dass du für jede kleine Änderung erneut wertvolle Entwicklungszeit aufwenden musst.
Mit der Einführung von GTM Server Side (SS) können die möglichen Konfigurationen auch direkte Integrationen mit der Google Cloud und Backend-Systemen sowie Änderungen der HTTP-Anfragen und -Antworten umfassen, was dir die ultimative Flexibilität bietet.
Universal Analytics versus GA4
GA4 soll eine Weiterentwicklung seines Vorgängers Universal Analytics sein (der seit der Veröffentlichung von GA4 den Spitznamen GA3 trägt), aber wie unterscheidet es sich tatsächlich?
Eine der ersten Fragen, die sich Menschen stellen, wenn sie von GA4 hören, ist: "Was ist so anders, dass ich umsteigen möchte? Warum sollte ich mir die Mühe machen, ein System umzurüsten, umzuschulen und neu zu lernen, das in den letzten 15 Jahren gut funktioniert hat?" Das ist eine wichtige Frage, und in diesem Abschnitt wird untersucht, warum.
Ein spezielles Google-Hilfethema behandelt auch diese Frage.
Ein neues Datenmodell
Die erste große Änderung betrifft das Datenmodell selbst, das später im Abschnitt "Das GA4-Datenmodell" behandelt wird .
Universal Analytics konzentrierte sich stark auf Website-Kennzahlen, bei denen Konzepte wie Nutzer, Sitzungen und Seitenaufrufe einfacher zu definieren waren; für andere Datenquellen wie mobile Apps und Serverzugriffe waren diese Konzepte jedoch schwieriger zu definieren. Das bedeutete oft, dass Umgehungslösungen gefunden werden mussten oder einige Kennzahlen in den Berichten ignoriert wurden, wenn die Daten aus bestimmten Quellen stammten. Das bedeutete auch, dass einige Kennzahlen nicht gut zusammenpassten oder sich nicht abfragen ließen.
GA4 bewegt sich weg von einem vorgeschriebenen Datenschema hin zu etwas viel Freierem: jetzt ist alles ein Ereignis. Dank dieser Flexibilität kannst du deine eigenen Metriken leichter definieren, aber für Nutzer, die nicht so ins Detail gehen wollen, gibt es auch automatische Standard-Ereignistypen, die dir einige der bekannten Metriken liefern.
Das bedeutet auch, dass es jetzt möglich ist, einige Daten automatisch zu erfassen, die vorher separat konfiguriert werden mussten, wie z. B. Link-Klicks. Die GA4-Implementierungen sollten also weniger Erfahrung erfordern, um sie korrekt zu implementieren, was dazu beiträgt, die Einstiegshürde für neue Digital Analytics-Nutzer zu senken. Spezialwissen, z. B. über den Unterschied zwischen einer Sitzungsmetrik und einer Hit-Metrik, wird weniger wichtig sein.
Ein flexiblerer Ansatz bei den Metriken
GA4-Ereignisse können geändert werden, nachdem sie gesendet wurden. So kannst du Tracking-Fehler korrigieren oder Ereignisse standardisieren ("Verkauf" statt "Transaktion"), ohne die Tracking-Skripte ändern zu müssen - das ist viel einfacher.
Wenn du benutzerdefinierte Definitionen für deine eigenen Ereignisse erstellst, musst du dich nicht an ein vordefiniertes Schema erinnern. Erstelle dein Ereignis mit optionalen Parametern und registriere es in der GA4-Benutzeroberfläche, damit das Ereignis in deinen Berichten angezeigt wird.
BigQuery-Exporte
Die Exporte von BigQuery waren bisher eine Funktion von GA360 und sind jetzt auch verfügbar, wenn du nicht für die Unternehmensversion von GA4 bezahlst. Firebase Analytics für Mobilgeräte hatte diese Funktion bereits zum Start, und da GA4 nur eine Ergänzung dazu ist, gibt es sie auch für Web Analytics.
Das ist ein entscheidender Vorteil, denn normalerweise ist der schwierigste Teil eines Datenprojekts der Zugang zu den Rohdaten, die deinen Anwendungen zugrunde liegen, und zwar so, dass du sie problemlos bearbeiten kannst. Mit den GA4 BigQuery-Exporten musst du nur ein paar Webformulare ausfüllen, um die Daten nahezu in Echtzeit für die Analyse mit BigQuery SQL bereitzustellen.
Da BigQuery so stark in den Rest von integriert ist, bedeutet das auch, dass es eng mit dem Rest des GCP Data Stacks, wie Pub/Sub, Dataflow und Data Studio, verbunden ist. Mit diesen Diensten kannst du Daten direkt von BigQuery weiterleiten, und da die APIs offen sind, ist BigQuery auch eine beliebte Quelle oder Senke für viele Drittanbieterdienste.
Das bedeutet, dass das uralte Problem der Datensilos, bei dem die Daten, die du brauchst, hinter Datenbanken mit unterschiedlichen Unternehmenspolitiken und -richtlinien eingeschlossen sind, jetzt einen Weg zur Lösung hat, indem du sie alle an ein Ziel sendest: BigQuery. So kannst du anfangen, Vertrieb und Marketing miteinander zu verknüpfen oder nützliche Daten von Drittanbietern, wie z. B. Wettervorhersagen, einfacher zu nutzen. Meiner Erfahrung nach hat die Zusammenführung aller nützlichen Daten an einem Ort den größten Einfluss auf die digitale Reife eines Kunden, da eine der häufigsten Hürden - "Wie kommen wir an die Daten?" - beseitigt wird.
Kein Sampling - alles in Echtzeit
Eine Motivation für die GA360 BigQuery Exporte war, dass dies eine der Möglichkeiten war, um an nicht gesampelte Daten zu kommen, und das gilt jetzt auch für GA4. Während die Sampling-Grenzen in der WebUI verbessert wurden, sind die darunter liegenden Daten immer unabgetastet und in Echtzeit verfügbar. Solltest du jemals einen Export ohne Stichproben benötigen, ist dieser über BigQuery oder die kostenlose Daten-API verfügbar. Damit entfällt die Hürde, für GA360 zu bezahlen, um die Daten für einige Anwendungsfälle zu erhalten, die eine hohe Genauigkeit und Echtzeit-Analysedatenquellen benötigen.
Datenschutz und digitale Analysedaten
Heutzutage sind sich die Nutzerinnen und Nutzer zu Recht des Wertes ihrer Daten viel bewusster, und der Datenschutz ist in der Branche ein heißes Thema geworden. Es wird anerkannt, dass die Nutzerinnen und Nutzer über die Verwendung ihrer Daten informiert sein müssen und dass es in der Verantwortung der Website liegt, das Vertrauen der Nutzerinnen und Nutzer zu gewinnen und diese Daten richtig zu bewerten. Um dies zu unterstützen, gibt es den Google-Zustimmungsmodus, mit dem Cookies und ihre gespeicherten persönlichen Identifikatoren entfernt werden können, so dass sie für Google Analytics erst dann verfügbar sind, wenn eine Nutzerin oder ein Nutzer ihre oder seine Zustimmung gegeben hat. Nicht-personenbezogene Daten können jedoch immer noch nützlich sein, und GA4 bietet eine Möglichkeit, zu modellieren, wie deine Datensitzungen und Konversionen aussehen würden, wenn 100 % deiner Nutzer/innen der Weitergabe ihrer Daten zustimmen. Da deine neuen Kunden meist diejenigen sind, die deiner Website noch nicht vertrauen oder noch nicht zugestimmt haben, kann dies eine wertvolle Information sein, die dir hilft, deine Leistung zu verbessern.
Wann ist GA4 die Antwort?
Angesichts der Änderungen in GA4 gibt es im Folgenden eine Zusammenfassung der Möglichkeiten, die GA4 im Vergleich zu Universal Analytics bietet, um häufig gestellte Fragen zu beantworten:
-
Wie können wir unsere digitalen Analysedaten mit GCP integrieren, damit unsere Daten über die GA4-Dienste hinaus funktionieren (worum es in diesem Buch hauptsächlich geht!)?
-
Wie können wir das Tracking von Nutzern über alle unsere digitalen Angebote hinweg vereinheitlichen, einschließlich unserer mobilen Apps und unserer Website?
-
Wie können wir leichter maßgeschneiderte Analyse-Implementierungen über die Standardeinstellungen hinaus vornehmen?
-
Wie können wir auf unsere digitalen Analysedaten zugreifen, um sie in unser maschinelles Lernmodell einzuspeisen?
-
Wie können wir die Privatsphäre respektieren und trotzdem Daten über die Leistung unserer Website haben?
In diesem Abschnitt haben wir darüber gesprochen, warum du GA4 nutzen solltest und worin die wichtigsten Unterschiede zu Universal Analytics bestehen. Der Hauptgrund für diese Änderungen ist die Art und Weise, wie GA4 seine Daten in seinem neuen Datenmodell erfasst, worauf wir im nächsten Abschnitt näher eingehen.
Das GA4 Datenmodell
Das GA4-Datenmodell unterscheidet sich von Universal Analytics. Dieses neue Datenmodell ermöglicht es GA4, seine erweiterten Funktionen anzubieten. In diesem Abschnitt werden das Datenmodell und seine Funktionsweise näher erläutert.
Zu den wichtigsten Elementen dieses Datenmodells gehören:
- Einfachheit
-
Alles ist ein Ereignis desselben Typs. Den Daten werden keine willkürlichen Beziehungen aufgezwungen.
- Geschwindigkeit
-
Aufgrund des einfacheren Datenmodells kann durch die reduzierte Verarbeitung von Ereignissen alles in Echtzeit erledigt werden.
- Flexibilität
-
Die Ereignisse können bis zu deinem Kontingent (standardmäßig 500) beliebig benannt werden. An jedes Ereignis können Parameter angehängt werden, um die Metadaten genauer zu bestimmen.
Jetzt wollen wir uns mit der Syntax beschäftigen, mit der die GA4-Ereignis-Hits erstellt werden.
Veranstaltungen
Ereignisse sind die atomare Einheit der Datenerfassung in GA4. Jede Aktion, die eine Nutzerin oder ein Nutzer auf deiner Website entsprechend deiner Konfiguration durchführt, sendet ein Ereignis an die Server von Google.
Hier ist nur ein Ereignis:
{
"events"
:
[{
"name"
:
"book_start"
}]}
Das einfache Zählen der "book_start"
Ereignisse liefert nützliche Informationen, z. B. wie viele Personen das Buch begonnen haben, die durchschnittliche Anzahl der Buchlesungen pro Tag usw.
Um sicherzustellen, dass eine Sammlung von Ereignissen mit einem Nutzer verbunden ist, benötigen diese Ereignisse eine gemeinsame ID. In GA4 bedeutet dies, dass auch eine client_id
gesendet wird, eine pseudonyme ID, die normalerweise im GA4-Cookie enthalten ist. Diese wird in der Regel als Zufallszahl mit einem Zeitstempel für die erste Erstellung erstellt:
{
"client_id"
:
"1234567.1632724800"
,
"events"
:
[{
"name"
:
"book_start"
}]}
Die vorstehende Zeile ist die Mindestangabe für Ereignisse, die an dein GA4-Konto gesendet werden.
Hinweis
Zeitstempel werden in der Regel in Unix-Epochenzeit angegeben, oder die Anzahl der Sekunden seit Mitternacht am 1. Januar 1970. Cookies mit 1632724800 würde zum Beispiel Montag, 27. September 2021, 08:39:56 MESZ bedeuten - der Moment, in dem ich diesen Satz schreibe.
Diese Beispiele stammen aus dem Messprotokoll v2, das eine Möglichkeit ist, Ereignisse zu senden. Der weitaus üblichere Weg ist, die GA4 Tracking-Skripte auf deiner Website oder in deiner iOS- oder Android-App zu verwenden, um diese Ereignisse zu erstellen. Aber ich denke, es ist nützlich zu wissen, was dieses Skript macht.
Das gleiche Ereignis, das von einem Webtracker mit gtag()
gesendet wird, würde wie folgt aussehen:
gtag
(
'event'
,
'book_start'
)
Die GA4 JavaScript-Bibliothek kümmert sich um das Cookie, um die client_id
zu versorgen.
Wenn du die GA4 Tracking-Skripte verwendest, versucht die Bibliothek dir zu helfen, die Konfiguration der üblichen Ereignistypen zu vermeiden, indem sie automatisch gesammelte Ereignisse bereitstellt. Dazu gehören nützliche Ereignisse wie Seitenaufrufe, Videoaufrufe, Klicks, Dateidownloads und Scrolls. Das ist bereits ein Vorteil gegenüber Universal Analytics: Was du früher konfigurieren musstest, ist bei GA4 bereits Standard. Weniger Konfiguration bedeutet schnellere Implementierung und weniger Fehlerquellen. Um diese automatischen Ereignisse zu nutzen, kannst du in den erweiterten Messeinstellungen auswählen, welche davon aktiviert werden sollen.
Es gibt auch empfohlene Ereignisse, die Ereignisse sind, die du implementierst, die aber einer von Google empfohlenen Namensstruktur folgen. Diese sind mehr auf deine Website zugeschnitten und enthalten Empfehlungen für vertikale Bereiche wie Reisen, E-Commerce oder Job-Websites. Es lohnt sich auch, diese zu befolgen, denn zukünftige Berichte können sich auf diese Namenskonventionen stützen, um neue Funktionen aufzudecken. Zu den allgemein empfohlenen Ereignissen gehören Nutzeranmeldungen, Einkäufe und das Teilen von Inhalten.
Da diese automatischen und empfohlenen Ereignisse standardisiert sind, solltest du, wenn du deine eigenen Ereignisse sammelst, darauf achten, dass du ihre Namen nicht duplizierst, um Überschneidungen und Verwirrungen zu vermeiden. Du siehst hoffentlich, wie flexibel das System ist, wenn es darum geht, eine Standardisierung mit sinnvollen Vorgaben vorzunehmen, damit du das Rad nicht für jede Implementierung neu erfinden musst.
Benutzerdefinierte Parameter
Die Anzahl der Ereignisse allein reicht jedoch nicht für ein nützliches Analysesystem aus, . Für jedes Ereignis kann es keinen oder viele Parameter geben, die zusätzliche Informationen zu diesem Ereignis liefern.
Ein Login-Ereignis gibt dir zum Beispiel die Anzahl der Logins auf deiner Website an, aber du willst das wahrscheinlich danach aufschlüsseln, wie sich ein Nutzer anmeldet - per E-Mail oder über ein soziales Login. In diesem Fall schlägt dein empfohlenes login
Ereignis auch einen method
Parameter vor, mit dem du dies angeben kannst:
gtag
(
'event'
,
'login'
,
{
'method'
:
'Google'
})
Wenn du mit dem grundlegenderen Messprotokoll arbeitest, würde es wiefolgt aussehen:
{
"client_id"
:
"a-client-id"
,
"events"
:
[
{
"name"
:
"login"
,
"params"
:
{
"method"
:
"Google"
}
}]
}
Beachte, dass wir ein Array von params
mit den zusätzlichen Informationen hinzugefügt haben.
Ecommerce Artikel
Eine besondere Klasse von benutzerdefinierten Parametern sind die Artikel, die ein weiteres verschachteltes Array innerhalb der benutzerdefinierten Parameter sind, das alle Artikelinformationen enthält. Der E-Commerce stellt in der Regel die kompliziertesten Datenströme dar, da mit den Verkäufen mehrere Artikel, Aktivitäten und Daten verbunden sind.
Die Prinzipien sind jedoch weitgehend dieselben: In diesem Fall ist der benutzerdefinierte Parameterein Array, das einige empfohlene Felder wie item_id
, price
und item_brand
enthält:
{
"items"
:
[
{
"item_id"
:
"SKU_12345"
,
"item_name"
:
"jeggings"
,
"coupon"
:
"SUMMER_FUN"
,
"discount"
:
2.22
,
"affiliation"
:
"Google Store"
,
"item_brand"
:
"Gucci"
,
"item_category"
:
"pants"
,
"item_variant"
:
"Black"
,
"price"
:
9.99
,
"currency"
:
"USD"
}]
}
Kombiniere dies mit den empfohlenen E-Commerce-Ereignissen wie purchase
und einigen anderen Parametern, und der vollständige Ereignis-Payload sieht wie folgt aus:
{
"client_id"
:
"a-client-id"
,
"events"
:
[{
"name"
:
"purchase"
,
"params"
:
{
"affiliation"
:
"Google Store"
,
"coupon"
:
"SUMMER_FUN"
,
"currency"
:
"USD"
,
"items"
:
[{
"item_id"
:
"SKU_12345"
,
"item_name"
:
"jeggings"
,
"coupon"
:
"SUMMER_FUN"
,
"discount"
:
2.22
,
"affiliation"
:
"Google Store"
,
"item_brand"
:
"Gucci"
,
"item_category"
:
"pants"
,
"item_variant"
:
"Black"
,
"price"
:
9.99
,
"currency"
:
"USD"
,
"quantity"
:
1
}],
"transaction_id"
:
"T_12345"
,
"shipping"
:
3.33
,
"value"
:
12.21
,
"tax"
:
1.11
}
}]
}
Obwohl der obige Code einige der komplexesten Ereignisse darstellt, die an GA4 gesendet werden, hoffe ich, dass du die Einfachheit des zugrunde liegenden Modells zu schätzen weißt. Wenn du nur Ereignisse und Parameter verwendest, kann GA4 so konfiguriert werden, dass es komplexe Interaktionen auf deiner Website erfasst.
Benutzer-Eigenschaften
Zusätzlich zu den Daten auf Ereignisebene ist es auch möglich, Daten auf Benutzerebene einzustellen. Dabei handelt es sich um Daten, die mit dem client_id
oder user_id
verknüpft sind, den du gespeichert hast. Sie können verwendet werden, um Kundensegmente oder Spracheinstellungen festzulegen.
Warnung
Achte darauf, dass du die Entscheidungen der Nutzer zum Datenschutz respektierst. Wenn du Informationen zu einem bestimmten Nutzer hinzufügst, verlangen Gesetze wie die EU-Datenschutzgrundverordnung (GDPR), dass du die Zustimmung des Nutzers einholst, seine Daten für den angegebenen Zweck zu sammeln.
Das Senden von Benutzereigenschaften ist ähnlich wie das Senden von Ereignissen, aber du verwendest stattdessen das Feld user_properties
sowie alle Ereignisse, die du senden möchtest:
{
"client_id"
:
"a-client-id"
,
"user_properties"
:
{
"user_type"
:
{
"value"
:
"bookworm"
}
},
"events"
:
[
{
"name"
:
"book_start"
,
"params"
:
{
"title"
:
"Learning Google Analytics"
}}
]
}
Mit gtag()
würde das so aussehen:
gtag
(
'set'
,
'user_properties'
,
{
'user_type'
:
'bookworm'
});
gtag
(
'event'
,
'book_start'
,
{
'title'
:
'Learning Google Analytics'
});
In diesem Abschnitt haben wir uns angesehen, wie man GA4-Ereignisse auf verschiedene Arten sendet, z. B. über das Messprotokoll und gtag
, sowie die Syntax für das Senden von Ereignissen mit Parametern und Benutzereigenschaften. Jetzt geht es darum, wie die Ereignisse aus GA4 über die Integrationen mit GCP verarbeitet werden können.
Google Cloud Plattform
GCP kann jetzt fest in dein GA4-System über die bereits vorhandenen Datenanalysesysteme eingebettet werden. Es bietet Echtzeit-Dienste mit maschinellem Lernen und milliardenfacher Skalierung, für die du nur zahlst, wenn du sie nutzt, und die dich von langweiligen Aufgaben wie Wartung, Sicherheit und Updates entlasten. Dein Unternehmen kann sich auf das konzentrieren, was es am besten kann, und die Aufgaben, die nicht zum Kerngeschäft gehören, der Cloud überlassen. Durch die umlagefinanzierte Zahlungsstruktur der Cloud können kleine Teams Dienste erstellen, für die früher viel mehr Arbeitskräfte und IT-Ressourcen erforderlich gewesen wären.
In diesem Abschnitt befassen wir uns mit den GCP-Diensten, die du bei der Integration mit GA4 am ehesten nutzen wirst, mit den Fähigkeiten und Rollen, die dein Team braucht, um die Vorteile dieser Tools zu nutzen, mit den ersten Schritten, dem Kostenmanagement und der Auswahl des richtigen Cloud-Dienstes für dich.
Relevante GCP-Dienste
Dieses Buch konzentriert sich mehr auf die Datenanwendungsdienste von GCP, aber das ist immer noch eine riesige Auswahl an Diensten, die ständig aktualisiert werden. Für einen vollständigen Überblick, der den Rahmen dieses Buches sprengt, empfehle ich Data Science on the Google Cloud Platform von Valliappa Lakshmanan (O'Reilly).
Die folgenden wichtigen Cloud-Dienste werden in den Anwendungsfällen im weiteren Verlauf des Buches verwendet und waren für meine allgemeine Arbeit unerlässlich. Es gibt viele verschiedene Cloud-Dienste, und die Wahl des richtigen Dienstes kann am Anfang ein wenig verwirrend sein. Ich schlage vor, die hier hervorgehobenen Dienste als nützliche Einstiegsmöglichkeiten zu betrachten.
In diesem Buch werden wir die folgenden Dienste kennenlernen, in der groben Reihenfolge ihrer Nützlichkeit:
- BigQuery
-
Wie bereits erwähnt, wird BigQuery auf sowohl als Ziel als auch als Quelle für Analysen und Daten-Workloads eingesetzt. Mit BigQuery ML gibt es sogar Modellierungsfunktionen.
- Cloud-Funktionen
-
Als Bindeglied zwischen den Diensten kannst du mit Cloud Functions kleine Codeschnipsel wie Python in einer serverlosen Umgebung ausführen.
- Kneipe/Verleih
-
Pub/Sub ist ein Warteschlangensystem, das garantiert, dass jede Nachricht mindestens einmal zugestellt wird, und zwar in einem Umfang, der das gesamte Internet, das durch die Warteschlange geschickt wird, bewältigen kann.
- Cloud Build
-
Cloud Build ist ein Werkzeug für kontinuierliche Integration/kontinuierliche Entwicklung (CI/CD), mit dem du Docker-Container als Reaktion auf GitHub-Pushs in Stapeln auslösen kannst. Es ist ein verstecktes Arbeitspferd hinter mehreren meiner Lösungen.
- Cloud Composer/Airflow
-
Cloud Composer/Airflow ist ein Orchestrator, mit dem du zuverlässig komplizierte, voneinander abhängige Datenflüsse erstellen kannst, einschließlich der Zeitplanung.
- Datenfluss
-
Dataflow ist eine Batch- und Streaming-Lösung für Echtzeitdaten, die gut mit vielen GCP-Diensten integriert ist.
- Wolkenlauf
-
Cloud Run ist ähnlich wie Cloud Functions, lässt dich aber Docker-Container mit beliebigem Code ausführen.
In der Regel gibt es mehrere Möglichkeiten, um das zu erstellen, was du brauchst, und die Unterschiede können subtil sein, aber ich empfehle dir, pragmatisch zu sein und zuerst etwas zu besorgen, das funktioniert, und dann zu optimieren, welcher genaue Dienst später besser dafür geeignet ist. So kann es sein, dass du einen täglichen Datenimport mit einer geplanten BigQuery-Abfrage durchführst, aber bei komplexeren Anforderungen feststellst, dass Cloud Composer ein besseres Tool ist, um den Import zu koordinieren.
All diese Tools sind jedoch nicht einfach zu bedienen. Damit sie das leisten können, was du brauchst, musst du programmieren. Im nächsten Abschnitt gehen wir darauf ein, welche Kenntnisse du brauchst, um ihre Fähigkeiten zu nutzen.
Kodierfähigkeiten
Einer der entmutigendsten Aspekte bei der Anwendung dieser Integrationen kann sein, dass sie Fähigkeiten erfordern, von denen du denkst, dass nur Computerprogrammierer sie haben. Vielleicht hältst du dich selbst für "nicht-technisch".
Das habe ich früher auch gedacht. Ich erinnere mich daran, dass ich zu Beginn meiner Karriere sagte: "Ich kann kein JavaScript" und sechs Wochen darauf wartete, dass ein Entwickler Zeit hatte, um eine fünfzeilige Codezeile für eine Website zu schreiben. Als ich dann Zeit und Lust hatte, fing ich an, es selbst zu versuchen und machte dabei viele Fehler. Ich lernte auch, dass die Profis auch viele Fehler machten, der einzige Unterschied war, dass sie die Motivation hatten, weiterzumachen. Eine weitere Erkenntnis war, dass vieles, was ich in Excel machte, komplizierter und schwieriger zu bearbeiten war, als wenn man ein für die Aufgabe geeigneteres Tool benutzt hätte. Das Lösen der Aufgabe in Excel erforderte mehr Gehirnschmalz als das Lösen in R, zum Beispiel.
Wenn du also geneigt bist, würde ich dir dringend raten, weiterzumachen. Wenn es dir schwer fällt, liegt das nicht unbedingt daran, dass du kein Talent hast - diese Dinge sind am Anfang für jeden fremd. Das Programmieren kann in manchen Fällen unglaublich umständlich sein, und es kann schiefgehen, wenn du nur einen einzigen ";
" übersiehst. Sobald du jedoch einen Bereich gelernt hast, ist der nächste etwas einfacher. Ich habe als Power-User mit Excel angefangen, dann Python und JavaScript gelernt, mich dann in R verliebt, dann SQL und Bash schätzen gelernt und mich jetzt mit Go herumgetrieben. Es liegt in der Natur des Programmierens, dass der Code, den du dir vor sechs Monaten angesehen hast, furchtbar aussieht, wenn du lernst und besser wirst. Das ist ganz normal. Wichtig ist, dass du zurückblicken und den Fortschritt sehen kannst. Sobald du etwas zum Laufen gebracht hast, ist das Erfahrung, die langsam wächst, bis du dich 10 Jahre später hinsetzt und ein Buch darüber schreibst.
Für mich war Open Source auch eine Möglichkeit, meine Fähigkeiten zu verbessern, da das Veröffentlichen von Code und das Erhalten von Feedback zusätzlich zu den Erfahrungen, die ich mit dem Code gemacht habe, einen Multiplikator darstellte. Deshalb bin ich für jedes Feedback dankbar, das ich heute bekomme, ob auf GitHub oder anderswo. Der Code in diesem Buch wird auch in einem GitHub-Repository verfügbar sein, das das Buch begleitet. Ich werde mich bemühen, es aktuell und fehlerfrei zu halten.
Hinweis
Wenn du also einen Teil meines Codes liest und ein Feedback dazu hast, wie man es besser machen kann, melde dich bitte! Ich lerne immer noch dazu.
Die Anwendungsfälle in diesem Buch enthalten Codebeispiele für die folgenden Sprachen:
- JavaScript
-
Diese Funktion ist für alle seitenbasierten Nachverfolgungen mit HTML unerlässlich und wird am häufigsten für die Datenerfassung über Tags verwendet. Außerdem wird es in GTM häufig verwendet, um eigene Templates zu erstellen.
- Python
-
Python ist eine sehr beliebte Sprache, die von einer Vielzahl von Plattformen unterstützt wird ( ). Python ist eine nützliche Sprache, da sie als die zweitbeste Sprache für alles betrachtet werden kann. Sie verfügt auch über eine starke Repräsentation des maschinellen Lernens, obwohl du das wahrscheinlich nicht brauchst, es sei denn, du arbeitest an fortgeschrittenen Implementierungen.
- R
-
Obwohl du auch mit Python auskommen könntest, macht die Data Science Community von R meiner Meinung nach zur besten Sprache für Data Science. Die Bibliotheken und die Open-Source-Community decken alles ab, von der Datenerfassung bis hin zur Datenaktivierung über interaktive Dashboards und Berichte. Ich schreibe die meisten meiner Überlegungen, wie ich Datenworkflows angehe, der Denkweise zu, die ich von R übernommen habe.
- bash
-
Wenn du mit Cloud-Servern interagierst, wirst du höchstwahrscheinlich Linux-basierte Systeme wie Ubuntu oder Debian verwenden, die eher mit Bash als mit einer grafischen Oberfläche wie Windows arbeiten. Außerdem ist es praktisch, wenn du dich mit der Kommandozeilenprogrammierung in Bash auskennst, wenn du mit sehr großen Dateien zu tun hast, die sich nicht so einfach in andere Sprachen importieren lassen. gcloud und andere CLIs setzen auch Kenntnisse in Shell-Skripten voraus, wobei die Bash die beliebteste ist.
- SQL
-
In den meisten Fällen befinden sich die Rohdaten, mit denen du arbeitest, in einer Datenbank, und SQL ist die beste Methode, um sie zu extrahieren. SQL bietet außerdem eine hilfreiche Methode, um über Datenobjekte nachzudenken.
Es ist zwar möglich, sich durch Copy-Paste den Weg zum Sieg zu bahnen, aber ich empfehle wirklich, Zeile für Zeile durchzugehen und zumindest zu verstehen, was jeder Abschnitt des Codes macht.
Angenommen, du verfügst jetzt über einige Programmierkenntnisse, entweder durch deine eigenen oder die deines Teams, dann gehen wir jetzt dazu über, wie du mit GCP loslegst und deinen ersten Code in der Cloud bereitstellst.
Onboarding bei GCP
GCP ist ein wichtiger Bestandteil von Googles Unternehmen,, und es hat ganz andere Abläufe als Google Analytics, mit denen du dich vertraut machen musst.
Du kannst kostenlos einsteigen, aber du solltest wissen, dass du eine Zahlungskarte für deine Cloud-Nutzung brauchst, wenn du etwas Ernstes vorhast:. Allerdings kannst du mit den verfügbaren Gutscheinen mehrere Monate der Nutzung abdecken.
Die Google-Startseite führt dich durch deine erste Anmeldung.
Tipp
Wenn du ein bestehendes Google Cloud-Projekt hast, kann es sich trotzdem lohnen, ein neues Projekt für die Beispiele in diesem Buch zu erstellen, um sicherzustellen, dass sie mit den neuesten Versionen der APIs aktiviert sind. Zum Beispiel musst du höchstwahrscheinlich die Google Analytics Reporting API, die Google Analytics Admin API und die Cloud Build API aktivieren und überprüfen, ob die BigQuery API standardmäßig aktiv ist.
Der Aufstieg in der Serverless-Pyramide
Um die Möglichkeiten der Cloud wirklich auszuschöpfen, bedarf es einer Weiterentwicklung des Denkens darüber, wie IT-Probleme unter Nutzung ihrer Stärken angegangen werden können. Der erste Schritt der Unternehmen in die Cloud ist in der Regel ein "Life-and-Shift"-Modell, bei dem sie einfach das, was sie lokal betrieben haben, in der Cloud replizieren, z. B. eine lokale MySQL-Datenbank durch einen Cloud-Server mit MySQL ersetzen. Eine andere Strategie ist das "Verschieben und Verbessern", bei dem zumBeispiel die MySQL-Datenbank in Google Cloud SQL, einer verwalteten Instanz von MySQL, untergebracht wird.
Ein "Lift-and-Shift"-Modell wird jedoch nur geringe Vorteile im Vergleich zum vollen Potenzial der Cloud bringen. Um eine echte digitale Transformation zu erreichen, muss ein Unternehmen die höheren Metadienste nutzen, die auf den Grundlagen der Datenverarbeitung und Speicherung aufbauen, wobei es sich bewusst sein muss, dass es dadurch zwangsläufig etwas mehr an den Service des Cloud-Providers gebunden ist.
Das Argument der Cloud-Unternehmen für die Nutzung dieser Dienste ist, dass du die IT-Ressourcen für die Wartung, Anpassung und Entwicklung der erstellten Dienste ablegst und stattdessen in die Nutzung der darauf aufbauenden Anwendungen investierst, die du nach Bedarf nutzen kannst. Es ist zweifellos dieses Modell, das es mir ermöglicht hat, dieses Buch zu schreiben, denn ohne Cloud Computing wäre die Entwicklung eigener Dienste viel komplizierter und würde deine Möglichkeiten, mit Lösungen zu experimentieren, einschränken. Wenn IT-Ressourcen effektiv ausgelagert werden, werden viel kleinere Teams benötigt, um Ergebnisse zu erzielen.
Ein Beispiel dafür ist BigQuery. Um deinen eigenen BigQuery-Dienst zu erstellen, müsstest du in riesige Serverfarmen investieren, die im Leerlauf Geld kosten, nur damit sie verfügbar sind, wenn du die Ressourcen für eine "große Abfrage" brauchst. Wenn du den BigQuery-Dienst für dieselbe Abfrage nutzt, werden diese Ressourcen bei Bedarf online gekauft, und du zahlst nur für die Sekunden, in denen sie laufen.
Um dies zu veranschaulichen, finde ich das Diagramm der serverlosen Pyramide in Abbildung 1-1 hilfreich. Es skizziert einige der Dienste und die Kompromisse, die du bei der Auswahl eines Dienstes für deinen Anwendungsfall eingehst.
Auf der untersten Ebene gibt es virtuelle Maschinen und Speicherung, die im Grunde genommen Cloud-Versionen der Computer sind, die auf deinem Desktop laufen. Wenn du die vollständige Kontrolle über die Konfiguration haben willst, kannst du diese mit einigen Cloud-Vorteilen wie Backups,Sicherheit und Patches ausstatten. Diese Ebene wird manchmal auch als Infrastructure as a Service (IaaS) bezeichnet.
Auf der nächsten Ebene gibt es Dienste, die virtuelle Maschinen und die Speicherung für dich betreiben, aber alles abstrahieren, sodass du dich nur um die Konfigurationen kümmern musst, die du brauchst. App Engine ist ein Beispiel dafür, und diese Ebene wird manchmal auch als Platform as a Service (PaaS) bezeichnet.
Auf der Ebene darüber gibt es eine weitere Abstraktionsebene, die auf der entsprechenden PaaS läuft. Diese Dienste sind in der Regel stärker rollenorientiert, sodass Dienste wie analytisches Data Warehousing (BigQuery) verfügbar sind. Dies wird manchmal auch als Datenbank-as-a-Service (DBaaS) bezeichnet.
Darüber hinaus gibt es Dienste, die dir einen Teil der Konfiguration abnehmen, um noch mehr Komfort zu bieten. Oft musst du nur den Code angeben, den du ausführen willst, oder die Daten, die du umwandeln willst. Cloud Functions ist ein Beispiel dafür: Du musst nicht wissen, wie die Funktion ihren Code ausführt, sondern nur angeben, wie sie ausgeführt werden soll. Dies wird als Functions as a Service (FaaS) bezeichnet.
Auf dieser Grundlage kannst du beurteilen, wo deine Anwendung angesiedelt werden sollte. Die Dienste an der Spitze der Pyramide haben in der Regel höhere Kosten pro Durchlauf, aber wenn du ein bestimmtes Volumen oder bestimmte Kosten für die Implementierung nicht überschreitest, stellen sie immer noch eine massive Kostenersparnis dar. Wenn du einen größeren Teil der Infrastruktur besitzen oder skalieren musst, kannst du erwägen, die Pyramide nach unten zu verschieben, um mehr Kontrolle zu haben.
Die Anwendungsfälle in diesem Buch zielen darauf ab, so weit oben in der Pyramide wie möglich zu sein. Diese Dienste sind in der Regel die neuesten Entwicklungen und am schnellsten einsatzbereit und bieten dir die nötige Größe, um deine erste Milliarde Nutzer zu bedienen.
Und das ist jetzt wirklich in greifbarer Nähe - eine Überlegung, die bei der Auswahl deines Dienstes anstellt, ist die Frage, wie viel er genutzt werden wird, was bis zur globalen Google-Skala reichen kann. Vielleicht brauchst du es nicht sofort, aber es ist trotzdem eine Überlegung wert, falls du deine Anwendung umgestalten musst, falls sie sich als unerwartet erfolgreich erweist.
Hier ist es hilfreich, wenn du weit oben in der Pyramide stehst (wie in Abbildung 1-1 beschrieben), da diese Dienste in der Regel über eine automatische Skalierung der Leistung verfügen. Diese sollten begrenzt sein, um teure Fehler zu vermeiden, aber im Grunde solltest du, wenn du das Geld hast, für eintausend Nutzer/innen eine ähnliche Leistung erwarten wie für eine Milliarde. Weiter unten in der Hierarchie hast du zwar immer noch Optionen, aber du musst dich stärker in die Konfigurationen einbringen, wann und wo du die Skalierung anwenden willst.
Abschluss unserer GCP-Einführung
Dies war ein kurzer Überblick darüber, warum die Cloud so mächtig ist und wie sie für deine GA4-Implementierung genutzt werden kann. Wir haben darüber gesprochen, wie die Cloud dir Ressourcen zur Verfügung stellt, für die noch vor ein paar Jahren ein großes IT-Team nötig gewesen wäre, um sie zu aktivieren, und wir haben auch über die Konzepte von serverlosen und Lift-and-Shift-Modellen gesprochen, wie du das angehen kannst. Das bedeutet, dass du deine digitalen Rollen um die Programmiersprachen erweitern musst, die solche Dienste ermöglichen, mit dem Versprechen, dass die Investition in diese Fähigkeiten dich insgesamt zu einem effektiveren digitalen Marketer macht. Der Großteil dieses Buches befasst sich damit, wie du das in die Praxis umsetzen kannst, mit einigen Anwendungsbeispielen für Dinge, die du jetzt schon tun kannst.
Einführung in unsere Use Cases
In diesem Buch werden alle Konzepte und Technologien vorgestellt, die für GA4-Integrationen relevant sind, aber Theorie und Planung können nur so weit gehen. Die wirkliche Art und Weise, wie ich die in diesem Buch besprochenen Fähigkeiten gelernt habe, war die Implementierung von Anwendungen. Dabei habe ich zwar Fehler gemacht, aber diese Fehler waren oft die wertvollsten Lernerfahrungen, denn wenn man herausfindet, warum etwas schief gelaufen ist, versteht man besser, wie man es richtig macht.
Um dir den Einstieg in deine eigene Reise zu erleichtern, werden in den Kapiteln 7, 8 und 9 technische Anwendungsfälle vorgestellt, die den gesamten Lebenszyklus einer GA4-Datenanwendung einschließlich Codebeispielen beschreiben: die Erstellung der Geschäftsfälle, die technischen Anforderungen und die Entscheidung über die zu verwendenden Technologien. Wenn du alles der Reihe nach befolgst, solltest du am Ende eine funktionierende Integration haben.
Warnung
In der Praxis kann es vorkommen, dass du versehentlich bestimmte Schritte überspringst und zurückgehen musst, um genau zu lesen, was du verpasst hast. Außerdem kann es sein, dass sich die Technologien zu dem Zeitpunkt, an dem du einen bestimmten Anwendungsfall umsetzt, bereits leicht verändert haben und aktualisiert werden müssen.
Selbst bei einem perfekt umgesetzten Beispiel ist es unwahrscheinlich, dass es genau dem entspricht, was dein eigenes Unternehmen braucht oder was es priorisieren sollte. Die Anwendungsfälle decken meine Erfahrungen mit häufigen Kundenproblemen ab, aber deine eigenen werden zweifellos etwas anders sein. Da du die Anwendungsfälle höchstwahrscheinlich an deine eigenen Bedürfnisse anpassen musst, ist es wichtig, dass du nicht nur verstehst, was zu tun ist, sondern auch, warum wir es so und nicht anders machen. Dann kannst du den Prozess besser an deine eigenen Prioritäten anpassen.
Trotz deiner individuellen Anforderungen gibt es einige gemeinsame Themen, wie du diese Projekte angehen kannst. Kapitel 2 behandelt einen Rahmen, den alle erfolgreichen Datenintegrationsprojekte, an denen ich gearbeitet habe, gemeinsam hatten. Die Anwendungsfälle folgen diesem Rahmenwerk, damit du es praktisch anwenden kannst. Die vier Hauptbereiche sind Dateneingabe, Speicherung, Modellierung und Aktivierung. Denn wenn du versuchst, ein Problem zu lösen, das deinem Unternehmen nicht wirklich weiterhilft, wird das ganze Unterfangen nicht so effektiv sein, wie du es dir wünschst. Das richtige Problem zu finden, ist wichtig für dein eigenes Unternehmen. Deshalb gehen wir in Kapitel 2 auch auf einige Fragen ein, die du stellen kannst, um es zu definieren.
Die praktischen Anwendungsfälle ermöglichen es dir, dich ausschließlich auf die praktische Arbeit der Umsetzung zu konzentrieren. Am besten lernst du, indem du mitmachst und sie umsetzt, anstatt sie nur durchzulesen. Sie können dir auch als Referenz dienen, wenn du deine eigenen Anwendungsfälle implementierst, da du oft Aspekte einer Lösung in einer anderen wiederverwenden kannst. Zum Beispiel verwenden alle Anwendungsfälle in diesem Buch GA4 als Dateneingabequelle. Die Anwendungsfälle versuchen auch, verschiedene Technologien zu verwenden, um ein breites Spektrum an Anwendungen abzudecken.
Anwendungsfall: Vorausschauende Einkäufe
Der erste Anwendungsfall in Kapitel 7 ist ein Basisfall , der dir helfen soll, dich an den Gesamtansatz zu gewöhnen, der die gleiche Struktur hat wie die komplexeren Anwendungsfälle im weiteren Verlauf des Buches. Wir werden nur eine Plattform verwenden, GA4. Die gleichen Prinzipien gelten auch für die komplexeren Anwendungsfälle, aber es soll dir auch zeigen, dass du GA4 gegen andere Anwendungen austauschen kannst, wenn sie deinen Bedürfnissen besser entsprechen. In diesem Fall werden einige der neuen Funktionen von GA4 genutzt, darunter das maschinelle Lernen und der Publikumsexport.
Predictive Purchasing nutzt Modelle, um vorherzusagen, ob ein Nutzer in Zukunft kaufen wird oder nicht. Dies kann genutzt werden, um den Inhalt der Website oder die Werbestrategie für diese Nutzer/innen zu ändern. Wenn zum Beispiel die Wahrscheinlichkeit, dass ein Nutzer einen Kauf tätigen wird, über 90 % liegt, sollten wir die Werbung für diesen Nutzer vielleicht unterdrücken, weil der Auftrag bereits erledigt ist. Liegt die Kaufwahrscheinlichkeit dagegen unter 30 %, sollten wir diesen Nutzer vielleicht als verlorenen Fall betrachten. Wenn du eine solche Strategie verfolgst, kannst du dein Budget auf die 60 % der Nutzer/innen ausrichten, die vielleicht kaufen oder auch nicht. Das sollte deine Akquisitionskosten (CPA) senken und deinen Umsatz potenziell erhöhen.
Dazu werden wir GA4 verwenden, um Folgendes zu tun:
-
Sammle Daten auf der Website, einschließlich Conversion Events
-
Alle Daten speichern, die wir brauchen
-
Datenmodellierung mit prädiktiven Metriken wie Kauf und Wahrscheinlichkeit
-
Export zu Google Ads für die Aktivierung mit GA4's Audiences
Dieser Prozess wird in dem einfachen Datenarchitekturdiagramm in Abbildung 1-2 dargestellt.
Dafür ist keine Programmierung erforderlich, und die gesamte Konfiguration erfolgt über die Benutzeroberfläche.
Predictive Metrics ist eine Funktion, die in GA4 integriert ist und die Fähigkeiten von Google im Bereich des maschinellen Lernens direkt nutzt, um die Arbeitsweise deines Unternehmens zu verbessern. Allerdings muss deine Website bestimmte Kriterien erfüllen, um sich für die Predictive Metrics-Funktion zu qualifizieren, wodurch du weniger Kontrolle darüber hast, wann die Funktion genutzt werden kann. Wenn du die prädiktiven Metriken nicht nutzen kannst, hast du vielleicht trotzdem die Möglichkeit, deine eigenen Daten zu verwenden, das Modell selbst zu erstellen und dann später die Google Ads-Integration zu nutzen. Darauf gehen wir im nächsten Abschnitt ein.
Anwendungsfall: Segmentierung des Publikums
Der Anwendungsfall Zielgruppensegmentierung in Kapitel 8 zeigt dir, wie du das Gesamtverhalten deiner Kunden besser verstehen kannst. Welche gemeinsamen Trends oder Verhaltensweisen kannst du erkennen, damit du dieses Segment besser bedienen kannst? Wie viele Arten von Kunden hast du? Passen die datengestützten Segmente, die du gefunden hast, zu den Annahmen deines Unternehmens?
Solche Segmentierungsprojekte wurden in der Vergangenheit genutzt, um Marketingbotschaften für diese Nutzer/innen zu personalisieren. So kann man z. B. feststellen, dass bestimmte Kunden eher Cross-Sell-Produkte kaufen. So kann man die Marketingnachrichten auf diese Kunden beschränken, um die Kosten für Kampagnen zu senken und unnötige Nachrichten an Kunden zu vermeiden, die davon genervt sein könnten.
Du kannst nach vielen verschiedenen Kriterien segmentieren. Eine erfolgreiche Methode, die es schon vor dem Internet gab, ist das RFM-Modell, das die Häufigkeit, die Häufigkeit und das Geldverhalten der Nutzer/innen untersucht und diejenigen mit ähnlichen Werten in jedem Bereich segmentiert. Mit der Fülle an Daten, die heute zur Verfügung stehen, kannst du andere Modelle mit Hunderten von Feldern erstellen. Welches Modell du wählst, hängt vor allem von den geschäftlichen Anforderungen deines Anwendungsfalls und von den Überlegungen zum Datenschutz ab. Der Datenschutz ist hier wichtig, da es notwendig sein kann, die Zustimmung der Nutzer/innen einzuholen, um ihre Daten in die Modelle aufzunehmen. Wenn du die Zustimmung nicht einholst, könnte der Kunde verärgert sein, wenn er gezielt angesprochen wird.
In diesem Beispiel möchten wir unsere Google Ads-Kosten effizienter gestalten. In diesem Zusammenhang übernimmt Google Ads die Rolle der Datenaktivierung, da wir dort Daten senden, um das Nutzerverhalten zu ändern. Unser Ziel ist es, die Kosten zu senken und den Umsatz zu steigern, wenn wir unsere Werbebotschaften besser auf unsere Kunden zuschneiden können.
Wir möchten die Daten, die wir über das Website-Verhalten eines Kunden und seine Kaufhistorie haben, nutzen, um zu entscheiden, ob wir ihm bestimmte Anzeigen zeigen sollen oder nicht. Dazu werden wir Folgendes verwenden:
-
GA4 und unsere Customer Relationship Management (CRM)-Datenbank als Datenquellen
-
Cloud-Storage und BigQuery als unsere Speicherung von Daten
-
BigQuery, um unsere Segmente zu erstellen
-
Firestore, um diese Segmente in Echtzeit an unsere GA4-Nutzer weiterzuleiten
-
GTM SS zur Anreicherung der GA4-Daten
-
GA4 Audiences, um diese Segmente an Google Ads weiterzuleiten
Die Wechselwirkungen zwischen diesen Diensten sind in Abbildung 1-3 dargestellt.
Dabei stellen wir auch sicher, dass die Datenschutzbestimmungen eingehalten werden und dass keine personenbezogenen Daten exportiert oder dorthin übertragen werden, wo sie nicht benötigt werden.
Die Technologien, die wir für die folgenden Dienste verwenden, werden später in den entsprechenden Kapiteln ausführlicher behandelt:
-
GA4 für die Webmessung
-
Eine Produktionsdatenbank für die Kaufhistorie der Nutzer
-
Importe über Cloud-Speicherung, Pub/Sub und Cloud-Funktionen
-
BigQuery für die Erstellung der Segmentierungsmodelle
-
Cloud Composer zur Planung der Aktualisierungen
-
Cloud-Speicherung, Pub/Sub und Cloud-Funktionen zum Importieren der Segmente in GA4
-
GA4 zum Erstellen der Audiences
Du brauchst Kenntnisse in Python und SQL sowie einige Konfigurationsarbeiten in GA4, der Google Cloud Konsole und Google Ads. Außerdem müssen wir sicherstellen, dass wir in GA4 die richtigen Daten sammeln, damit wir die Webaktivitäten datenschutzkonform mit den CRM-Daten verknüpfen können.
Anwendungsfall: Vorhersage in Echtzeit
Im Anwendungsfall in Kapitel 9 geht es um die Erstellung von einer Echtzeit-Prognoseanwendung. Die Echtzeitanalyse ist oft eine der ersten Fragen, die Unternehmen stellen, wenn sie in die Analytik einsteigen, aber sie wird meist zurückgestellt, wenn sie feststellen, dass sie nicht in der Lage sind, auf den Datenstrom in Echtzeit zu reagieren. Wenn du diese Möglichkeit hast, ist es jedoch ein spannendes Projekt, weil du die Vorteile sofort erkennen kannst.
Ein gutes Beispiel für diesen Anwendungsfall ist eine Redaktion eines Verlags, die bei der Auswahl der zu veröffentlichenden oder zu promotenden Geschichten auf Echtzeit-Ereignisse während des Tages reagiert. In einem Unternehmen, in dem Klicks und Aufrufe Umsatz bedeuten, kann ein viraler Hit in den sozialen Medien einen großen Einfluss auf das Geschäft haben. Um einen solchen Hit zu landen, sind wiederholte Versuche, Bearbeitung und Werbung auf den Homepages und ständige Echtzeit-Informationen über die aktuellen Themen und Stimmungen in den sozialen Medien erforderlich. Der Anwendungsfall, den wir hier beschreiben, zeigt, wie man diesen Strom von Webanalysedaten nutzen kann, um auf der Grundlage der aktuellen Nutzung Prognosen für den Traffic zu erstellen. Diese Vorhersagen kannst du mit GA4 Audiences treffen, die so eingerichtet wurden, dass sie verschiedene Segmente deiner Kunden identifizieren.
Dieser Anwendungsfall zeigt, wie Docker verwendet wird, um die Dashboard-Lösung auf Cloud Run auszuführen, auf der das Shiny-Webanwendungspaket von R läuft. Ein wichtiger Grund für die Verwendung von Docker ist, dass du den Code, der in den Containern läuft, gegen eine andere Sprache austauschen kannst, z. B. gegen Python, Julia oder eine andere Data-Science-Sprache. Zu den Datenrollen für dieses Projekt gehören:
-
Dateneingabe über APIs
-
Speicherung von Daten innerhalb der Anwendung
-
Datenmodellierung in R
-
Datenaktivierung über ein R Shiny Dashboard
Um diesen Anwendungsfall zu erreichen, brauchen wir Folgendes:
-
GA4 zum Sammeln des Echtzeit-Web-Event-Streams
-
Cloud Run zum Ausführen des Dashboards
-
GA4 Zielgruppen, um ein nützliches Segment für die Prognose zu haben
Abbildung 1-4 zeigt, wie diese Ressourcen miteinander verbunden sind.
Wir werden einige R-Kenntnisse verwenden, um die Echtzeit-Feeds und die Modellierung zu erstellen, und wir werden einige Dashboard-Visualisierungskenntnisse verwenden, um das Dashboard zu erstellen.
Zusammenfassung
In diesem Kapitel wurden die wichtigsten Möglichkeiten vorgestellt, wie du GA4 nutzen kannst, um deine Digital Analytics-Implementierungen voranzubringen. Wir haben untersucht, warum GA4 überhaupt entwickelt wurde und wie es sich von Universal Analytics durch sein neues, einfacheres Datenmodell unterscheidet und es verbessert. Wir haben auch untersucht, wie die Integration mit GCP deine digitalen Analysen für eine ganz neue Welt von Anwendungen mit Diensten wie Firebase und BigQuery öffnet. Die Nutzung dieser neuen Cloud-Dienste erfordert zwar neue Fähigkeiten, wie z. B. das Programmieren, aber die neuen Dienste der Cloud machen dies leichter zugänglich als in der Vergangenheit. Angebote für serverlose Architekturen haben es möglich gemacht, einen Großteil der Arbeit bei der Konfiguration und Skalierung von Rechendiensten wegzulassen. Eine allgemeine Empfehlung für den Einstieg ist, die Dienste so weit oben in der Architektur wie möglich zu nutzen, um die Einstiegshürde so niedrig wie möglich zu halten.
Auch wenn die Technologie jetzt verfügbar ist, ist die Herangehensweise und die optimale Nutzung eine Schlüsselqualifikation, die für Digital Marketer, die die Cloud noch nicht genutzt haben, ungewohnt sein kann. Daher legen wir in Kapitel 2 den allgemeinen Rahmen und die Strategie für erfolgreiche Datenanalyseprojekte fest, die über viele Projekte hinweg wiederholt werden können. Wir werden die Rollen der Datenaufnahme, der Datenerfassung, der Datenmodellierung und der Datenaktivierung aus einer strategischen Perspektive heraus entwickeln, um für die folgenden Kapitel zur praktischen Umsetzung gerüstet zu sein.
Get Google Analytics lernen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.