Data

Innovatie op het Google Cloud platform: hoe begin je eraan?

Het Google Cloud Platform (GCP) bestaat al een hele tijd. De makers van GCP hebben hun uiterste best gedaan om de software zo goed mogelijk aan te laten sluiten op de behoeften van gebruikers. Toch is het niet gemakkelijk om te starten met het gebruik van GCP. Want waar begin je precies? En welke koppelingen leg je als eerste met je bestaande systemen?

De meeste modules van de Google Cloud zijn zo open mogelijk opgezet, waardoor de mogelijkheden eindeloos zijn. Dit brengt voordelen met zich mee, maar maakt het ook lastig om de software te gebruiken. 

Aan de hand van een praktisch voorbeeld, zal ik in deze blog een aantal toepassingen verduidelijken. Wellicht roepen deze oplossingen ideeën op, misschien zorgen ze ook juist voor meer vragen. Maar ook dat laatste is goed, want vragen stellen kan uiteindelijk leiden tot nieuwe inzichten. Dat geldt in ieder geval voor de vragen die je aan ons stelt.

Inzicht krijgen in wat er speelt

Dataprojecten in de Google Cloud beginnen met het verkrijgen van nieuwe inzichten. Soms halen we deze uit bestaande data, soms moeten er eerst wat nieuwe metingen worden verricht. We weten dat er wordt geklikt, we weten dat de nieuwsbrief wordt gelezen en we weten dat er wordt besteld, maar hoe komt die bestelling tot stand? Welke kliks waren hiervoor nodig? Welke info zorgde voor die verandering? Waar heeft de gebruiker precies gekeken? Al deze vragen behoeven een meer gerichte en specifieke meting. 

Afhankelijk van de belangrijkste vragen, begint innovatie in GCP met het koppelen van databronnen in een database. Idealiter doe je dit zo veel mogelijk op gebruikersniveau, uiteraard geanonimiseerd. BigQuery, het database-paradepaardje van Google, dient zich hier perfect voor. De module is schaalbaar, kan worden ingezet voor kleine simpele datasets tot aan petabytes (Hoeveel is een petabyte?) aan data en laat zich gemakkelijk koppelen aan andere Google Cloud modules. 

Maar dan rijst de vraag: hoe komt die data er vervolgens in? Daar zorgen wij voor! 

Datakoppelingen maken met de juiste tools

Afhankelijk van de bron en de hoeveelheid vertraging die acceptabel is, bouwen we geautomatiseerde koppelingen die data in batches of (constante) streams naar BigQuery verplaatsen. Het maakt niet uit of deze data uit email tools komt, appdata, webdata of zelfs je orderdata betreft. Door tools als Cloud Functions, AppEngine of Cloud DataFlow te gebruiken, hebben wij alle opties in huis. Voor een aantal koppelingen hebben wij zelfs een out-of-the-box oplossing klaarliggen. Via BigQuery wordt het erg eenvoudig om inzicht te creëren in de data, met behulp van Data Studio rapportages. 

Dan staat de eerste datastroom en heb je dagelijks inzicht in je web- en email KPI’s. Omdat de KPI’s op gebruikersniveau beschikbaar zijn, delen wij ze alvast in handige groepen in voor je. En wat zien we nu? Bepaalde groepen reageren heel anders op dat nieuwe onderdeel van je website, of op je nieuwe mailcampagne. Daar moeten we wat mee doen. 

Data-driven decision making vanuit Google Cloud Platform

Vanuit je eerste Data Studio rapportage hebben we geconcludeerd dat bepaalde onderdelen van je app of website meer personalisatie behoeven, om aan te sluiten bij zo veel mogelijk gebruikers. Maar hoe koppel je de juiste gebruiker aan de juiste items? Hiervoor hebben wij in Google Cloud een oplossing gebouwd, namelijk een Recommendation Engine. En de resultaten van deze techniek liegen er niet om. Tests hebben uitgewezen dat door relevanter te zijn voor je klant, het conversiepercentage tot wel 2.5 keer verhoogd kan worden. Op de lange termijn heeft dit een positieve invloed op engagement. 

Na het klaarzetten van de juiste input data, kan de pipeline worden opgebouwd. Allereerst wordt de input data verwerkt door de Recommendation Engine. Afhankelijk van timing en de hoeveelheid gegevens die in een run moeten worden verwerkt, maken we daarvoor een DataProc of DataFlow template. Deze twee modules gebruiken frameworks die bijzonder geschikt zijn voor het verwerken van en rekenen met data in enorme hoeveelheden én op hoge snelheid. De gegenereerde output bevat gepersonaliseerde items per gebruiker. De output wordt dan naar de juiste uitgang gestuurd, bijvoorbeeld een Pub/Sub topic of een custom API. Op deze manier kan personalisatie je KPI’s verbeteren.

Een slim algoritme creëren

Om het algoritme ook van feedback te voorzien, voeden we de nieuwe gedragsdata die de personalisatie genereert terug aan de Recommendation Engine. Dit doen we aan hand van de nieuwe gedragsdata die BigQuery in stroomt. Hierdoor leert het algoritme ook herkennen welke gepersonaliseerde items beter werken en wordt het nog slimmer. Daarnaast voorzien we in nieuwe Data Studio rapportages betreffende de prestaties van de Recommendation Engine. Hiermee is de cirkel weer rond.  

Aan de slag! 

De eerste stap om te kunnen innoveren met behulp van Google Cloud, is het koppelen van data die belangrijk is voor jouw platform. Het analyseren van deze data zal ongetwijfeld leiden tot ideeën die dan weer in het Google Cloud Platform kunnen worden gerealiseerd. Op naar de volgende innovatie in Google Cloud!

 

Nieuwsgierig naar de eindeloze mogelijkheden van Google Cloud platform? Neem gerust eens contact met onze data specialisten op!

 

Coen van Duijnhoven

Data Scientist

c.vanduijnhoven@yourzine.nl