Splitsen testen met Google Analytics-experimenten

In de tutorial van vandaag gaan we kijken naar een van de nieuwste toevoegingen van Google Analytics aan zijn functieset; experimenten. Met deze tool laat ik u zien hoe u verschillende varianten van een pagina dient om te bepalen welke de meest succesvolle is in het converteren van bezoekers naar de site..


Preambule

Als u ooit een website hebt gemaakt, bent u vrijwel zeker bekend met Google Analytics. Met een gratis Google-account en een codefragment bent u in staat om bezoekers naar uw sites te volgen en de gegevens te bekijken met een verrassende focus.

Van kleine persoonlijke projecten tot sites op ondernemingsniveau, Google Analytics is om zeer goede redenen marktleider geworden; het is gratis, eenvoudig te implementeren en is geschikt voor de informele gebruiker of zelfs de meest geharde marketeer.

klaar om te beginnen? Laten we beginnen!


Een korte introductie tot split-testen

We hebben split-testen eerder behandeld als onderdeel van Ian's grondige roundup over conversie en online marketing, maar laten we een korte blik werpen op split-testen in de online arena.

Door verschillende versies van een pagina aan te bieden aan gelijktijdige bezoekers, doen we effectief wat mensen in marketingkringen splitstests noemen. Het uiteindelijke doel van deze aanpak is om te bepalen welke van een groep webpagina's (of brochures, banneradvertenties, tekstadvertenties, enz.) Bezoekers het meest effectief omzet. Hoewel een 'conversie' bijna alles kan zijn, zijn website-eigenaren doorgaans geïnteresseerd in aankopen, aanmeldingen, accountregistraties of zelfs bezoekers om ze op sociale kanalen te volgen..

Variaties moeten allemaal op hetzelfde moment worden uitgevoerd.

Het belangrijkste concept om te begrijpen over split testen is dat de variaties allemaal tegelijk moeten worden uitgevoerd. Met andere woorden, het zou niet worden beschouwd als een effectieve splitstest om een ​​pagina een maand lang te laden, de gegevens te verzamelen en vervolgens een andere pagina te uploaden om de gegevens opnieuw te verzamelen en te vergelijken. Een belangrijk onderdeel van split-testen is ervoor te zorgen dat zoveel mogelijk factoren die van invloed kunnen zijn op een bezoeker van de site worden verwijderd.

Tot redelijk recent was de A / B split-test (d.w.z. testen tussen twee variaties) de standaardaanpak voor het testen van online conversies. Het idee met A / B-gesplitste tests is om een ​​winnaar te krijgen en vervolgens nog een aantal keren te spoelen en te herhalen, telkens dichter bij de pagina die het maximale aantal bezoekers converteert. Hoewel redelijk effectief, heeft A / B Split Testing een aantal kritieke beperkingen die we in een moment zullen bespreken.

De vraag is, is dit een robuuste manier om werkelijk komen op de best converterende pagina? Er zijn een aantal problemen met het proces zoals afgebeeld in de bovenstaande afbeelding:

  • Ten eerste, als we ervan uitgaan dat elke test een week kost om uit te voeren, zal het proces om een ​​winnende pagina te bereiken pijnlijk lang duren om uit te voeren. Dit is niet alleen een lange tijd dat uw site vertrouwt op succesvolle conversies, er kan binnen vijf weken veel gebeuren op internet. Zelfs een verandering in de manier waarop Google uw pagina indexeert, zou een drastisch verschillende set gebruikers kunnen opleveren (net zoals we zagen in de nieuwste Google 'Penguin' update). Dit betekent dat we in wezen appels met peren tussen de eerste gesplitste test en de laatste test bijna anderhalve maand later zouden kunnen vergelijken.
  • Ten tweede, hoewel we weten dat pagina één beter presteerde dan pagina twee in de eerste test, kunnen we niet zeker zijn dat pagina twee niet beter presteert dan pagina drie, omdat we ze niet naast elkaar hebben vergeleken.

Een beter alternatief voor deze methode is om alle paginavarianten tegen elkaar en tegelijkertijd te vergelijken, zoals hier wordt weergegeven:

In dit voorbeeld kunnen we er zeker van zijn (zonder enige twijfel) dat pagina vier inderdaad de best presterende pagina is, omdat alle pagina's binnen dezelfde tijdsperiode tegen elkaar worden getest, met (we kunnen veronderstellen) een consistent bezoekersbestand.

Wat we vandaag gaan doen, is het gebruik van Google Analytics-experimenten om drie paginavarianten naast elkaar uit te voeren, in plaats van meerdere iteraties van de standaard twee variaties in traditionele A / B-deeltests. Hoewel ik drie variaties gebruik, kun je momenteel zes paginavariaties uitvoeren in een enkel 'experiment'.


Het scenario

In het project van vandaag zijn we belast met het vergroten van het aantal succesvolle accountregistraties voor een fictief bedrijf. Ze hebben gemerkt dat een groot aantal bezoekers van de site terechtkomen op de aanmeldingspagina van het account, maar afhaken voordat ze het formulier daadwerkelijk verzenden.

Hier is een screenshot (aangepast voor de zelfstudie) van de huidige aanmeldingspagina of je kunt de pagina online bekijken.

Notitie: deze zelfstudie gaat niet kijken naar het ontwerp van de pagina en de varianten daarvan. Als u geïnteresseerd bent in het onderzoeken van de code, kunt u alle bestanden downloaden van het bronnengedeelte van deze zelfstudie.

Deze pagina's zijn omwille van de eenvoud en beknoptheid vrij ongecompliceerd en bevatten geen server-side scripts om de formuliergegevens te verzamelen en zijn geen voorbeelden van werkende productieformulieren.


In dit stadium kunnen we alleen speculeren over wat de reden voor de drop-off eigenlijk zou kunnen zijn, maar een goede plaats om te beginnen is door de lengte van het formulier aan te pakken. Momenteel vereist de aanmeldingspagina dat de gebruiker maar liefst veertien afzonderlijke acties voltooit om een ​​account te maken.

Ervan uitgaande dat de gebruiker in staat is om terug te keren en hun persoonlijke gegevens toe te voegen (bijvoorbeeld hun land en de gewenste valuta) nadat hun account is gemaakt, is een logische paginavariatie om bezoekers van de site te dienen een bijgesneden formulier dat minder acties vereist om te voltooien.

Met dat aanvalsplan in gedachten, hier is de tweede pagina-variant die we in ons experiment zullen gebruiken:


Bekijk de pagina online.

Voor onze laatste paginavariatie, laten we het formulier nog een keer inkorten om alleen de absoluut noodzakelijke items op te nemen om een ​​account te maken, namelijk de gebruikersnaam, wachtwoordvelden, e-mailadres en bevestiging van de servicevoorwaarden.

Hier is een afbeelding van de derde pagina-variant:


Bekijk de pagina online.

Ten slotte hebben we een bevestigingspagina die aan de bezoeker wordt getoond zodra het formulier met succes is ingevuld.


Bekijk de pagina online.

Nu we onze drie paginavarianten hebben, kunnen we de vereiste elementen in Google Analytics instellen en ze naast elkaar testen.


Stap 1: Maak een Google Analytics-account

Ik ben er zeker van dat velen van u al bekend zijn met Google Analytics, maar voor de volledigheid gaan we elke stap die nodig is om de analyse op de site mogelijk te maken, een doel definiëren en het experiment zelf mogelijk maken.

Ga naar Google Analytics en log in met uw Google-account (of stel een nieuw account in). Ervan uitgaande dat u nog geen analyse-account aan uw profiel hebt toegevoegd, krijgt u het volgende scherm te zien. Klik op de knop 'Aanmelden' om aan de slag te gaan.

Vul op de volgende pagina de formuliervelden in die betrekking hebben op uw project:


Stap 2: voeg het Google Analytics-fragment toe

Het trackingvermogen van Google Analytics wordt mogelijk gemaakt door een JavaScript-fragment en op de volgende pagina ontvangt u de vereiste code en instructies over hoe u het aan uw site kunt toevoegen. Kopieer de code naar uw klembord en plak deze op elke pagina die u wilt bijhouden met Google Analytics.

Op de site geeft de helptekst aan dat u dit fragment onmiddellijk vóór de afsluiting toevoegt tag, die ervoor zorgt dat een paginaweergave wordt geregistreerd, zelfs als de volledige pagina niet is geladen voordat de gebruiker verder gaat. Het wordt echter gewoonlijk als de beste methode beschouwd om uw scripts onder aan een html-pagina toe te voegen, vóór het sluiten label.

Hoewel beide benaderingen goed werken, willen we in deze situatie ervoor zorgen dat onze aanmeldingspagina's volledig worden geladen voordat het Analytics-script wordt geactiveerd.

Voor dit project heb ik dit script toegevoegd aan de drie aanmeldingspagina's (signup1.html, signup2.html & signup3.html) en de bevestigings.html-pagina, zoals het volgende:

          

Nadat u de code hebt toegevoegd, uploadt u de pagina's via FTP naar een webserver. Het is ook belangrijk om op te merken dat Google Analytics vaak 24 - 48 uur nodig heeft om met het verzamelen van gegevens te beginnen, dus wees geduldig gedurende de eerste dagen voordat je je bezoekersgegevens ziet.


Stap 3: maak een doel

Voordat we het experiment zelf opzetten en mogelijk maken, moeten we een meetdoel definiëren.

Google Analytics kan worden geconfigureerd voor het maken en bewaken van zeer geavanceerde doelen, waaronder trechters voor meerdere kanalen en e-commercetracking. In het voorbeeld van vandaag houden we het eenvoudig door een succesvolle conversie (dat wil zeggen ons doel) te definiëren als de /confirmation.html URL-bestemming. Met andere woorden, we willen elke instantie van een gebruiker die een van de drie formuliervarianten voltooit volgen, op de knop 'Verzenden' klikken en bij 'Bedankt voor registreren bij ons' komen.

Selecteer in het hoofdmenu van de linkerhand in de Google Analytics-interface het item 'Overzicht' in de kop 'Conversies':

Als dit het eerste doel is dat u heeft ingesteld, moet u automatisch doorgaan naar de pagina 'Een nieuw doel maken'. Als dat niet het geval is, klikt u op het menu-item 'Beheerder' in de rechterbovenhoek van uw scherm en controleert u of u naar het tabblad 'Doelen' kijkt.

Geef je nieuwe doel een naam, selecteer het doeltype als URL-bestemming en voer het pad in, in dit geval /confirmation.html.

Als aan uw doel een actuele dollarwaarde is gekoppeld (bijvoorbeeld een betaald lidmaatschap van een site), kunt u dit bedrag toevoegen aan het tekstveld 'Doelwaarde'. We gaan vandaag geen doeltrechter gebruiken, dus we kunnen ons nieuwe doel gewoon redden.


Stap 4: Open de Experiments-functie

Met ons doel ingesteld, kunnen we nu een experiment starten om te bepalen welke van onze pagina's het beste presteren in termen van succesvolle accountregistratie.

Selecteer 'Experimenten' in het gedeelte 'Inhoud' van het hoofdmenu van links.

Notitie: zoals bij veel Google-producten, wordt de functie Experimenten geleverd als onderdeel van een gefaseerde implementatie. Als u momenteel geen toegang heeft tot experimenten, moet u geduld oefenen en wachten tot uw Google-account is bijgewerkt met deze functie.

Voeg om te beginnen de URL toe van de pagina die we willen testen, in dit geval signup1.html. Dit is geen live-URL - het wordt gewoon gebruikt voor de doeleinden van de zelfstudie.


Stap 5: Maak een experiment

Nadat u de functie voor experimenten hebt geopend, krijgt u een wizard voor het maken van experimenten in vier stappen te zien.

Begin met het bevestigen van de besturingspagina (dat wil zeggen /signup1.html) en voeg vervolgens de URL's toe voor elk van de paginavarianten. Zorg ervoor dat u elke variatie een beschrijvende naam geeft en niet alleen een generieke 'variatie één / variatie twee / variant drie' titel - het zal de analyse van het experiment veel gemakkelijker maken in de latere stadia.

Op de volgende pagina van de registratiewizard voor experimenten zullen we verwijzen naar het doel dat we in Stap drie hebben gemaakt als de meetbare metriek.

In dit experiment willen we paginavariaties aanbieden aan 100% van de bezoekers. Als u ingrijpende wijzigingen aanbrengt in een bestaande site, kunt u ervoor kiezen het aantal bezoekers dat deelneemt aan het experiment te beperken om mogelijke gevolgen te minimaliseren.

Op de derde pagina krijgt u een ander codeblok dat aan het bestand wordt toegevoegd controlepagina (in dit geval /signup1.html). Voeg deze code toe aan de bovenkant van de bedieningspagina, net na de opening label. Let op, voor dit script - in tegenstelling tot de trackingcode - willen we deze code absoluut helemaal boven aan de pagina, omdat dit de manier is waarop de paginavarianten aan bezoekers worden getoond..

De definitieve code voor de controlepagina (dat wil zeggen /signup1.html) ziet er als volgt uit:

        Aanmeldingsformulier 1     

Upload uw nieuwe controlepagina met het experimentscript naar uw server.

In de vierde fase kunt u controleren of alles werkt zoals het hoort en dat Google Analytics alle pagina's registreert en klaar is om het experiment uit te voeren.


Stap 6: Uw experiment testen

Goed gedaan! U heeft uw eerste Google Analytics-experiment gemaakt en u bent een stap dichter bij het verbeteren van uw conversieratio.

Aangezien het 24-48 uur duurt voordat het deelvenster Experimenten begint met het weergeven van gegevens, kunnen we ervoor zorgen dat ons experiment inderdaad verschillende paginavarianten serveert.

Open uw browser en ga naar de bedieningspagina (d.w.z. /signup1.html). Als het experiment correct werkt, wordt u automatisch doorgestuurd naar een van de drie paginavarianten. Op uw adresbalk wordt de variant met een bijgevoegde ID weergegeven. Dit geeft aan dat het experiment een van de varianten op uw browser heeft gebruikt.

Achter de schermen heeft Google Analytics een cookie aan uw browsersessie toegevoegd die onthoudt welke paginavariatie u hebt gekregen. U zult merken dat als u de pagina vernieuwt of later naar de pagina terugkeert, u altijd de originele paginavariant te zien krijgt - een essentieel onderdeel om ervoor te zorgen dat u uw bezoekers een consistente gebruikerservaring biedt.

U kunt de cookies, site en plug-ins van uw browser wissen om een ​​andere variant van de pagina te ontvangen.


Stap 7: Analyseren van de experimentgegevens

Nadat het experiment is gemaakt, voert het zichzelf uit en verzamelt het gegevens totdat een duidelijke winnaar kan worden bepaald door Google Analytics. De tijdsduur die uw experiment moet uitvoeren, is afhankelijk van een aantal factoren, waaronder algemene bezoekers en hoe dicht de varianten op elkaar presteren..

Laten we dit experiment eens bekijken terwijl het bezig is en een paar punten uitkiezen die het waard zijn om te bespreken.

  1. De standaardgrafiekgegevens berekenen de conversieratio van elk van de paginavarianten ten opzichte van de tijd dat het experiment is uitgevoerd. Dit is waarschijnlijk de belangrijkste statistiek die we vandaag voor onze doelen moeten bekijken. Met de vervolgkeuzeselectie kunt u ook de gegevens plotten die betrekking hebben op een aantal andere statistieken, waaronder sitegebruik, succesvol aantal doelgroepen en een selectie van standaard Analytics-statistieken, zoals pagina's per bezoek, bouncepercentage, percentage nieuwe bezoeken enzovoort.
  2. Rechts van de pagina wordt het lopende experiment samengevat, inclusief de algemene bezoeken aan de experimentpagina's, de hoeveelheid verstreken tijd en de experimentstatus. In dit geval heeft Analytics geen duidelijke winnaar vastgesteld.
  3. Een interessant punt om op te merken is dat Analytics de pagina's niet per se afzonderlijk hoeft te verspreiden. Aan het begin van het experiment kunt u een vergelijkend aantal bezoeken verwachten voor elke paginavariatie. Naarmate het experiment vordert en een of meer van de pagina's beter presteren dan de andere, krijgt Analytics de voorkeur aan de best presterende pagina's. In dit geval is onze derde variant (de korte vorm) rondgedeeld aan ongeveer 36% van de bezoekers van de site, in vergelijking met de lange vorm (variatie één) die wordt weergegeven aan ongeveer 31% van de bezoekers.
  4. In de gegevenstabel onder aan de pagina vergelijkt Analytics de conversieratio van elke variant met de controle en berekent de kans dat de variant beter presteert dan de oorspronkelijke. In dit voorbeeld, hoewel we geen duidelijke winnaar hebben, kunnen we er al op vertrouwen dat beide varianten betere alternatieven zijn voor de lange vorm met een kans van meer dan 93% dat ze bezoekers met meer succes omzetten.

Stap 8: Aankomst bij een winnaar

Zoals gezegd, is de tijd die nodig is om tot een winnaar te komen afhankelijk van de prestaties van de paginavarianten ten opzichte van de controlepagina. Of het drie dagen of drie weken duurt om tot een conclusie te komen, u kunt er zonder enige twijfel zeker van zijn dat de winnaar van het experiment inderdaad de best presterende partij is in termen van het doel dat wordt gemeten..

Na acht dagen met gegevens en 1240 bezoeken is Analytics aangekomen bij de duidelijke winnaar (je raadt het al), onze korte formulierpagina.


Stap 9: We hebben een winnaar, wat nu?

Nu ons experiment is afgerond, moeten we actie ondernemen. Omdat de korte vorm zo goed presteerde met een conversieratio van ongeveer 91,5%, is het meest voor de hand liggende om te doen de controlepagina (dat wil zeggen de lange vorm) te vervangen door de winnende variant.

Vanaf hier zullen we wat aanvullende analyses moeten uitvoeren en een belangrijke beslissing moeten nemen. Hoewel we ons doel hebben vastgesteld als bezoeken aan de bevestigingspagina, is het niet ons doel echt doel. De werkelijke maatstaf voor succes is natuurlijk dat mensen de service gebruiken (wat die service dan ook is). Ervan uitgaande dat alle aanvullende informatie vereist is (het land, de gewenste valuta, enz.) Is noodzakelijk, is aanvullende analyse nodig om ervoor te zorgen dat succesvolle registranten deze informatie ook daadwerkelijk invullen zodra hun account is vastgesteld (een oefening voor een andere experiment).

Ten slotte is de volgende beslissing die u moet nemen om al dan niet de tijd te investeren om extra variaties te maken voor ons formulier om het conversiepercentage van 91,5% te verbeteren. Een andere ontwerp- of kopieervariant kan bijvoorbeeld de conversieratio verhogen. Werkelijk konden experimenten worden voortgezet totdat een conversiepercentage van 100% werd bereikt. Met dat gezegd, is wat we moeten overwegen de snelheid van de afnemende opbrengsten. Er is een moment waarop de tijd en moeite die nodig is om de conversieratio te verbeteren geen voldoende rendement op de investering oplevert, en onze tijd zou beter kunnen worden besteed aan het testen en optimaliseren van andere pagina's van onze site..


Conclusie

In deze zelfstudie hebben we nog maar net de oppervlakte van Experimenten van Google Analytics gekrast en kunnen we verder praten over de fijne kneepjes van de beschikbare gegevens ad infinitum. Met dat gezegd, hebben we in slechts een paar eenvoudige stappen een programma opgezet dat veel efficiënter is dan de traditionele A / B split-tests en we zijn aangekomen bij een incontrivertabel resultaat dat veel beter is dan de controlepagina.

Hoewel we een experiment hebben gemaakt dat qua inhoud volledig verschillende pagina's weergeeft, kan dezelfde benadering worden gevolgd om veel subtielere pagina-elementen te testen. Een anders gekleurde knop, een iets andere lay-out of kleine wijzigingen in de kopie kunnen bijvoorbeeld resulteren in aanzienlijk verbeterde conversiepercentages, die allemaal kunnen worden getest met deze split-testmethode.

Wat belangrijk is, is dat deze manier van testen van onze ontwerpen de gok doet uitgaan naar effectief ontwerp. Als ontwerpers die samenwerken met belanghebbenden van klanten (en vaak beslissingen nemen door de gevreesde commissie), is het gemakkelijk om het bos uit het oog te verliezen voor de bomen en beslissingen te nemen op basis van veronderstellingen in plaats van harde gegevens. Het opzetten van een dergelijk splitstestprogramma is de zekerste manier om uw conversies te verbeteren, ongeacht uw doel.

Hoe gaat u Google Experiments gebruiken? Laat hieronder een reactie achter - we horen graag je gedachten!