Valamennyire mindenkinek ismerősen csenghet az A/B teszt kifejezés. Hírlevelek, CTA gombok, landing oldalak A/B teszteléséről bizonyára sokat hallottál már. De tudod-e, hogyan működnek az A/B tesztek a perszonalizációban?
Egyfelől az ajánlórendszer A/B tesztek révén teszi hatékonyabbá ajánlásait. Másfelől így lehet összehasonlítani két ajánlórendszert, vagy egy weboldal teljesítményét perszonalizációval és anélkül. E-kereskedelmi ajánlórendszerünk, a Yuspify például több hazai webáruház és online piactér, így a Meska és a Pamutlabor A/B tesztjében is a nyerő megoldásnak bizonyult.
Mindjárt mutatjuk is, hogyan, de először tekintsük át az alapokat.
Mi az az A/B teszt?
Az A/B teszt nem más, mint egy egyszerű, kontrollált, véletlenszerű kísérlet.
- Egyszerű, azaz egy sima összehasonlítás, melynek célja, hogy megállapítsuk: két (vagy több) verzió közül melyik a jobb. Például tesztelhetjük, hogy egy pop-up üzenetben kétféle felhívás közül melyik vesz rá több embert arra, hogy feliratkozzon a hírlevelünkre.
- Kontrollált, vagyis az összehasonlított változatok mindössze egy, jól körülírható dologban térnek el egymástól. Csak így lehetünk biztosak abban, hogy a mért eltérés nem pusztán a véletlen műve. Ha mondjuk arra vagyunk kíváncsiak, hogy egy ajánlódoboz az első hajtás közelében vagy az oldal alján hoz több átkattintást, akkor csak ezt az egy elemet mozdítjuk el a kontroll-verzió elrendezéséhez képest. Ekkor a tapasztalt forgalomkülönbség kizárólag az ajánlódoboz elhelyezkedésének eredménye lesz, hiszen a két összevetett weboldal-változat minden másban megegyezik.
- Véletlenszerű: az összehasonlított változatok felhasználóinak elosztása random, így megelőzhető, hogy az egyes csoportokon belüli hasonlóságok torzítsák az eredményt. Hogy egy tipikus példát vegyünk: ha egy weboldal A/B tesztjénél a forgalmat egyenlő arányban és véletlenszerűen osztjuk el a verziók között, nagy biztonsággal feltételezhetjük, hogy a felhasználói csoportok összetétele egyforma. Ha bármilyen logika mentén különálló mintákat hoznánk létre (mondjuk, új felhasználók az A, visszatérők a B változatot látnák), az biztosan elvinné az eredményt valamilyen irányba.
Így végezhetsz te is A/B tesztet
Ha online vállalkozásod, netán webáruházad van, akkor a weboldal- vagy kampányelemeid A/B tesztelése szépen növelheti a profitodat. Nézzük tehát, milyen lépésekből áll egy “klasszikus”, web-optimalizálás céljából futtatott A/B teszt!
- Adatgyűjtés. A weboldalad analitikája kiválóan alkalmas arra, hogy megállapítsd, hol érdemes javítani a teljesítményen. Tegyük fel, hogy azt látod: a webshopod látogatóinak jelentős része csak a checkout-oldalig jut el, és ott a kosarát elhagyva, vásárlás nélkül távozik.
- Egy mérhető cél megfogalmazása. Miután megtaláltad a rendszer gyengébb pontjait, döntsd el, milyen tekintetben szeretnél változást elérni, és melyik az a mutató, ami ezt méri. Ha a kosárelhagyási arányt akarod csökkenteni, akkor a checkout-oldali konverzió növelése lesz a cél.
- Hipotézis felállítása. Fogalmazd meg a célod elérésének egy lehetséges módját egy konkrét feltevés formájában. Például lehet ez egy hipotézis: “Ha a checkout-oldalon megjelenítek egy “FOMO-üzenetet”, ami a készlet végességét hangsúlyozza, illetve figyelmeztet, hogy mások is a kosarukba tették az adott terméket, ezzel 5%-os konverzió-növekedést érek el.”
- Változatok létrehozása. A feltevésed alapján alakítsd ki az érintett aloldal vagy kampányelem tesztváltozatát, amelyet az eredeti, más néven kontroll-verzióval vetsz majd össze. A példánknál maradva legyen az A változat a meglévő checkout-oldal, a B pedig ugyanez az oldal kiegészítve egy villogó, piros felirattal: “Siess, utolsó darabok! Már 3 másik vásárló kosarában!”
- Forgalommegosztás. Miután a tesztet élesítetted, az A/B tesztelő eszközöd az oldalra érkező látogatókat véletlenszerűen és egyenlő arányban irányítja az A vagy a B változathoz. Tehát a webáruházad checkout felületén minden második felhasználó fog találkozni a sürgető üzenettel.
- Az eredmények elemzése. Miután az A/B teszt már elég ideig futott ahhoz, hogy értelmezhető mennyiségű adatot termeljen, nézd meg, hogy melyik verzió teljesített jobban a cél-metrika tekintetében. Végső soron arra vagy kíváncsi, hogy beigazolódott-e a feltevésed. Sikerült-e a “FOMO-üzenetnek” 5%-kal feltornásznia a konverziót? Ha igen, ezentúl a teljes látogatói forgalmat a sürgetéssel súlyosbított checkout-oldalra terelheted. Ha az eredmények nem igazolták a feltevésedet, akkor állíts fel új hipotézist, és onnan folytasd tovább az A/B tesztelést.
Így alkalmazza az A/B tesztet az ajánlórendszer
Az ajánlórendszerek is A/B tesztelnek, mégpedig folyamatosan, hiper-sebességre kapcsolva. De emailek vagy weboldal-elemek helyett személyre szabott ajánlásokat hasonlítanak össze, pontosabban az azokat előállító algoritmusokat.
Ez úgy történik, hogy két (vagy több) perszonalizációs algoritmust (vagy algoritmus-variánst) ráállítanak arra, hogy személyre szabott ajánlásokat generáljanak felhasználók egy-egy csoportjának. Ezután statiszikai modellek segítségével kiszámítják, melyik változat ajánlásai konvertálnak jobban.
Az A/B tesztelésnek ez a formája lehetővé teszi egy ajánlórendszer teljesítményének tökéletesítését. Persze ennek is megvannak a határai: egy bizonyos szint felett a perszonalizációs hatékonyság nem növelhető tovább. Ezen a ponton túl a cél a maximális teljesítmény fenntartása, szintén A/B tesztelés révén.
Ajánlórendszerek összehasonlítása A/B teszttel
Fontolgatod a perszonalizáció alkalmazását webáruházadban? Vagy van már ajánlórendszered, de kíváncsi vagy, mire képes egy versenytársa? Egy A/B teszt keretében összehasonlíthatod a weboldalad teljesítményét személyre szabott ajánlásokkal és azok nélkül. Arra is van lehetőséged, hogy a meglévő ajánlórendszeredet A/B teszteld egy (vagy több) kihívójával szemben.
Ezekre a teljesítménymutatókra érdemes figyelned egy perszonalizációs A/B teszt során.
- Az alapvető KPI ajánlórendszerek esetében a megtérülés (return on investment, ROI). Ezt úgy számíthatod ki, ha összeveted az ajánlórendszer bevezetésének, működtetésének költségét az ajánlásokból származó bevételnövekedéssel.
- Az e-kereskedelem területén működő ajánlórendszereknél lehet még mérni az ajánlások által generált konverziók üzleti értékét (gross merchandising value, GMV);
- ugyanezt az értéket bizonyos számú (pl 1000) ajánlásra vetítve;
- illetve az átkattintási arányt (CTR), vagyis azt, hogy az összes megjelenített ajánlásnak hány százalékára kattintottak a felhasználók.
A Yuspify tarol az A/B teszteken
E-kereskedelmi kis- és középvállalkozásokra kifejlesztett ajánlórendszerünk, a Yuspify eddig minden A/B teszten a költséghatékonyabb megoldásnak bizonyult.
Például a Meska, Magyarország egyik legnagyobb online kézműves piactere saját fejlesztésű ajánlójával hasonlította össze a Yuspify algoritmusait. Az A/B teszt két hónapig futott, ez idő alatt a felhasználók egyik csoportja a Meska, a másik csoportjuk pedig a Yuspify ajánlódobozait látta a kezdőoldalon, a termékoldalakon és a kosároldalon.
A tesztidőszak végére a Yuspify 50%-kal több bevételt termelt, mint a Meska saját fejlesztésű rendszere. A Yuspify ajánlásai ugyanis jelentősen nagyobb arányban vezettek tranzakcióhoz, és 15%-kal magasabb átlagos kosárértéket generáltak, mint a Meska beépített megoldása. A teljes tesztidőszakra vetítve a Yuspify alkalmazása 11,3-szeres megtérülést eredményezett.
Az egyedi pólókat nyomtató és forgalmazó Pamutlabor a webáruház átalakítása nélkül szerette volna javítani a felhasználói élményt, és ezáltal a bevételi mutatóit. Ezért egy A/B teszt keretében tette próbára a Yuspify prediktív keresőfunkcióját. Az egy hónapig tartó teszt során a vásárlók egyik fele a Yuspify keresődobozát használhatta a webáruházban, a másik felük pedig a Pamutlabor szokásos keresőjét.
A Yuspify keresőfunkció gépelés közben is felajánl kulcsszavakat és lehetséges találatokat, így gyorsabbá és hatékonyabbá teszi a keresést. Nem csoda hát, hogy 12%-kal növelte a sikeres keresések számát, és 22%-kal csökkentette az üres találati oldalakat a Pamutlabor alapértelmezett keresőjéhez képest. A Yuspify keresőfunkciót használó vásárlók 8,3%-kal több rendelést adtak le, 3,9%-kal nagyobb átlagos kosárértékben, és így 12,6%-kal több bevételt jelentettek a Pamutlabornak.
Te mit tesztelnél?
Ahogy láthattad, egy A/B teszt segíthet hatékonyabbá tenni online marketing-tevékenységedet. Sőt, arra is fényt deríthet, hogyan javítsd a felhasználói élményt webshopodban, és hogyan növeld bevételeidet akár egészen minimális ráfordítással is.
Talán már ki is alakult egy elképzelésed, hogyan lehet hasznos a te vállalkozásod számára ajánlórendszerek vagy egy-egy perszonalizációs funkció A/B tesztelése. Keress bennünket, szívesen segítünk a megvalósításban!