A/B test per migliorare le conversioni
Non sempre gli utenti online fanno le scelte più ovvie. Per questo mostrare versioni diverse del messaggio prima di decidere la strategia, può aiutarci a migliorare le performance della nostra comunicazione
Partiamo dalle basi.
E cioè dalla definizione di A/B test nel marketing online. Si tratta di un procedimento mediante il quale si confrontano due versioni della stessa pagina web (o campagna di adv, newsletter, etc.), per determinare quale produce il rendimento migliore.
Questo procedimento consente di rispondere a quesiti commerciali specifici, aiuta a generare più entrate dal traffico online e getta le basi per una strategia di marketing fondata sui dati.
Come funziona? In pratica si mostra al 50% dei visitatori la versione originale della pagina e al restante 50% la variante.
Quella che genera il più alto tasso di conversione supera il test e da quel momento sarà mostrata al 100% dei visitatori.
Va precisato che il tasso di conversione deve comunque essere legato a un criterio di misurazione economico.
Perchè dobbiamo usarlo
Il punto di forza degli A/B test è proprio il fatto di fare una prova per capire empiricamente quale soluzione funziona meglio per noi, nel nostro settore, con i nostri clienti, nella nostra area, magari con differenze legate al tipo di visitatore (nuovo o di ritorno, proveniente da Google o dai social network).
Ci danno risposte concrete a domande molto specifiche, consentendoci così di aumentare effettivamente le conversioni.
Tra i vantaggi degli A/B test c’è il fatto di essere veloci, semplici, automatici e di aiutarci a comprendere quali tipologie di interazione e modelli di marketing sono più efficaci nei confronti dei destinatari.
Le nostre scelte, insomma, saranno molto più pragmatiche e meno intuitive.
Come impostare il nostro A/B test
Impostare e analizzare un A/B test non è difficile, ma va fatto correttamente: la logica è l'aspetto più importante, perché consente di dare una base rigorosa e attendibile al test e ottenere risultati il più possibile oggettivi.
Stabiliamo un’ipotesi prima di iniziare il test
Prima di condurre un test, dobbiamo disporre di una solida ipotesi, non un'idea. Un'ipotesi è misurabile, punta a risolvere uno specifico problema di conversione e si focalizza su intuizioni e non su convinzioni.
Una buona formula, piuttosto diffusa, è quella di seguire questo schema logico: avendo visto che [inserire dati/feedback della ricerca], mi aspetto che [il cambiamento che stiamo testando] causerà [impatto che prevediamo] e lo misurerò con [metrica dati].
Ricordiamoci inoltre di stabilire l’obiettivo numerico in base allo storico: prima di lanciare l’A/B test, è sempre opportuno consultare i risultati precedenti.
Creiamo le varianti
Una volta stabilita l’ipotesi dobbiamo concentrarci sugli elementi distintivi delle due varianti che possono essere di volta in volta: l’immagine, il titolo o il testo scritto in un paragrafo piuttosto che la loro formattazione, il pulsante di un modulo, la disposizione di un elemento in una pagina, ma anche due pagine web nelle versioni desiderate, ecc.
L'originale A e la variante B, siano pagine o annunci, andranno create e pubblicate ma soprattutto gestite in modo preciso e puntuale, per raccogliere tutti i dati utili derivanti dall'esperimento.
Alcuni tool aiutano in questa fase: Google Optimizer , VWO Virtual Website Optimizator o i servizi offerti dalle piattaforme advertising, come Google AdWords o Facebook Ads .
Se testiamo un elemento per volta (posizione di un modulo), o una combinazione di elementi che siano strettamente connessi tra loro (posizione e pulsante di un modulo), potremo trarre conclusioni più precise.
Valutiamo il campione di destinatari
In generale vale il principio per cui maggiore è la dimensione del campione, tanto più i risultati che otterremo saranno attendibili.
Non c’è un numero preciso, dipende molto dal miglioramento che vogliamo ottenere e dal livello di significatività desiderato. Esistono diversi calcolatori in rete (es. Unbounce, Evan Miller e altri) che in pochi secondi sono capaci di determinare la giusta dimensione del campione e il tempo minimo di esecuzione del test.
I dati di cui necessitiamo per poter usare uno di questi calcolatori sono i seguenti:
- traffico medio quotidiano
- miglioramento minimo desiderato
- attuale conversion rate
- numero di variazioni
I due gruppi sui quali fare l’A/B test dovranno essere casuali, numerosi e omogenei. Normalmente l’A/B test viene effettuato su un campione variabile tra il 10% e il 30% della propria base dati, con alcuni limiti minimi.
Se il database non è sufficientemente nutrito lo possiamo condurre comunque sapendo però che i risultati saranno statisticamente meno attendibili.
Scegliamo uno strumento di A/B testing
Gli strumenti di A/B testing sono diversi e il processo varia da uno all’altro.
In genere, tuttavia, ci verrà richiesto di installare uno snippet sul nostro sito e impostare gli obiettivi. Anche in questo caso Facebook e Google Ads forniscono già sulle loro rispettive piattaforme indicazioni e tool per effettuare A/B test.
Qualunque sia lo strumento dobbiamo però sapere che non svolge l'analisi per noi; questa è un'abilità importante da sviluppare nel tempo.
Qual è la durata ideale di un test A/B?
Ricordiamoci sempre che non si devono mai bloccare i test nel momento in cui si raggiunge la significatività statistica. Per completare il test, dobbiamo arrivare a esaminare un campione di utenti di grandezza predeterminata.
La durata ideale di un test A/B è di due interi cicli economici perchè ci consente di prendere in considerazione:
- gli acquirenti indecisi, che non effettuano subito l’acquisto;
- tutte le diverse fonti di traffico (Facebook, newsletter, ricerca organica, ecc.);
- eventi speciali, come un’ipotetica “newsletter del venerdì”.
Non sempre è necessario condurre un A/B test.
Se il traffico sul nostro sito è scarso, o se abbiamo meno di 500 iscritti alla newsletter (solo per fare degli esempi) probabilmente è meglio investire in test utente o dialogando con i nostri clienti.
Come analizzare i risultati di un test A/B
Nell’analizzare i risultati del test A/B, dobbiamo focalizzarci sulla loro comprensione, non limitandoci a verificare se il test sia riuscito o meno.
Se costruiamo la nostra ipotesi correttamente, anche la variante perdente sarà un risultato positivo, permettendoci di ottenere conoscenze da utilizzare per i test futuri e in altre aree della nostra attività. Non dobbiamo ignorare i risultati negativi e le varianti perdenti.
A volte un test fallisce nel suo complesso, ma riesce con almeno un segmento di visitatori. L'analisi non consiste semplicemente nel verificare se il test A/B sia riuscito o meno, ma in qualcosa di molto più approfondito. Concentriamoci sulle informazioni e segmentiamo i dati, per scoprire ulteriori informazioni nascoste sotto la superficie.
Archiviare i test A/B condotti
Ipotizziamo di iniziare a condurre dei test A/B da domani.
A distanza di due anni, ricorderemo i dettagli del nostro primo test? Probabilmente no.
Ecco perché è importante creare un archivio con i risultati dei test A/B condotti. Senza un archivio ben organizzato, tutte le informazioni raccolte andranno perse.
Gli elementi da archiviare sono:
- le ipotesi;
- gli screenshot di pagine originali e varianti;
- i risultati dei test;
- gli approfondimenti ottenuti dall'analisi.
Test alla portata di tutti
Le grandi aziende conducono costantemente A/B test prima di rilasciare nuove versioni dei loro strumenti di comunicazione online. Questo non significa che non lo possano fare anche le piccole imprese, anzi.
L’importante è rispettare i criteri di base ed avere chiari i passaggi fondamentali di questo efficacissimo procedimento basato sulla logica del miglioramento continuo.
L’obiettivo che ci deve guidare quando utilizziamo gli A/B test è quello di conoscere approfonditamente l’utente, il suo comportamento e le sue preferenze. Non basta capire se una variabile ha un effetto positivo o negativo; dobbiamo anche comprendere le motivazioni e agire di conseguenza.
Hai trovato questo post interessante?