Les tests A/B (aussi connus sous la dénomination A/B testing) vous permettent de tester différentes versions d'une page, pour améliorer la performance de celle-ci. Mettre en place un test A/B, c'est expérimenter, faire des essais, tenter de nouvelles choses pour innover. Oui, mais attention à bien respecter quelques grands principes, au risque de transformer votre test A/B en usine à gaz. Alphalyr liste pour vous 4 erreurs communes (que vous pouvez éviter) pour vos tests A/B.

Changer la version de contrôle de la page pendant le test

Le propre d'un test A/B, c'est de pouvoir identifier les changements apportés à une page de base (la version de contrôle), qui apportent des résultats significatifs. Meilleur taux de conversion, meilleur engagement des internautes, durée de visite plus longue... A chaque test A/B un objectif à évaluer et à faire avancer. Mais pour cela, une condition est indispensable : ne pas changer la version de contrôle pendant le test. Si vous réalisez des changements sur la première page pendant le test, alors celui-ci ne fonctionne plus. Figez la version de contrôle pendant la durée du test pour pouvoir tirer des conclusions.

Tester plusieurs variables en même temps

Exécuter simultanément plusieurs tests, ou tester de nombreux paramètres en même temps, c'est la garantie de l'échec. Un test A/B consiste à tester deux versions d'une page (ou plus) en ne changeant qu'un seul paramètre clé à chaque fois. Vous pouvez ainsi changer la taille et la couleur d'un appel au clic entre deux versions, ou changer des inter-titres, mais ne changez pas les deux. En multipliant les changements, vous brouillez votre capacité à comprendre ce qui fera (ou pas) le succès de la nouvelle version. Si le taux de transformation est amélioré, à quel paramètre l'attribuer ? Au bouton plus gros ? Au texte plus impliquant ? Vous ne savez plus.

Faire un test sur une période trop courte (ou trop longue)

Collectez des données sur la version de contrôle A et une variation B sur des périodes de temps identiques. Très bien, mais quelle est la bonne durée ? Il existe plusieurs formules mathématiques pour calculer l’indice de confiance d’un test A / B (qui doit être supérieur à 95%). Ces outils vous permettent de déterminer la taille de l'échantillon, et donc la durée du test à mener (si vous devez compiler les données de 1000 visites au moins, et que vous affichez la page B 100 fois / jour en moyenne, alors un test A/B de 10 jours est suffisant pour tirer les premières conclusion). Ne menez pas le test sur un échantillon non-adapté et une période trop courte ou trop longue.

Vouloir à l'avance un résultat (et fausser l'interprétation)

Pour tirer des conclusions, vous devez vous fier aux indices de confiance, et croire aux résultats obtenus. Et oui, la page B réalise de meilleures conversions avec ce texte gros et pas très esthétique, et cette image que vous n'aimez pas. Avec une durée de test cohérente et un échantillon bien dimensionné, la conclusion s'impose. Ne la niez pas ! Vous ne devez pas être déçu si votre hypothèse ne se vérifie pas. Les chiffres apportent une vérité, à vous de vous y conformer. Sinon, ne menez pas de tests A/B.[alert-success]Lire aussi : Les étapes pour mettre en place un test A/B avec Google Analytics et Nos conseils pour faire de l'A/B testing[/alert-success]

button

Transform your data into clear decisions

Get in touch with our team to find out more about our approach

Response within 48 hours