9 idées recues sur l’A/B testing


 
Kézako?
23
shares
Partager sur Twitter
Partager sur Google+
Partager sur LinkedIn
Partager sur Pinterest
+

 

9 idées recues sur l’A/B testing

9 idées recues sur l’A/B testing

Cette semaine, ce blog a l’honneur de livrer la sagesse de la société AB Tasty, qui édite la solution leader d’A/B testing en France. 10% des managers e-business utilisent AB Tasty pour améliorer l’expérience utilisateur sur leur site (Source). Et dans cet article, les experts du testing brisent les mythes qui entourent l’A/B testing. Depuis les enjeux stratégiques aux détails pratiques d’implémentation en passant par le SEO, vous allez connaître tous les secrets de l’A/B testing !


 
L’A/B testing est un concept simple à comprendre, cependant la pratique est plus compliquée qu’elle n’y paraît. Non pas que les solutions techniques soient complexes (AB Tasty est un outil très simple à prendre en main et à mettre en œuvre), mais les utilisateurs tombent parfois dans des pièges dus à cette apparente simplicité.  Balayons quelques idées reçues pour vous éviter ces erreurs.

1. L’A/B testing suffit pour optimiser mon taux de conversion

L’A/B testing est un outil au service de la stratégie d’optimisation des conversions : le testing permet de valider statistiquement des hypothèses, mais ne donne pas les clés pour comprendre le comportement et la motivation de vos utilisateurs. Votre stratégie CRO ne doit pas se limiter à l’A/B testing, elle doit englober d’autres disciplines qui vous permettront de comprendre votre audience, ce à quoi elle est sensible, ce qui fonctionne ou ne fonctionne pas auprès d’elle.

2. J’obtiendrai des résultats spectaculaires en modifiant quelques éléments

Une erreur commune est de croire que la simple modification de la couleur d’un bouton, par exemple, peut entraîner des résultats spectaculaires. Les cases studies qui affichent ce type de résultats doivent être remises dans leur contexte : s’il est vrai que la couleur d’un call to action peut avoir un impact, c’est souvent parce que le changement permet d’accroître le contraste et de mieux faire ressortir le call to action par rapport aux autres couleurs sur la page.
 
Les tests qui produisent les meilleurs résultats sont ceux qui découlent d’hypothèses « fortes » cherchant à résoudre un problème identifié. Comprendre l’origine de ce problème nécessite bien plus que de l’intuition, cela nécessite des analyses de données à la fois quantitatives et qualitatives pour mieux comprendre le client.
 
Souvent, la réponse à ce problème induit des modifications majeures sur le site. Ne commencez pas l’A/B testing en appliquant des changements subtils. Vous prendriez un mauvais départ en pensant que votre site est déjà efficace et n’a besoin que de quelques tweaks. En vous focalisant sur les détails (par exemple la couleur, la taille ou le libellé de votre call to action), vous risquez de passer à côté d’opportunités plus importantes (ex : la réorganisation complète de la page).
 
Commencez par des changements plus radicaux (dictés par les résultats de vos analyses préalables), constatez ce qui marche le mieux, puis affinez au fur et à mesure. Si vous sautez cette étape, vous allez obtenir de piètres résultats, vous n’aurez aucun best case à communiquer à votre hiérarchie, vous allez vous décourager et vous désintéresser de l’A/B testing, alors que celui-ci fonctionne quand il est bien appréhendé.

3. J’obtiendrai des résultats rapidement

Ce sera le cas si vous avez déjà beaucoup de trafic et de conversions. Dans le cas contraire, soyez patient avant de tirer la moindre conclusion du reporting. Tant qu’un taux de fiabilité statistique de 95% n’est pas atteint, vous ne pouvez tirer aucune conclusion des chiffres. Il est possible que la tendance observée à un instant donné s’inverse si vous prolongez le test.
 
Si atteindre un taux de fiabilité de 95% s’avère trop long, remettez en question les changements que vous avez apportés : les variations ne sont probablement pas suffisamment importantes. Plus les changements sont subtils, plus le test devra durer longtemps pour atteindre ces 95%.

4. J’aurai toujours des résultats

Attention aux discours que l’on peut entendre ici et là sur le web : l’A/B testing ne produit pas de résultats miracles. 80% des tests menés sont des échecs, seuls 20% des tests font l’objet de case studies aux résultats mirobolants, les autres ne sont jamais publiés.

  • Relativisez les attentes que vous pouvez avoir vis-à-vis du testing.
  • Placez-vous dans une position qui vous permettra d’avoir de bons résultats (autrement dit, exploitez les chiffres, les études, essayez de comprendre vos clients avant de tester).
  • Tirez des enseignements des tests ayant échoué.

5. Il faut tester tout changement

S’il est techniquement possible de tout tester, il n’est pas conseillé de tester des changements mineurs. Tester prend du temps, et du temps mal employé représente un coût (coût réel et coût d’oppportunité).

6. Si une technique ou idée marche pour quelqu’un, elle marchera pour moi

Attention : ce qui marche pour un autre site ne marchera pas forcément pour le vôtre. Vos audiences sont différentes, tout comme vos sources de trafic, la nature de votre offre (sa simplicité ou sa complexité par exemple), votre concurrence, et ainsi de suite. Ne prenez pas pour argent comptant les best practices que vous pouvez rencontrer, mais utilisez-les comme des idées de tests.

7. Les tests multivariés sont plus efficaces que les tests A/B

Il s’agit de deux types de tests différents, aux objectifs différents. Dans un test A/B, vous testez la variante d’un élément unique, alors que dans un test multivarié vous testez simultanément différentes versions de différents éléments. Dans la pratique, les tests A/B sont plus utilisés car ils donnent des résultats significatifs plus rapidement et répondent à la plupart des questions que se posent les marketeurs.

8. L’A/B testing peut affecter mon SEO

Les différentes variations que vous créez ne peuvent pas être interprétées comme du contenu dupliqué, car les outils d’A/B testing reposent entièrement sur l’emploi de JavaScript/jQuery que les moteurs de recherche ne sont pas en mesure d’interpréter. Le code que voient les crawlers des moteurs de recherche est identique pour chacune de vos variations. Google encourage d’ailleurs le testing, comme vous pouvez le lire iciLes recommandations de Google en la matière sont respectées par AB Tasty.

9. L’A/B testing ralentit mon site et cause des effets de scintillement

Le temps de chargement du script varie selon les fournisseurs de solutions d’A/B testing. Avec AB Tasty, ce temps est de l’ordre de 120 millisecondes pour le premier appel, puis de 45ms seulement pour tous les appels suivants durant la même session grâce à la mise en cache du fichier JavaScript. Au chargement de la page, le délai est imperceptible pour l’utilisateur.

Partager sur Twitter
Partager sur Google+
Partager sur LinkedIn
Partager sur Pinterest
+

2 thoughts on “9 idées recues sur l’A/B testing

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *