Glossaire marketing / A/B testing
A/B testing
L’A/B testing, également appelé “split testing”, est une méthode scientifique qui consiste à optimiser les performances d’un site web ou d’une application en comparant deux versions l’une par rapport à l’autre pour déterminer celle qui produit les meilleurs résultats. Elle repose sur un certain nombre d’indicateurs tels que le coût par clic, le coût par vue de vidéo, le coût par message envoyé ou le coût pour mille.
Qu’est-ce que l’A/B testing ?
À la base, l’A/B testing est une méthode scientifique utilisée pour comparer deux versions différentes de quelque chose (en marketing, il s’agira d’un site web, d’une campagne publicitaire, d’une application ou d’un processus métier) pour identifier la version la plus performante.
L’A/B testing est une méthodologie de recherche (ou essai contrôlé randomisé, en termes scientifiques) qui vise à quantifier l’effet d’une action sur une expérience. Alors que de nombreuses personnes pensent que l’A/B testing s’applique essentiellement aux pages de destination, cette méthode peut, en fait, être utilisée dans presque tous les aspects du fonctionnement d’une entreprise pour optimiser les expériences existantes.
Le but est de déterminer la version de l’expérience la plus efficace (version “A” ou “B”) en fonction des objectifs et des indicateurs visés.
A/B testing avec LinkedIn Ads
Comparez les performances de vos campagnes publicitaires LinkedIn en testant différentes variables comme le format publicitaire, les visuels, l’audience ou le placement publicitaire.
Pourquoi utiliser l’A/B testing ?
L’A/B testing est un outil précieux pour toute entreprise qui souhaite appuyer ses décisions sur le comportement des utilisateurs. Cette méthode permet aux spécialistes du marketing, responsables produit et analystes d’identifier les axes d’amélioration qui auront le plus d’impact sur les performances.
Chaque décision prise comporte un certain degré d’incertitude. Même si, dans certains cas, la solution à apporter laisse peu de place au doute (il est peu probable que la correction d’un bug, par exemple, nuise à l’expérience utilisateur), dans la majorité des cas, rien ne garantit que vos actions auront les effets recherchés. Au lieu de se fier à leur intuition (connue pour être peu fiable, même chez les spécialistes), les professionnels du marketing peuvent réaliser un A/B test simple, facile et peu coûteux pour quantifier les actions qui auront le plus de succès.
C’est dans les entreprises dotées d’une stratégie d’A/B testing bien en place que l’on observe le plus d’innovations. Pourquoi ? Parce que la probabilité de publier en ligne des idées peu abouties diminue. Ces entreprises enregistrent également un ROI plus élevé, car les mauvaises idées peuvent être écartées avant d’être diffusées à l’ensemble de l’audience.
Enfin, on observe dans ces entreprises de meilleures relations de travail et une collaboration plus forte, car les données prennent le pas sur les divergences d’opinions au moment de choisir la nouvelle expérience à proposer.
L’A/B testing n’est pas un frein à la créativité. Au contraire, grâce à cet outil, les équipes peuvent accorder plus de place aux études de marché, à l’innovation et l’idéation, au lieu de passer du temps à convaincre les parties intéressées du bien-fondé d’une idée.
Selon votre objectif, l’A/B testing peut vous aider à :
- Recueillir des insights qui influenceront vos décisions et optimiseront vos expériences existantes
- Améliorer l’engagement des internautes, le contenu publicitaire, les performances de votre site web et l’expérience client globale
- Identifier les axes d’amélioration qui auront le plus d’impact sur vos performances
- Tester des hypothèses rapidement et de façon rentable
- Accroître le ROI en identifiant les contenus qui intéressent le plus votre clientèle
- Éviter de donner vie à des idées bancales en réalisant différents types de tests et d’expérimentations
4 types d’A/B testing
Il existe quatre types d’A/B testing couramment utilisés :
1. A/A testing
2. A/B testing
3. A/B/n testing
4. Tests multivariés
Au-delà de ces quatre tests, il existe un large éventail d’expérimentations possibles.
Les algorithmes de machine learning, tels que les algorithmes de bandits et les algorithmes évolutionnistes, peuvent identifier de manière adaptative la variante gagnante et attribuer le trafic en temps réel à celle-ci. Les méthodes quasi-expérimentales et la conception des expérimentations vous permettent de tester des éléments lorsque vous ne pouvez pas isoler complètement vos variables ou contrôler parfaitement la répartition de votre échantillon.
A/A testing
L’A/A testing est utilisé pour mesurer la performance de la version de référence (ou “version de contrôle”) d’un site web ou d’une application. En divisant le trafic à 50/50 avec une variante identique pour les deux groupes, les marketeurs et les responsables produit peuvent mieux cerner le comportement des utilisateurs sur la version de contrôle avant de la modifier. Cette méthode permet également d’identifier les variations du trafic sur le site web, ainsi que les éventuelles erreurs de randomisation dans le logiciel d’expérimentation.
A/B testing
L’A/B testing compare deux versions d’un site web, d’une application ou d’une expérience : la version A (“l’originale” ou la “version de contrôle”) et la version B (“le challenger” ou la “version de variation”). De cette façon, les marketeurs peuvent mesurer le comportement des utilisateurs sur les deux versions et prendre des décisions en fonction des résultats obtenus grâce aux tests statistiques réalisés (généralement un test t ou un test du Khi-deux).
A/B/n
Les A/B/n tests répartissent le trafic de manière égale entre les différentes variantes. Avec ce type d’expérimentation, les marketeurs peuvent créer plusieurs variantes à tester, par exemple pour tester la couleur du CTA de la page de destination du site web parmi différentes teintes. À la place d’un A/B test standard avec deux variantes, un A/B/n test peut comporter plusieurs variables, par exemple une comparaison entre le bleu, l’orange, le vert et le noir. C’est un moyen efficace de maximiser le potentiel des tests et d’identifier les conditions optimales.
Tests multivariés
Les tests multivariés, contrairement aux A/B tests, évaluent plusieurs variables d’une expérience en même temps. Par exemple, si un marketeur souhaite évaluer un titre, le texte et la couleur d’un CTA, il peut réaliser des A/B tests individuels pour chaque variable ou concevoir une expérimentation qui compare la version originale aux variantes de chaque élément.
Les expérimentations multivariées peuvent servir à quantifier les effets d’interaction entre plusieurs éléments. Par exemple, le fait d’associer le titre A à la couleur de CTA B peut être plus efficace que d’utiliser le titre B seul, pour créer une expérience optimale où aucun élément n’agit indépendamment des autres.
Les A/B tests sont couramment utilisés pour améliorer les indicateurs, mais ils peuvent servir d’autres objectifs : par exemple, vérifier qu’un déploiement n’a aucun impact négatif ou évaluer la pertinence d’un élément pour l’expérience client.
Comment utiliser l’A/B testing ?
Avant de réaliser des A/B tests, les gestionnaires de sites web ou les responsables produit doivent d’abord définir l’indicateur clé de performance (KPI) visé et déterminer si le trafic actuel est suffisant. Dans de nombreux cas, la fréquentation des sites web n’est pas suffisante pour mener des expérimentations valables et statistiquement significatives.
En effet, l’A/B testing est une méthode scientifique soumise à des contraintes statistiques, telles que la loi des grands nombres. Les outils de calcul d’A/B testing peuvent estimer la taille d’effet (pourcentage d’amélioration) nécessaire pour obtenir un résultat statistiquement significatif (généralement déterminé par une valeur p inférieure à 0,05).
Dans la mesure où les améliorations importantes sont peu fréquentes, l’élément à tester doit enregistrer un trafic plus élevé pour que de faibles gains soient identifiés. Plus le volume de trafic est élevé, plus il est facile de détecter de faibles gains, et plus les A/B tests sont simples à réaliser.
Si le trafic est suffisant, les marketeurs auront besoin de deux choses pour effectuer des A/B tests pertinents : la technologie et les ressources humaines.
Technologie
Pour réaliser un A/B test, une technologie de mesure et d’expérimentation adéquate est indispensable. La plupart des outils publicitaires et des systèmes de gestion de campagne (CMS) ont des fonctions d’analyse conçues pour suivre les utilisateurs et les conversions, tandis que les outils d’A/B testing randomisent le trafic et vous aident à déterminer votre seuil de signification statistique.
De nombreux outils publicitaires intègrent une fonctionnalité d’A/B testing.
La solution Campaign Manager de LinkedIn, par exemple, vous permet de réaliser des A/B tests facilement.
Pour tester les éléments d’un site web, l’utilisation d’un CMS ou d’un outil d’A/B testing adapté est incontournable. De nombreuses solutions existent à différents prix.
Ressources humaines
Même si vous réalisez des tests basiques, vous devrez pouvoir compter sur :
- Un ou une responsable produit/marketeur pour effectuer le test
- Un ou une analyste pour mesurer les résultats
- Un ou une graphiste pour concevoir les visuels
- Un rédacteur ou une rédactrice pour préparer le nouveau contenu écrit
- Un ou une ingénieur(e) pour implémenter la variante dans votre outil d’A/B testing
Si vous effectuez de petites modifications, comme changer la couleur des boutons, vous n’aurez pas besoin d’autant de ressources. En revanche, si vous réalisez des tests plus complexes qui concernent, par exemple, l’intégration de produits, il vous faudra probablement coordonner le travail de plusieurs équipes et faire intervenir un plus grand nombre d’ingénieurs techniques.
Étapes pour réaliser un A/B test
Étape 1 - Identifier une opportunité à saisir
Les marketeurs et les responsables marketing doivent déterminer le KPI à améliorer.
S’il est évident dans certains cas, il nécessite parfois d’analyser les comportements des visiteurs pour identifier les goulets d’étranglement qui entravent leur expérience.
Une analyse quantitative de vos funnels marketing peut vous aider à repérer les étapes peu optimales. Par exemple, si de nombreux visiteurs demandent un essai gratuit, alors que peu d’entre eux deviennent véritablement clients.
D’un autre côté, les études qualitatives (par ex. les enquêtes) peuvent mettre en lumière les problèmes à régler. Par exemple, une étude peut révéler que les utilisateurs de l’essai gratuit n’ont pas suffisamment compris le produit parce que leurs questions n’ont pas trouvé réponse pendant la phase d’intégration.
Ces insights peuvent servir à formuler des hypothèses sur les variantes qui pourraient résoudre ces problèmes.
Étape 2 - Formuler une hypothèse
Dans la pratique, il est conseillé de proposer une hypothèse avant de passer à l’expérimentation. Cette étape vous permet de définir la variable à modifier, d’esquisser la méthode de calcul et de prévoir les obstacles éventuels.
Servez-vous de données quantitatives et qualitatives pour appuyer votre raisonnement et votre expérimentation.
Les données quantitatives et qualitatives doivent étayer les arguments de votre hypothèse.
Voici comment vous pourriez la formuler :
Nous pensons que X, car Y.
Si l’on reprend le scénario des essais gratuits, vous pourriez écrire : “Nous pensons que les essais gratuits ne génèrent pas de clients, car le produit n’explique pas dès le départ comment il doit être utilisé.”
Étape 3 - Concevoir le test
Selon la portée du test, vous aurez besoin de différentes ressources pour le concevoir. Par exemple, il vous faudra peut-être prévoir :
- Le renouvellement de votre contenu écrit
- La conception de nouveaux éléments
- Le développement d’une nouvelle fonctionnalité
Plusieurs personnes de l’équipe peuvent participer à la réalisation du test.
L’organisation de votre processus dépendra de l’idée de départ. Dans tous les cas, la première étape consistera généralement à créer un wireframe, c’est-à-dire une maquette très schématisée de votre nouvelle version. Elle sera ensuite codée dans l’outil de test.
Étape 4 - Implémenter le test
Une fois votre test conçu et le contrôle qualité réalisé, c’est le moment de lancer votre test. 50% du trafic doit être renvoyé à l’originale (ou version de contrôle) et 50% à la variante, en visant un intervalle de confiance statistique de 95%.
Un analyste chevronné peut vous aider à ajuster ces seuils en fonction des marges d’erreur visées. Il est recommandé de surveiller le test dans les heures ou les jours qui suivent le lancement pour détecter les bugs et d’autres problèmes.
Étape 5 - Analyser les résultats
L’analyse des résultats d’un test dépend de la façon dont vous l’avez conçu.
La plupart des outils d’A/B testing sont dotés d’un moteur statistique dédié à l’analyse.
Si la variante est plus performante que l’originale, publiez-la en ligne pour proposer cette expérience à l’ensemble de votre audience. En revanche, si elle est moins efficace ou n’a aucun impact, il vous faudra peut-être revenir en arrière et revoir la conception ou la méthode du test.
Tester des publicités sur LinkedIn
L’A/B testing est un outil précieux pour les marketeurs et les responsables marketing qui souhaitent booster les performances d’un site web et les conversions.
Les processus de décision qui s’appuient sur les données, comme le split testing, vous aident à identifier rapidement les axes d’amélioration sans ne rien laisser au hasard.
L’A/B testing sur LinkedIn compare les performances de deux campagnes qui sont identiques en tous points, à l’exception d’une seule variable (par ex. audience cible, placement publicitaire, contenu). Une fois le test terminé, notre plateforme identifie la campagne la plus performante selon le KPI que vous avez sélectionné (le coût par clic, par exemple), si vous en avez défini un.
Pour les marketeurs qui souhaitent privilégier l’optimisation des campagnes et le climat du marché, la solution d’A/B testing de LinkedIn fournit des insights sur l’audience, le contenu publicitaire et le placement pour vous aider à prendre des décisions au service de votre rentabilité.
Testez vos publicités dans Campaign Manager