Retour aux ressources
Stratégie
8 min

A/B testing : le guide méthodique pour SaaS et e-commerce

Connexion

Tout le monde parle d'A/B testing. Peu de gens le font correctement. La majorité des "tests" qu'on voit chez les startups qu'on accompagne ne sont pas des vrais tests : pas assez de trafic, trop de variables changées en même temps, des conclusions tirées après 3 jours sur 200 visiteurs.

Un A/B test bien mené, c'est la méthode la plus fiable pour prendre des décisions marketing. Un A/B test mal mené, c'est pire que pas de test du tout, parce qu'il vous donne une fausse confiance dans de mauvaises décisions.

Qu'est-ce qu'un A/B test (vraiment)

Un A/B test consiste à montrer deux versions d'un élément (une page, un email, une pub) à deux échantillons aléatoires de votre audience, et à mesurer quelle version performe le mieux sur un indicateur défini.

La version A est le contrôle (ce qui existe actuellement). La version B est la variante (ce que vous testez). Le trafic est réparti aléatoirement entre les deux. Et vous attendez d'avoir assez de données pour déterminer si la différence est statistiquement significative ou due au hasard.

C'est simple en théorie. En pratique, c'est là où la majorité des entreprises commettent des erreurs.

La méthode en 6 étapes

Étape 1 : identifier le problème

L'A/B testing n'est pas du bricolage aléatoire. Chaque test doit partir d'un problème identifié et d'une hypothèse de solution.

Analysez vos données. Où perdez-vous le plus de visiteurs ? Quelle page a le plus fort taux de rebond ? Quel email a le plus faible taux de clic ? Où dans le funnel le décrochage est-il le plus important ?

Utilisez vos outils de heatmap et de session recording (Hotjar, Microsoft Clarity) pour observer le comportement réel. Les données quantitatives vous disent où est le problème. Les données qualitatives vous disent pourquoi.

Étape 2 : formuler une hypothèse

Pas "je pense que le bouton rouge marchera mieux que le bleu". Plutôt : "Les visiteurs ne cliquent pas sur le CTA parce qu'il n'est pas visible au-dessus de la ligne de flottaison. En le remontant et en augmentant le contraste, on devrait améliorer le taux de clic de X%."

Une bonne hypothèse a trois composantes. Ce qu'on observe (le problème). Ce qu'on propose de changer. Et le résultat attendu, mesurable.

Étape 3 : calculer la taille d'échantillon nécessaire

C'est l'étape que tout le monde saute, et c'est la plus importante.

Pour qu'un test soit statistiquement valide, il faut un nombre minimum de visiteurs par variante. Ce nombre dépend de votre taux de conversion actuel, de l'amélioration que vous espérez détecter, et du niveau de confiance souhaité (généralement 95%).

Un calculateur comme celui d'Optimizely ou d'AB Tasty vous donne le chiffre. En général, pour un taux de conversion de base de 5% et une amélioration cible de 20%, il faut environ 5 000 visiteurs par variante, soit 10 000 au total.

Si votre site reçoit 500 visiteurs par semaine sur la page testée, ce test prendra 20 semaines. C'est trop long. Soit vous testez un changement avec un impact attendu plus grand, soit vous testez sur une page à plus fort trafic, soit vous acceptez un niveau de confiance plus bas (90% au lieu de 95%).

Étape 4 : lancer le test

Utilisez un outil d'A/B testing pour répartir le trafic aléatoirement. Google Optimize n'existe plus, mais les alternatives ne manquent pas : VWO, AB Tasty, Convert, ou même des solutions intégrées dans des outils comme HubSpot ou Webflow.

Les règles pendant le test sont simples. Ne modifiez rien pendant que le test tourne. Ne regardez pas les résultats toutes les heures (le "peeking problem" biaise votre interprétation). Et ne coupez pas le test avant d'avoir atteint la taille d'échantillon calculée, même si une variante semble "gagner" après 2 jours.

Étape 5 : analyser les résultats

Le test est terminé quand vous avez atteint votre taille d'échantillon ET que le résultat est statistiquement significatif (p-value inférieure à 0.05 pour un niveau de confiance de 95%).

Si la variante B gagne avec une signification statistique, implémentez-la et passez au test suivant.

Si le résultat n'est pas significatif, ça ne veut pas dire que rien n'a changé. Ça veut dire que la différence est trop petite pour être distinguée du hasard avec votre volume de données. Soit le changement n'a réellement pas d'impact, soit il en a un trop faible pour être détecté. Dans les deux cas, passez à une hypothèse avec un impact potentiel plus grand.

Étape 6 : documenter et itérer

Chaque test, qu'il soit concluant ou non, est un apprentissage. Documentez l'hypothèse, le résultat, et l'enseignement. Partagez avec votre équipe. Construisez une base de connaissances sur ce qui fonctionne et ce qui ne fonctionne pas pour votre audience.

Le CRO n'est pas un projet ponctuel. C'est un processus continu. Les meilleurs résultats viennent de l'accumulation de dizaines de petites améliorations, pas d'un seul grand changement. On a détaillé l'approche globale du CRO dans notre article sur comment doubler son taux de conversion.

Quoi tester en priorité

L'ordre de priorité dépend de vos données, mais voici les éléments qui ont généralement le plus d'impact.

Le titre de la landing page. C'est le premier élément lu et celui qui détermine si le visiteur reste ou part. Un test de titre est souvent le test le plus impactant que vous puissiez faire.

Le CTA (texte et position). Le texte du bouton, sa couleur, sa taille, et sa position sur la page. Tester "Commencer gratuitement" vs "Créer mon compte" vs "Voir la démo" peut faire varier les conversions de 20 à 40%.

La structure de la page. L'ordre des sections, la présence ou l'absence de certains blocs (témoignages, FAQ, vidéo démo). Testez des réorganisations significatives, pas des micro-ajustements.

Le formulaire. Nombre de champs, présence de labels, texte du bouton de soumission, messages d'aide. Un formulaire optimisé peut doubler le taux de complétion.

Les objets d'email. Pour les séquences email, l'objet est l'équivalent du titre de la landing page. Testez des angles différents : question vs affirmation, spécifique vs générique, court vs long.

Les erreurs qui invalident vos tests

Tester trop de choses en même temps. Si vous changez le titre, l'image, le CTA et la mise en page, et que la variante B gagne, qu'est-ce qui a fait la différence ? Vous ne le saurez jamais. Un seul changement par test.

Arrêter le test trop tôt. Vous voyez que la variante B a 15% de conversions et la variante A 10% après 200 visiteurs. Vous concluez que B gagne. Le lendemain, les chiffres s'inversent. C'est la variance naturelle, et c'est exactement ce que la taille d'échantillon minimale est censée prévenir.

Le biais de sélection. Si vous lancez le test un lundi et que vous le coupez un mercredi, vous ne testez que le trafic du début de semaine. Les comportements peuvent varier selon le jour et l'heure. Laissez le test tourner au minimum une semaine complète.

Ne pas segmenter les résultats. La variante B gagne globalement, mais est-ce qu'elle gagne sur mobile et desktop ? Sur les nouveaux visiteurs et les visiteurs de retour ? Parfois, une variante gagne sur un segment et perd sur un autre. L'analyse segmentée vous donne une compréhension plus fine.

Tester des micro-détails. Changer la couleur du bouton de bleu à vert quand votre taux de conversion est à 1%, c'est optimiser les miettes. Testez d'abord les éléments structurants (proposition de valeur, offre, structure de page) avant les détails visuels.

L'A/B testing en email marketing

Les principes sont les mêmes qu'en web, avec quelques spécificités.

Testez l'objet d'abord. C'est l'élément qui a le plus d'impact sur le taux d'ouverture. Envoyez la variante A à 15% de votre liste, la variante B à 15%, et le gagnant aux 70% restants. La plupart des outils d'email (Klaviyo, HubSpot, Customer.io) intègrent cette fonctionnalité.

Testez le contenu ensuite. Long vs court, texte brut vs HTML, avec image vs sans image. Le format optimal dépend de votre audience et de votre type de message.

Testez l'heure d'envoi. Mardi à 10h vs jeudi à 14h. Les différences sont parfois surprenantes.

L'A/B testing en publicité

Sur Meta Ads et Google Ads, l'A/B testing prend une forme différente parce que les algorithmes des plateformes font une partie du travail.

Sur Meta, utilisez la fonctionnalité A/B test native pour tester des audiences, des placements, ou des créatives. Ou plus simplement, fournissez plusieurs créatives dans un même ad set et laissez l'algorithme répartir le budget. Mais gardez un suivi externe pour valider les conclusions de la plateforme.

Sur Google Ads, les Responsive Search Ads font du testing automatique de combinaisons de titres et descriptions. Mais pour tester des landing pages différentes, un A/B test classique reste nécessaire.

Les outils en 2026

Pour le web : VWO (le plus complet), AB Tasty (français, bon pour les PME), Convert (bon rapport qualité/prix), Google Tag Manager + un outil custom (gratuit mais technique).

Pour l'email : la fonctionnalité est intégrée dans la plupart des outils (Klaviyo, HubSpot, Customer.io, Brevo). Pas besoin d'outil supplémentaire.

Pour les ads : les fonctionnalités natives de Meta et Google suffisent pour la plupart des cas.

Par où commencer

Si vous n'avez jamais fait d'A/B test, commencez par le plus simple : un test d'objet d'email sur votre prochaine campagne. Ça prend 5 minutes à mettre en place, le résultat arrive en quelques heures, et ça vous familiarise avec la méthode.

Ensuite, identifiez la page de votre site avec le plus de trafic et le plus faible taux de conversion. Formulez une hypothèse, calculez la taille d'échantillon, et lancez votre premier test web.

L'A/B testing est le fondement d'une stratégie CRO sérieuse.

Chez Connexion, on met en place des programmes de testing structurés pour les SaaS et les e-commerces. Parlons de vos prochains tests.

Parlons de vos tests