Montrer Cacher le sommaire
- Le dogme : limiter les audiences pour ne pas troubler l’algorithme
- Le test : deux campagnes, une seule variable
- Les résultats : le mythe ne tient pas une seconde
- Pourquoi c’est logique : un modèle ne sature pas comme un cerveau humain
- Alors faut-il tout mettre en observation ? Non. Et c’est là la vraie leçon.
- Le vrai problème du SEA : nous prenons les mythes plus au sérieux que nos propres données
- Conclusion : ne répétez pas les croyances. Détruisez-les.
Le SEA a un problème. Pas un problème technique, un problème humain.
Nous sommes une industrie qui adore les certitudes. On les répète. On les amplifie. Et, à force de les entendre, on finit par les croire.
Depuis quelques années, un dogme revient avec insistance :
Mettre trop d’audiences en observation nuirait aux performances.
Moins d’audiences donnerait un Smart Bidding plus propre, plus lisible, plus efficace.
C’est l’un des mythes les plus séduisants du moment, parce qu’il flatte une intuition humaine très simple :
Trop d’informations noie l’algorithme.
Moins d’informations le clarifie.
Mais le problème n’est pas là.
Le problème, c’est que Google Ads n’est pas humain.
Le Smart Bidding n’a pas d’intuition.
Il ne se perd pas. Il calcule. Et plus vous lui donnez de signaux utiles, plus il devient précis.
J’ai longtemps défendu cette idée.
Pas par esprit de contradiction, mais parce que je ne voyais aucun signe de fragilité dans mes comptes.
J’ai toujours mis toutes les audiences en observation, sans exception, sans crainte, sans nuance. Et les performances ont toujours été au rendez-vous.
Puis un jour, les arguments opposés se sont accumulés.
Des consultants expérimentés.
Des patrons d’agence.
Des freelances seniors.
Tous convaincus que trop d’audiences créaient du bruit inutile.
J’aurais pu camper sur mes positions.
J’ai préféré tester.
Et ce test a tout changé.
Le dogme : limiter les audiences pour ne pas troubler l’algorithme
La théorie est simple.
Selon ses défenseurs, multiplier les audiences en observation entraîne quatre risques :
- Une hausse artificielle des CPC.
- Une baisse de la précision du Smart Bidding.
- Un modèle prédictif parasité par trop de signaux.
- Une attribution obscurcie par des données superflues.
Sur le papier, cela peut sembler cohérent.
Dans la réalité, c’est une hypothèse.
Une hypothèse qui n’était jamais passée à l’épreuve de mes comptes.
Mais une hypothèse qui méritait d’être testée.
Le test : deux campagnes, une seule variable
Je n’ai pas cherché la sophistication.
Pas de test multicritère.
Pas de variation structurelle.
Juste deux campagnes rigoureusement identiques.
Même budget.
Même tROAS.
Même CPC max.
Même structure.
Même signaux GA4.
Même période.
Même audience cible.
Même historique.
Une seule différence.
Dans la première : absolument toutes les audiences en observation.
Affinity. In Market. Customer Match. GA4. Segments personnalisés. Tout.
Dans la seconde : un set minimaliste de quelques audiences seulement.
Un test pur, contrôlé, où la variable est isolée.
Impossible de se cacher derrière un biais structurel.
Impossible de blâmer la saisonnalité ou l’apprentissage.
Cela allait être un verdict.
Dans un sens ou dans l’autre.

Les résultats : le mythe ne tient pas une seconde
La version avec toutes les audiences a littéralement pulvérisé l’autre.
Plus de 40 pour cent de conversions supplémentaires.
Un ROAS deux fois supérieur.
Un coût par conversion en baisse.
Une stabilité accrue semaine après semaine.
Et aucun signe d’inversion. Jamais.
Lorsque les performances se dédoublent dans un A/B test propre, on n’est plus dans l’interprétation.
On est dans le constat.
Le Smart Bidding a été plus performant lorsque je lui ai donné plus d’informations.
Plus de signaux.
Plus de patterns.
Plus de données comportementales.
Ce n’est pas une surprise pour ceux qui comprennent comment fonctionne un modèle prédictif moderne.
Les features enrichissent le modèle.
Elles n’ajoutent pas du bruit.
Elles augmentent la précision.
Le dogme ne tient pas.
Parce qu’il n’a jamais reposé sur de la data.
Seulement sur une impression humaine.
Pourquoi c’est logique : un modèle ne sature pas comme un cerveau humain
Le Smart Bidding n’est pas un consultant.
Il ne réfléchit pas par surcharge.
Il ne prend pas de décisions par intuition.
Il n’a pas peur de trop de signaux.
Il traite des features.
Il calcule des probabilités.
Il mesure l’intensité d’un signal.
Il pondère.
Il ajuste.
Il optimise.
Et plus l’environnement lui fournit d’indices, plus les prédictions deviennent fines.
Ce test l’a démontré.
Sans ambiguïté.
Le mythe vient d’une projection anthropomorphique.
On imagine l’algorithme comme un humain submergé par les stimuli.
Mais un modèle statistique moderne fonctionne à l’inverse.
La rareté de signaux augmente l’incertitude.
L’abondance de signaux la réduit.
C’est précisément ce qui s’est passé.
Alors faut-il tout mettre en observation ? Non. Et c’est là la vraie leçon.
Ce test n’est pas une injonction.
Il ne dit pas que vous devez mettre toutes les audiences dans tous vos comptes.
Ce serait tomber dans le piège que je dénonce : transformer un cas particulier en vérité générale.
La vraie leçon, c’est ceci :
Il n’existe aucune bonne pratique universelle en SEA.
Rien.
Pas un seul réglage.
Pas une seule croyance.
Pas un seul raccourci.
Le SEA est une discipline empirique.
Une discipline où les hypothèses existent pour être détruites.
Une discipline où l’intuition n’a aucune valeur tant qu’un test ne l’a pas confirmée.
Une discipline où la seule vérité est celle que votre compte vous renvoie.
Ce test n’a pas démontré que toutes les audiences sont toujours bénéfiques.
Il a démontré que croire qu’elles sont nuisibles est une histoire qu’on se raconte.
Le vrai problème du SEA : nous prenons les mythes plus au sérieux que nos propres données
Au fond, cette histoire ne parle pas d’audiences.
Elle parle de nous.
Nous voulons des règles simples.
Des vérités faciles à transmettre.
Des certitudes qui rassurent.
Mais le SEA n’est pas un cadre rassurant.
C’est une discipline d’incertitude permanente.
Une discipline où les modèles évoluent en continu.
Une discipline où Google change les règles aussi vite que nous les apprenons.
Dans un tel environnement, refuser de tester revient à renoncer à comprendre.
Et renoncer à comprendre revient à donner les clés à l’algorithme sans jamais vérifier ce qu’il en fait.
Le SEA ne se construit pas sur des dogmes.
Il se construit sur des doutes.
Et sur la capacité à transformer ces doutes en expérimentations.
Conclusion : ne répétez pas les croyances. Détruisez-les.
L’histoire des audiences en observation est une parabole.
Un rappel brutal d’une vérité trop souvent oubliée :
Ce n’est pas ce que nous croyons qui compte.
C’est ce que la data confirme.
Ce test a invalidé un mythe.
D’autres tests invalideront d’autres mythes.
Et c’est exactement ce qui rend notre métier vivant.
Ne cherchez pas la bonne pratique parfaite.
Elle n’existe pas.
Cherchez le test qui détruit votre certitude.
C’est là que commence la maîtrise.















