Deux leads arrivent le même jour. Le premier veut une documentation commerciale — il passera probablement à la concurrence dans la semaine. Le second a déjà un budget validé et cherche un prestataire pour la rentrée. Pour votre compte Google Ads, en ce moment précis, ils valent exactement pareil : une conversion = une conversion.
Ce n’est pas que l’algorithme est aveugle. C’est qu’on ne lui a jamais dit la différence. La valeur des leads Google Ads, c’est précisément ce signal manquant — celui qui fait comprendre à Smart Bidding que certains contacts valent la peine d’être payés deux fois plus cher à l’acquisition. Sans ce signal, l’algorithme optimise ce que vous lui donnez à optimiser.
50 leads à 5€ ou 10 leads à 25€ qui signent ? Le deuxième, toujours.
On restructure vos campagnes pour prioriser la qualité sur le volume.
Quand toutes vos actions de conversion ont la même valeur — ou pire, quand la valeur est à zéro par défaut — vous envoyez un signal très clair à l’algorithme : tous vos leads sont équivalents. Pas parce que c’est vrai, mais parce que vous ne lui donnez pas d’autre information.
Smart Bidding optimise sur ce qu’il reçoit. Si la seule métrique disponible est le volume de conversions, il cherche le moyen le moins cher d’en générer. Ce qui amène mécaniquement vers les prospects les moins qualifiés : ceux qui remplissent un formulaire sans intention d’achat, ceux qui téléchargent un document par curiosité, ceux qui sont géographiquement hors de votre zone de livraison.
La différence avec l’optimisation sur la valeur n’est pas marginale. En passant de tCPA à tROAS sur plusieurs comptes lead gen, WhatConverts a mesuré en 2024 +14% de valeur de conversion moyenne — sans augmenter le budget. L’algorithme n’avait pas besoin d’un nouveau ciblage. Il avait besoin d’un signal de qualité.
Le tCPA demande à Google de maximiser le nombre de conversions pour un coût donné. L’algorithme répond à cette commande avec précision. Sauf que « maximiser le nombre de conversions » et « générer les leads les plus utiles à votre business » ne sont pas la même chose.
Les leads les moins chers à générer ont tendance à être les moins matures : formulaires de contact génériques, téléchargements de ressources, demandes d’information sans projet précis. tCPA les favorise. Ce n’est pas un bug — c’est la logique d’un algorithme qui optimise exactement ce qu’on lui demande d’optimiser.
La question la plus fréquente quand on parle de value-based bidding en lead gen : « Je n’ai pas de CRM, comment je fais ? » La réponse : des valeurs proxy.
Une valeur proxy, c’est une estimation économique du potentiel de revenus d’un lead selon son type. Elle n’est pas exacte — elle n’a pas besoin de l’être. Elle doit juste refléter les vrais écarts de qualité entre vos différents types de conversions.
Formule : valeur proxy = valeur moyenne d’un client × taux de closing estimé par type de lead
Exemple avec un client moyen à 2 000€ :
| Type de lead | Taux de closing estimé | Valeur proxy |
|---|---|---|
| Demande de devis | 10% | 200€ |
| Prise de contact générique | 2,5% | 50€ |
| Téléchargement livre blanc | 0,5% | 10€ |
Ces chiffres ne sont pas gravés dans le marbre. L’important, c’est l’écart relatif — que Google comprenne qu’un devis vaut 20× plus qu’un téléchargement.
Airtomic a documenté un cas concret sur une franchise de salles de sport. En lead scoring granulaire (par type de demande et par code postal) un lead avec un score de 75 générait en pratique 582% plus de chiffre d’affaires qu’un lead avec un score de 10.
Ce chiffre n’est pas une généralité. Il dépend du secteur, du ticket moyen, de la dispersion géographique. Mais il illustre quelque chose de précis : traiter tous vos leads à la même valeur n’est pas une position neutre. C’est une erreur active, quantifiable en euros.
Le scoring granulaire n’exige pas un CRM sophistiqué pour démarrer. Il suffit de segmenter vos actions de conversion (devis, contact, téléchargement) et d’assigner des valeurs reflétant vos taux de closing réels par segment. Affiner ensuite avec les données.
Arnoweb TV a documenté un résultat qui mérite d’être cité en entier : en détectant le domaine de l’adresse email fournie dans le formulaire (gmail.com ou hotmail.fr vs nom-entreprise.com), et en assignant automatiquement une valeur supérieure aux emails professionnels via GTM, le compte a mesuré que les leads avec emails pro généraient en moyenne 2,5 fois plus de chiffre d’affaires sur 3 mois.
Ce critère est souvent ignoré parce qu’il semble trop basique. Un email Gmail ne veut pas dire « mauvais lead » , c’est évident. Mais en B2B, la corrélation avec la maturité du projet et la capacité décisionnelle est documentée. Un décideur qui cherche un prestataire professionnel utilise généralement son email d’entreprise. Quelqu’un qui explore par curiosité utilise son email personnel.
L’implémentation via GTM prend moins d’une heure : une variable qui extrait le domaine du champ email, un déclencheur conditionnel, et deux valeurs de conversion différentes envoyées à Google Ads selon le résultat. Pas besoin de développeur, pas besoin de CRM. Un suivi similaire peut s’appliquer aux appels entrants, avec des valeurs différenciées selon la durée ou l’issue de la conversation.
Atteindre un ROAS cible n’est pas une question de chance. C’est une question de méthode.
Stratégie d’enchères tROAS + first party data + optimisation continue pour performer durablement.
Voici ce qui se passe quand vous envoyez toutes vos conversions à Google sans distinction de qualité. L’algorithme apprend de ce signal. Si vos « conversions » incluent 60% de leads qui ne répondent jamais à vos appels, qui ne reviendront jamais sur votre site et qui n’achèteront jamais rien : l’algo apprend à en générer davantage.
Ce n’est pas une hypothèse. C’est le fonctionnement documenté de Smart Bidding : chercher des profils similaires aux conversions qu’il a reçues. Si vous lui donnez des leads médiocres, il cherche d’autres personnes qui leur ressemblent.
Le problème est asymétrique : plus vous avez de mauvaises conversions dans l’historique, plus il est difficile de rééduquer l’algorithme. Il faut du volume de bonnes conversions pour diluer le signal pollué et ça prend du temps et du budget.
La méthode décrite par Arnoweb TV renverse l’approche habituelle. Au lieu d’envoyer toutes vos conversions et de laisser l’algo faire le tri, vous filtrez en amont : les leads avec un score inférieur à 5 (sur 10) ne déclenchent pas l’action de conversion côté Google.
La peur de nombreux annonceurs : réduire le volume de signal va casser l’apprentissage. Sur le cas documenté, après 3 mois de filtrage : +2,5× sur la valeur des devis reçus, sans augmenter le budget.
La logique tient : 50 conversions de qualité alimentent mieux l’algorithme que 200 conversions dont 60% sont du bruit. Ce filtrage se configure via GTM avec une variable de couche de données qui récupère le score calculé côté serveur, et un déclencheur conditionnel qui bloque l’envoi de la balise Google Ads si le score est insuffisant. La contrainte réelle : il faut un back-end capable de calculer et d’envoyer ce score dans la couche de données au moment de la soumission du formulaire.
La documentation Google Ads mentionne 15 conversions par mois comme seuil minimum pour Smart Bidding. Ce chiffre est trompeur.
Pour le value-based bidding sur le réseau Search, Google précise dans ses conditions d’activation : 50 conversions sur les 35 derniers jours, dont au moins 10 dans les 7 derniers jours. Condition bien différente des « 15/mois » souvent cités. En dessous, l’algorithme manque de données pour distinguer la qualité des leads. Il peut fonctionner mais les résultats sont instables.
Umane recommande 30 conversions minimum par mois pour une optimisation stable en lead gen. Sur des comptes à faible volume, en dessous de ce seuil, « Maximize Conversion Value » dégénère souvent en gaspillage de budget sans signal clair. Mieux vaut rester sur tCPA avec des valeurs différenciées et attendre d’avoir le volume nécessaire.
Activer le tROAS dès le premier jour est l’erreur la plus fréquente que j’observe sur des comptes qui stagnent. L’algorithme n’a pas encore de données sur lesquelles baser ses décisions de valeur et lui imposer un objectif de retour dès le départ revient à lui demander d’optimiser une équation avec toutes les variables inconnues.
Matthieu Tranvan a publié une analyse sur un compte Google Ads à 300 000€ de dépenses mensuelles. Conclusion contre-intuitive : le CPA optimal à 20€ ne capturait que 5% des conversions potentielles théoriques du marché.
Ce qui signifie que chercher plus de volume (baisser le CPA cible pour générer davantage de leads) dégradait mécaniquement la rentabilité de chaque euro dépensé. L’optimum de ce compte n’était pas au maximum du volume disponible. C’est souvent le cas sur les gros budgets.
La leçon : une fois que votre value-based bidding fonctionne, ne cherchez pas à maximiser le nombre de leads à tout prix. Cherchez à maintenir la qualité du signal. Augmenter le budget sans améliorer le signal de valeur génère davantage de leads mais pas forcément de meilleure qualité.
Le smart bidding optimise pour les conversions que vous lui donnez. Donnez-lui les bonnes.
Mise en place de signaux de conversion qualitatifs pour orienter l’algorithme vers vos vrais clients.
Les Conversion Value Rules permettent de modifier la valeur d’une conversion à l’enchère selon trois dimensions : la géographie, le device, et l’audience. Concrètement : si vos leads parisiens closent à 1,5× la valeur de vos leads en province, vous appliquez un multiplicateur ×1,5 sur les conversions générées depuis l’Île-de-France, sans toucher à la valeur de base de votre action de conversion.
L’avantage technique est réel : ça n’affecte pas vos rapports de conversion ni vos autres campagnes. C’est un ajustement à l’enchère, pas une modification de l’action de conversion elle-même. Logicbrush a documenté un cas sur un compte immobilier américain : les leads de Californie avaient une valeur économique double par rapport aux autres états. Après application d’un multiplicateur ×2 via Value Rules, l’algorithme a naturellement alloué plus de budget vers ce géo sans intervention manuelle.
Les Value Rules sont utiles quand vous avez des données claires sur l’écart de valeur selon une dimension précise. Appliquer un multiplicateur sans données solides revient à ajouter du bruit au signal que vous cherchez justement à purifier.
Bon moment pour les activer : au moins 3 à 6 mois de données de closing par segment géographique, et un écart observé supérieur à 30%. En dessous, l’imprécision des valeurs proxy absorbe la différence et vous risquez de biaiser l’algorithme vers un segment sans réel avantage économique.
Enhanced Conversions for Leads (ECL) est l’évolution de l’import offline de conversions. La différence principale : au lieu d’uploader un fichier CSV avec les GCLIDs et les valeurs, ECL utilise les données de premier niveau l(’email hasché en SHA-256) pour faire la correspondance entre vos leads CRM et les clics Google Ads.
Le résultat pratique est un taux de match nettement plus élevé. L’import offline classique dépend du GCLID, qui peut être manquant si le visiteur a eu plusieurs sessions, utilisé plusieurs devices, ou si la durée du cookie est dépassée. ECL contourne ces limitations en utilisant l’email comme identifiant persistant. Pour les annonceurs avec un cycle de vente de quelques jours à quelques semaines, ECL est l’option la plus fiable pour alimenter l’algorithme avec des valeurs réelles.
Dean Long a documenté un point de fonctionnement rarement mentionné : les valeurs de conversion uploadées après 12 jours du clic original ont un impact fortement réduit sur l’optimisation du machine learning.
Ce n’est pas que Google ignore les valeurs tardives. Il les enregistre dans les rapports. Mais leur capacité à influencer les décisions d’enchères en temps réel s’érode après cette fenêtre : l’algorithme a déjà pris ses décisions pour des milliers d’enchères depuis le clic initial.
Pour les cycles courts (e-commerce, SaaS en période d’essai), cette fenêtre n’est pas un problème. Pour les cycles long (là où ça se complique) envoyer des valeurs à 30 ou 60 jours n’alimente plus l’optimisation temps réel. Les données arrivent dans Google Ads, mais leur poids dans les décisions d’enchère est marginal.
Un cycle de vente de 6 à 12 mois est incompatible avec la fenêtre de 12 jours. La solution documentée : envoyer une valeur proxy immédiatement lors de la prise de contact, puis envoyer la valeur réelle quand le closing se produit.
La valeur proxy sert à alimenter l’algorithme en temps utile. La valeur réelle, même tardive, améliore les rapports et peut affiner l’apprentissage sur les cohortes futures — même si son impact sur les enchères immédiates est limité. Je ne connais pas de données précises sur le ratio impact-immédiat vs impact-différé selon la durée du cycle : c’est une zone où les praticiens avancent à tâtons.
Pour connecter votre CRM à Google Ads dans ce workflow, les options disponibles sont : l’API Google Ads pour les équipes techniques, les connecteurs Zapier ou Make pour des cycles moins critiques, ou l’import offline natif depuis Google Sheets pour les volumes faibles. La contrainte principale reste la capacité à extraire les GCLIDs ou emails hashés à chaque étape du pipeline commercial.
La vraie question n’est pas technique. Ce n’est pas « comment configurer ECL » ou « quel seuil de conversions pour passer à tROAS ».
C’est celle-ci : en ce moment, votre compte Google Ads apprend quelque chose d’utile sur vos leads — ou s’entraîne-t-il à en générer davantage qui ne valent rien ?
Si toutes vos conversions valent la même chose pour l’algorithme, la réponse est souvent la seconde option. Le coût de cette erreur est silencieux : pas un bug, pas une alerte : juste un ROAS qui plafonne, des leads qui ne closent jamais, et un algorithme parfaitement optimisé pour le mauvais objectif.
Commencer par les valeurs proxy. Les affiner avec les données. Filtrer le bruit avant qu’il ne s’installe dans l’historique.