En 2026, beaucoup d’équipes ont déjà constaté qu’un tableau d’attribution peut “avoir l’air juste” tout en répondant à la mauvaise question. La vraie question business est simple : la publicité a-t-elle créé des résultats qui n’auraient pas eu lieu autrement ? L’incrémentalité consiste à mesurer ce lift causal avec un contrefactuel crédible, plutôt que de renommer une demande qui existait déjà.
L’incrémentalité correspond à la valeur additionnelle causée par la publicité : achats, inscriptions, leads ou revenus supplémentaires observés dans un groupe exposé, comparés à un groupe similaire où les annonces ont été retirées ou réduites. L’élément clé, c’est la causalité. Au lieu de répartir le mérite entre des points de contact, on modifie volontairement l’exposition et on observe ce qui change dans le résultat final. Si rien ne change de façon significative, la publicité capte peut-être une demande existante plutôt qu’elle n’en crée.
L’attribution a tendance à surcréditer les canaux proches de la conversion, notamment la recherche de marque et le retargeting. Les personnes déjà prêtes à acheter cliquent plus, recherchent plus et convertissent plus, même sans exposition publicitaire. Le canal qui apparaît “en dernier” peut donc récolter l’essentiel du crédit sans avoir déclenché la décision. Ce biais devient plus visible quand la mesure repose davantage sur des modèles et des données agrégées, et que les contraintes de confidentialité réduisent les liens observables au niveau utilisateur.
Un test simple pour repérer une mesure “par croyance” consiste à demander : si l’on coupe ce canal demain, les conversions attribuées disparaîtront-elles au même rythme et dans les mêmes proportions ? Si vous ne pouvez pas défendre cela avec un design expérimental (ou au moins un design qui s’en rapproche), votre reporting décrit des parcours, mais ne prouve pas un effet. L’incrémentalité fournit une méthode structurée pour quantifier ce que l’entreprise a réellement gagné.
Il est utile de séparer deux fonctions que l’on confond souvent. L’attribution agit comme une comptabilité : elle alloue le crédit des conversions observées à différents points de contact. L’incrémentalité se comporte comme une expérience : elle estime l’effet causal de la publicité en comparant des résultats sous des conditions d’exposition différentes. Vous pouvez utiliser l’attribution pour guider l’optimisation au quotidien, mais vous avez besoin de l’incrémentalité pour valider que cette optimisation améliore réellement les résultats business.
Cette distinction n’est pas théorique. Les grands écosystèmes publicitaires décrivent les études de lift comme des comparaisons entre un groupe exposé (test) et un groupe non exposé (contrôle). Ce vocabulaire est important, car il précise ce que l’on cherche à estimer : non pas “à qui donner le mérite”, mais “quel effet net la publicité a produit”. Sans cette logique de contrôle, il est facile de confondre performance observée et impact causal.
Dans la pratique, adopter cette grille de lecture réduit les débats stériles sur “qui possède la conversion” et recentre tout le monde sur la même question : qu’aurait-il eu lieu sans dépense publicitaire ? Une fois cette question posée systématiquement, il devient plus simple de repérer les hypothèses fragiles, de fixer des standards de test, et d’éviter des décisions budgétaires qui ne font que déplacer la demande d’un canal à un autre.
La plupart des équipes n’ont pas besoin d’un projet de causalité sur-mesure pour démarrer. Trois designs couvrent l’essentiel des cas concrets : les tests geo-holdout, les splits d’audience avec holdout (au niveau utilisateur), et les tests temporels. Chacun peut être valide, mais chacun a aussi des points de rupture connus. Le meilleur design est celui qui correspond à vos contraintes opérationnelles et à la qualité de vos données.
Le geo-holdout consiste à attribuer des régions entières au test ou au contrôle, puis à activer la publicité de façon ciblée selon la zone. Cette approche est utile lorsque le suivi au niveau utilisateur est incomplet, car l’analyse peut s’appuyer sur des résultats agrégés par région : revenus, ventes en magasin, volume de leads, nouveaux clients. Elle est particulièrement pertinente quand l’entreprise pilote déjà par territoires et que les KPI sont fiables à ce niveau.
Le split d’audience retient aléatoirement une part d’utilisateurs éligibles dans un groupe de contrôle (non exposé), tandis que le reste reçoit la diffusion normale. Lorsque le holdout est réellement aléatoire et strictement respecté, c’est souvent le design le plus “propre”, car il compare des personnes similaires. Les tests temporels (périodes “on/off” ou “haut/bas”) peuvent aider, mais ils sont aussi les plus faciles à fausser, car les effets calendaires sont rarement aléatoires.
Le geo-holdout est un bon choix lorsque vous pouvez cibler par zone sans chevauchement majeur, que votre KPI est suffisamment stable par région, et que vous disposez d’un nombre de zones suffisant pour constituer un contrôle crédible. Il faut l’éviter si vous avez trop peu de marchés, si vos résultats sont très bruités par région, ou si le “spillover” est élevé (clients qui se déplacent entre zones, livraisons qui recouvrent plusieurs territoires). Dans ces cas, le groupe de contrôle devient “fuyant” et l’interprétation se dégrade.
Le split d’audience est préférable quand le canal peut appliquer un holdout de façon fiable, et quand la contamination reste maîtrisable. La contamination survient lorsque des personnes du contrôle voient tout de même les annonces via d’autres chemins (appareils multiples, canaux non inclus, reciblage indirect), ce qui réduit le lift mesuré et rend les résultats plus difficiles à lire. Cela n’annule pas forcément le test, mais cela change la portée : vous mesurez alors un effet minimum en présence de fuites.
Les tests temporels sont plus défendables lorsque la demande, les prix et les opérations restent stables, et que vous pouvez exclure des facteurs externes majeurs : promotions, pics de relations presse, contraintes de stock, changements de concurrence ou forte saisonnalité. Si vous testez pendant une grosse opération commerciale ou une période atypique, vous risquez de mesurer le calendrier plutôt que la publicité. Utilisés correctement, les tests temporels servent surtout de vérification directionnelle, pas de base unique pour des décisions budgétaires lourdes.

Commencez par un KPI principal et une décision claire. Pour des arbitrages de budget, la marge contributive incrémentale par livre dépensée est souvent plus utile que le revenu incrémental seul. Pour décider de conserver un canal, des conversions incrémentales et un coût par conversion incrémentale peuvent suffire. Ensuite, définissez précisément l’intervention : ce qui change entre test et contrôle, ce qui reste constant, et ce que vous considérez comme un succès en termes opérationnels.
Côté données, vous avez besoin d’une mesure cohérente entre groupes, d’une unité de comparaison stable (régions ou utilisateurs), et d’une période pré-test pour montrer que test et contrôle évoluent de façon similaire avant le démarrage. Il faut aussi un volume suffisant pour détecter un effet réaliste. Beaucoup d’équipes conçoivent involontairement des tests capables de détecter uniquement des lifts très élevés ; quand le résultat est “inconcluant”, ce n’est pas l’incrémentalité qui échoue, c’est la puissance du test qui était insuffisante.
Pour la durée, l’objectif est de couvrir le cycle d’achat et de lisser des motifs prévisibles comme l’effet jour de semaine ou les comportements liés à la paie. Deux à quatre semaines peuvent constituer un point de départ réaliste pour de nombreux contextes grand public, tandis que des cycles longs (par exemple, lead B2B jusqu’au contrat) exigent souvent plus de temps ou l’usage d’indicateurs avancés, avec un plan de validation ultérieure sur le revenu réellement encaissé. Un test court peut être acceptable si le KPI est fréquent et stable.
L’uplift est l’écart entre les résultats du test et du contrôle, exprimé en valeur absolue et en pourcentage. Une bonne pratique consiste à traduire cet uplift en valeur business : profit brut incrémental ou marge contributive incrémentale, pas seulement du revenu. Un canal peut générer du volume incrémental et rester une mauvaise décision si le coût par résultat incrémental dépasse votre seuil, une fois intégrés les retours, les remises et les coûts opérationnels.
L’incertitude doit être présentée honnêtement. Plutôt que de résumer par un verdict “ça marche / ça ne marche pas”, donnez un intervalle plausible de l’effet. Si vous estimez un uplift de +6% mais que l’intervalle va de -1% à +13%, la bonne lecture est que le test n’a pas encore apporté assez de précision pour recommander un passage à l’échelle sans risque. C’est un retour sur le design : augmenter le volume, prolonger la durée, ajouter des zones, ou ajuster le KPI.
La saisonnalité est l’une des causes les plus fréquentes de surestimation du lift. La protection la plus simple et la plus convaincante reste visuelle et factuelle : montrer l’alignement pré-test, puis la divergence pendant le test, et documenter ce qui aurait pu affecter un seul côté (promotions locales, ruptures, événements régionaux, actions concurrentes). Si vous ne pouvez pas soutenir que test et contrôle ont subi des conditions externes comparables, considérez le résultat comme indicatif plutôt que définitif.