Até 2026, muitas equipas já perceberam, na prática, que os painéis de atribuição podem parecer “certos” e, ainda assim, responder à pergunta errada. A pergunta do negócio é simples: a publicidade gerou resultados que não aconteceriam de qualquer forma? A incrementalidade é a forma disciplinada de medir esse efeito causal com um contrafactual credível, em vez de renomear procura que já existia.
Incrementalidade é o valor adicional causado pela publicidade: compras, registos, leads ou receita extra que surgem num grupo exposto quando comparado com um grupo semelhante onde os anúncios foram reduzidos ou removidos. O ponto central é a causalidade. Em vez de distribuir crédito por pontos de contacto, você altera deliberadamente a exposição e observa o que muda no resultado. Se nada muda de forma relevante, então os anúncios podem estar apenas a captar procura, não a criá-la.
A atribuição tende a sobrevalorizar os canais mais próximos da conversão, sobretudo pesquisa de marca e retargeting. Pessoas que já têm maior probabilidade de comprar também têm maior probabilidade de clicar, pesquisar e converter; assim, o canal que “aparece por último” pode receber a maior parte do crédito mesmo quando não é o fator decisivo. Este viés torna-se mais visível à medida que a medição dentro das ferramentas de anúncios se torna mais modelada e agregada, e à medida que limitações de privacidade reduzem a ligação observável entre utilizador e conversão.
Um teste simples para perceber se o seu reporting é “atribuição por fé” é perguntar: se desligássemos este canal amanhã, esperaríamos que as conversões reportadas desaparecessem na mesma proporção e com a mesma rapidez? Se não conseguir defender isso com um desenho experimental (ou pelo menos com um desenho que se comporte como tal), o relatório é descritivo, não causal. A incrementalidade dá-lhe uma forma estruturada de quantificar o que o negócio realmente ganhou.
Ajuda separar dois trabalhos que muitas vezes ficam misturados. A atribuição é um sistema de contabilidade: aloca crédito pelas conversões observadas entre pontos de contacto. A incrementalidade é um experimento: estima o efeito causal da publicidade comparando resultados sob diferentes condições de exposição. Pode usar atribuição para orientar a otimização do dia a dia, mas precisa de incrementalidade para validar se essa otimização melhora resultados reais do negócio.
Esta diferença não é teórica. Os principais ecossistemas de anúncios descrevem estudos de lift como experiências controladas com grupos de teste e controlo. Na prática, isso significa manter uma parte do público elegível sem exposição e comparar as conversões com a parte exposta, atribuindo a diferença ao lift causado pelos anúncios. Esta linguagem é importante porque esclarece o que a métrica tenta estimar: não crédito, mas causalidade.
Quando as equipas adotam este modo de pensar, deixam de discutir qual modelo “é dono” da conversão e passam a concordar numa pergunta comum: o que teria acontecido sem o investimento? A partir daí, fica mais fácil identificar suposições frágeis, elevar padrões de teste e evitar mudanças de orçamento que apenas deslocam procura entre canais.
A maioria das equipas não precisa de um projeto de inferência causal à medida para começar a medir impacto incremental. Três desenhos cobrem a maior parte dos cenários do mundo real: testes geo-holdout, testes com divisão de audiência (holdout ao nível do utilizador) e testes baseados em tempo. Cada um pode ser válido, mas cada um também tem falhas previsíveis; por isso, o melhor desenho é o que se ajusta às suas restrições e aos seus dados.
Testes geo-holdout atribuem regiões inteiras a tratamento ou controlo e executam publicidade com segmentação geográfica em conformidade. Métodos geográficos são especialmente úteis quando o rastreio ao nível do utilizador é incompleto, porque permitem trabalhar com resultados agregados por região, como receita, vendas em loja, volume de leads ou novos clientes.
Testes com divisão de audiência retêm anúncios aleatoriamente para uma parte dos utilizadores elegíveis, enquanto o restante recebe a entrega normal. Quando o holdout é realmente aleatório e a “aplicação” do controlo é forte, este tende a ser um desenho muito limpo, porque compara pessoas semelhantes. Testes baseados em tempo, com períodos “on/off” ou “alto/baixo”, podem ajudar, mas também são os mais fáceis de enganar, porque efeitos de calendário raramente são aleatórios.
Geo-holdout é uma boa escolha quando consegue segmentar por localização com clareza, quando o KPI é estável ao nível regional e quando existe número suficiente de mercados para formar um controlo credível. Evite quando há poucos mercados, quando o resultado é muito ruidoso por região ou quando o “derramamento” é elevado (por exemplo, clientes atravessam fronteiras com frequência ou áreas de entrega sobrepõem-se). Se o seu negócio já decide por territórios e relatórios semanais, testes geográficos costumam encaixar bem na forma como as decisões são tomadas.
Divisão de audiência é ideal quando o canal consegue impor holdouts de forma fiável e quando a contaminação é controlável. Contaminação acontece quando pessoas no grupo de controlo continuam a ver anúncios por outras vias, o que reduz o efeito medido e dificulta a interpretação. Isso não invalida automaticamente o teste, mas muda a leitura: pode estar a medir um “lift mínimo sob fuga”, não um efeito causal limpo.
Testes baseados em tempo são mais defensáveis quando a procura é estável, os preços são estáveis e é possível excluir fatores de confusão como promoções, picos de PR, limitações de stock ou choques de sazonalidade. Se fizer um teste temporal durante uma grande campanha promocional, lançamento de produto ou semana festiva, pode estar apenas a medir o calendário. Quando usados, testes temporais funcionam melhor como verificação direcional, não como única base para mudanças grandes de orçamento.

Comece com um KPI principal e uma decisão. Se a decisão é orçamento, a margem de contribuição incremental por cada € investido costuma ser mais acionável do que receita incremental. Se a decisão é manter ou não um canal, conversões incrementais e custo por conversão incremental podem bastar. Depois defina a intervenção com precisão: o que muda em tratamento versus controlo, o que permanece constante e como será definido o “sucesso” de forma operacional.
Em termos de dados, precisa de medição consistente entre grupos, uma unidade de comparação estável (regiões ou utilizadores) e um período pré-teste que mostre que tratamento e controlo se comportavam de forma semelhante antes do início. Também precisa de volume suficiente para detetar um efeito realista. Muitas equipas desenham testes que só detetam lifts enormes; quando o resultado sai “inconclusivo”, o problema não é a incrementalidade, é a falta de poder estatístico para responder à pergunta.
Quanto à duração, o objetivo é cobrir o ciclo de compra e suavizar padrões previsíveis, como efeitos de dia da semana e comportamento de pagamento. Duas a quatro semanas podem ser um ponto de partida viável para muitos negócios de consumo, mas ciclos longos (por exemplo, B2B desde lead até fecho) podem exigir janelas maiores ou indicadores antecipados com plano de validação posterior em receita efetivamente fechada. Testes curtos podem ser aceitáveis se o KPI for frequente e estável; testes longos não são automaticamente melhores se aumentarem o risco de choques externos.
Uplift é a diferença entre resultados de tratamento e controlo, reportada em termos absolutos e percentuais. Um bom hábito é traduzir uplift para valor do negócio: lucro bruto incremental ou margem de contribuição incremental, não apenas receita. Um canal pode gerar volume incremental e ainda assim ser uma má aposta se o custo por resultado incremental ficar acima da meta depois de considerar reembolsos, descontos e custos operacionais.
A incerteza deve ser reportada com honestidade. Em vez de tratar o resultado como “passou/falhou”, reporte um intervalo que reflita a gama plausível do efeito. Se a estimativa for +6% de uplift mas o intervalo for de -1% a +13%, a leitura correta é que o teste ainda não fixou o efeito com precisão suficiente para suportar uma decisão confiante de escala. Isso é feedback de desenho: pode precisar de mais mercados, mais tempo ou outro KPI.
A sazonalidade é a razão mais comum para lifts inflacionados. A proteção mais simples e convincente é também a mais clara: mostrar alinhamento no pré-período, depois mostrar divergência durante o teste e documentar qualquer fator que possa ter afetado apenas um lado (promoções regionais, limitações de stock, eventos locais, ações de concorrentes). Se não conseguir sustentar que tratamento e controlo viveram condições externas semelhantes, trate o resultado como indicativo, não definitivo.