Monitorar o desempenho

Tornar o desempenho uma prioridade não é apenas bom para os usuários, mas também pode ser bom para os negócios. Embora as práticas recomendadas nesta coleção se concentrem principalmente na otimização da integração da Tag do editor do Google (GPT), muitos outros fatores contribuem para o desempenho geral de uma determinada página. Sempre que você introduzir mudanças, é importante avaliar o impacto delas em todos os aspectos do desempenho do site.

Medir o desempenho da página

Para entender como uma mudança afeta o desempenho do seu site, primeiro você precisa estabelecer uma linha de base para comparação. A melhor maneira de fazer isso é criar um orçamento de desempenho que defina um valor de referência para uma ideia, que seu site pode ou não atender no momento. No entanto, se você quiser manter um nível fixo de desempenho, use as métricas de performance atuais do seu site como valor de referência.

Para começar a medir o desempenho, é recomendada uma combinação das seguintes abordagens:

  • Monitoramento sintético
    Use ferramentas como Lighthouse e Publisher Ads Audits for Lighthouse para medir o desempenho da página em um ambiente de laboratório. Esse tipo de medição não requer interação do usuário final. Portanto, ele é adequado para testes automatizados e pode ser usado para validar o desempenho das mudanças antes de lançá-las para os usuários.
  • Monitoramento de usuários reais (RUM)
    Use ferramentas como o Google Analytics e o PageSpeed Insights para coletar dados de desempenho reais dos usuários. Esse tipo de medição é baseado em interações do usuário final. Portanto, é útil para identificar problemas de desempenho de last mile que não podem ser facilmente descobertos por testes sintéticos.

Faça medições e compare com a linha de base regularmente. Assim, você terá uma boa indicação da tendência do desempenho do seu site na direção certa ao longo do tempo.

Escolher o que avaliar

Quando se trata de desempenho, não há uma única métrica que diga tudo sobre o desempenho do seu site. Você precisa analisar várias métricas que abrangem vários aspectos do desempenho da página para ter uma visão completa. Algumas áreas de desempenho importantes e métricas sugeridas estão listadas na tabela abaixo.

Área de performance
Velocidade de carregamento percebida Medidas

A rapidez com que uma página consegue carregar e renderizar todos os elementos da IU.


Métricas sugeridas

Primeira exibição de conteúdo (FCP)
Maior exibição de conteúdo (LCP)
Tempo para renderizar o primeiro anúncio

Reatividade do carregamento de página Medidas

A rapidez com que uma página se torna responsiva após o carregamento inicial.


Métricas sugeridas

Latência na primeira entrada (FID)
Tempo para interação da página (TTI)
Tempo total de bloqueio (TBT)

Estabilidade visual Medidas

Quantos elementos de IU mudam e se essas mudanças interferem na interação do usuário. Consulte Minimizar a mudança de layout para ver mais informações.


Métricas sugeridas

Mudança cumulativa de anúncio
Mudança de layout cumulativa (CLS)

Além do desempenho na página, também é possível medir as métricas de negócios específicas do anúncio. Informações como impressões, cliques e visibilidade de cada espaço podem ser encontradas nos relatórios do Google Ad Manager.

Testar alterações

Depois de definir e avaliar as métricas de desempenho regularmente, você pode começar a usar esses dados para avaliar o impacto das alterações no site à medida que elas são feitas. Isso é feito comparando as métricas medidas após a alteração e aquelas medidas antes da mudança (e/ou o valor de referência estabelecido anteriormente). Esse tipo de teste permite que você detecte e resolva problemas de desempenho antes que eles se tornem um grande problema para sua empresa ou seus usuários.

Testes automatizados

Use métricas sintéticas para medir métricas que não dependem da interação do usuário. Esses tipos de testes precisam ser executados com a maior frequência possível durante o processo de desenvolvimento para entender como as mudanças não lançadas afetarão o desempenho. Esse tipo de teste proativo pode ajudar a descobrir problemas de desempenho antes que as mudanças sejam liberadas para os usuários.

Uma maneira de fazer isso é tornando os testes sintéticos parte de um fluxo de trabalho de integração contínua (CI), em que os testes são executados automaticamente sempre que uma alteração é feita. É possível usar a Lighthouse CI para integrar testes de desempenho sintéticos em vários fluxos de trabalho de CI:

Teste A/B

As métricas que dependem da interação do usuário não podem ser totalmente testadas até que uma alteração seja realmente liberada para os usuários. Isso pode ser arriscado se você não souber como a mudança vai se comportar. Uma técnica para atenuar esse risco é o teste A/B.

Durante um teste A/B, diferentes variantes de uma página são exibidas aos usuários aleatoriamente. Você pode usar essa técnica para exibir uma versão modificada da página para uma pequena porcentagem de tráfego geral, enquanto a maioria continua veiculando a página não modificada. Combinado com o RUM, é possível avaliar o desempenho relativo dos dois grupos para determinar qual tem melhor desempenho, sem colocar 100% do tráfego em risco.

Outro benefício dos testes A/B é que eles permitem medir com mais precisão os efeitos das mudanças. Para muitos sites, pode ser difícil determinar se uma pequena diferença no desempenho se deve a uma mudança recente ou a uma variação normal de tráfego. Como o grupo experimental de um teste A/B representa uma porcentagem fixa do tráfego geral, as métricas devem ser diferentes do grupo de controle por um fator constante. Portanto, as diferenças observadas entre os dois grupos podem ser atribuídas com mais confiança à mudança que está sendo testada.

Ferramentas como o Optimizely e o Google Optimize podem ajudar na configuração e execução de testes A/B. No entanto, lembre-se de que esse teste A/B com base em tags (a configuração padrão dessas ferramentas) pode afetar negativamente o desempenho e fornecer resultados enganosos. Portanto, a integração do lado do servidor é altamente recomendada:

Resultados do teste A/B

Para medir o impacto de uma mudança usando um teste A/B, colete as métricas dos grupos de controle e experimental e compare-as. Para isso, é necessário saber qual tráfego faz parte de qual grupo.

Para métricas de desempenho da página, muitas vezes é suficiente incluir um identificador simples em cada página indicando se a versão experimental ou de controle foi veiculada. Esse identificador pode ser qualquer coisa que você quiser, desde que seja possível analisar e correlacionar métricas. Se você estiver usando um framework de teste pré-criado, isso geralmente será feito automaticamente.

Para métricas de negócios específicas do anúncio, é possível usar o recurso de segmentação de chaves-valor da GPT para diferenciar solicitações do anúncio do grupo de controle e experimental:

// On control group (A) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'a');

// On experimental group (B) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'b');

Essas chaves-valor podem ser referenciadas na geração de relatórios do Google Ad Manager para filtrar os resultados por grupo.