Como o Lighthouse calcula sua pontuação de desempenho geral
Em geral, somente metrics contribuem para sua pontuação de desempenho do Lighthouse, não os resultados de "Oportunidades" ou "Diagnóstico". Dito isso, melhorar as oportunidades e os diagnósticos provavelmente melhorará os valores das métricas, de modo que há uma relação indireta.
Abaixo, descrevemos por que a pontuação pode variar, como ela é composta e como o Lighthouse pontua cada métrica individual.
Por que sua pontuação flutua
Grande parte da variabilidade nos valores de métricas e pontuação geral de desempenho não se deve ao Lighthouse. As variações na pontuação de desempenho geralmente são causadas por mudanças nas condições subjacentes. Problemas comuns incluem:
- Testes A/B ou alterações em anúncios exibidos
- Mudanças no roteamento de tráfego da Internet
- Testar em dispositivos diferentes, como um computador desktop e um laptop de baixo desempenho
- Extensões de navegador que injetam JavaScript e adicionam/modificam solicitações de rede
- Software antivírus
A documentação do Lighthouse sobre variabilidade aborda isso com mais detalhes.
Além disso, mesmo que o Lighthouse possa fornecer uma única pontuação de desempenho geral, pode ser mais útil pensar no desempenho do seu site como uma distribuição de pontuações, em vez de um único número. Consulte a introdução de métricas de desempenho centradas no usuário para entender o motivo.
Como a pontuação de performance é ponderada
A pontuação de desempenho é uma média ponderada das pontuações de métricas. Naturalmente, métricas mais ponderadas têm um efeito maior na pontuação de desempenho geral. As pontuações das métricas não aparecem no relatório, mas são calculadas em segundo plano.
Farol 10
Auditoria | Peso |
---|---|
Primeira exibição de conteúdo | 10% |
Índice de velocidade | 10% |
Maior exibição de conteúdo | 25% |
Tempo total de bloqueio | 30% |
Mudança de layout cumulativa | 25% |
Farol 8
Auditoria | Peso |
---|---|
Primeira exibição de conteúdo | 10% |
Índice de velocidade | 10% |
Maior exibição de conteúdo | 25% |
Tempo para interação da página | 10% |
Tempo total de bloqueio | 30% |
Mudança de layout cumulativa | 15% |
Como as pontuações das métricas são determinadas
Depois de coletar as métricas de desempenho (principalmente informadas em milissegundos), ele converte cada valor bruto de métrica em uma pontuação de 0 a 100 analisando onde o valor da métrica se enquadra na distribuição de pontuações do Lighthouse. A distribuição de pontuação é uma distribuição log-normal derivada das métricas de desempenho dos dados reais de desempenho do site no HTTP Archive.
Por exemplo, a Maior exibição de conteúdo (LCP, na sigla em inglês) mede quando um usuário percebe que o maior conteúdo de uma página está visível. O valor da métrica para LCP representa o tempo de duração entre o início do carregamento da página e a renderização do conteúdo principal pelo usuário. Com base em dados reais, os sites com melhor desempenho processam a LCP em cerca de 1.220 ms, para que o valor da métrica seja mapeado para uma pontuação de 99.
Indo um pouco mais além, o modelo de curva de pontuação do Lighthouse usa dados do HTTPArchive para determinar dois pontos de controle que definem a forma de uma curva log-normal. O 25o percentil dos dados do HTTPArchive se torna uma pontuação de 50 (o ponto de controle mediano), e o 8o percentil se torna uma pontuação de 90 (o ponto de controle bom/verde). Ao analisar o gráfico da curva de pontuação abaixo, observe que, entre 0,50 e 0,92, há uma relação quase linear entre valor da métrica e pontuação. Em torno de uma pontuação de 0,96, é o "ponto de redução dos retornos". Acima dela, a curva desaparece, exigindo uma melhoria cada vez maior das métricas para melhorar uma pontuação já alta.
Como funciona o uso de computadores x dispositivos móveis
Como mencionado acima, as curvas de pontuação são determinadas com base em dados de desempenho reais. Antes do Lighthouse v6, todas as curvas de pontuação eram baseadas em dados de desempenho em dispositivos móveis, no entanto, uma execução do Lighthouse em um computador usaria isso. Na prática, isso levou a um aumento artificial nas pontuações em computadores. O Lighthouse v6 corrigiu esse bug usando uma pontuação específica para computadores. Embora você certamente possa esperar mudanças gerais em sua pontuação de desempenho de 5 para 6, as pontuações para computadores serão significativamente diferentes.
Como as pontuações são codificadas por cores
As pontuações de métricas e de desempenho são coloridas de acordo com estes intervalos:
- 0 a 49 (vermelho): Ruim
- 50 a 89 (laranja): precisa de melhorias
- 90 a 100 (verde): bom
Para oferecer uma boa experiência ao usuário, os sites devem ter uma boa pontuação (90 a 100). Uma pontuação "perfeita" de 100 é extremamente difícil de alcançar e não é esperada. Por exemplo, uma pontuação de 99 a 100 precisa da mesma quantidade de melhoria de métrica que levaria de 90 a 94.
O que os desenvolvedores podem fazer para melhorar a pontuação de desempenho?
Primeiro, use a calculadora de pontuação do Lighthouse para ajudar a entender quais limites você deve alcançar para atingir uma determinada pontuação de desempenho do Lighthouse.
No relatório do Lighthouse, a seção Oportunidades tem sugestões detalhadas e documentação sobre como implementá-las. Além disso, a seção Diagnóstico lista outras orientações que os desenvolvedores podem usar para melhorar ainda mais o desempenho.