A estatística é a linguagem da incerteza – a ferramenta que nos permite tirar conclusões a partir de informações incompletas. Esteja você lendo uma pesquisa de notícias, interpretando o resultado de um ensaio clínico ou analisando seus próprios dados, a compreensão desses conceitos básicos o tornará um leitor muito mais crítico.

Estatística Descritiva: Resumindo Dados

Antes de poder analisar os dados, você precisa descrevê-los. As principais medidas são tendência central (onde está o meio?) e distribuição (quão variáveis ​​são os dados?).

Média, Mediana e Moda

A média aritmética é a soma dividida pela contagem. É a média mais familiar, mas é altamente sensível a valores discrepantes.

A mediana é o valor médio quando os dados são classificados. É mais robusto – um único valor extremo não o move muito.

O modo é o valor mais frequente. Útil para dados categóricos; menos útil para medições contínuas.

Conjunto de dados Significar Mediana Modo
2, 4, 4, 6, 8 4.8 4 4
2, 4, 4, 6, 100 23.2 4 4

Observe como um valor extremo (100) altera drasticamente a média, mas deixa a mediana intacta. É por isso que as estatísticas de preços de casas utilizam a mediana – um punhado de mansões multimilionárias tornaria os preços médios enganadores.

Desvio Padrão e Variância

A variância mede o desvio quadrático médio da média:

σ² = Σ(xi - x̄)² / n

O desvio padrão é a raiz quadrada da variância – está nas mesmas unidades dos dados originais, o que o torna interpretável:

σ = √[Σ(xi - x̄)² / n]

A regra 68-95-99.7 para dados normalmente distribuídos:

  • 68% dos valores estão dentro de 1 desvio padrão da média
  • 95% dentro de 2 desvios padrão
  • 99,7% dentro de 3 desvios padrão

Observação: Use n no denominador do desvio padrão populacional; use n−1 para uma estimativa amostral (isso é chamado de correção de Bessel e corrige a ligeira subestimação que ocorre com as amostras).

A distribuição normal

A distribuição normal (Gaussiana) é a curva em forma de sino que aparece em toda parte na natureza e nas estatísticas. É totalmente descrito por dois parâmetros: média (μ) e desvio padrão (σ).

O z-score converte qualquer valor em "quantos desvios padrão da média":

z = (x - μ) / σ

Um escore z de 1,96 corresponde ao percentil 97,5 – valor acima do qual se encontra apenas 2,5% da distribuição. Isto aparece constantemente nas estatísticas devido aos intervalos de confiança.

O Teorema do Limite Central é o motivo pelo qual a distribuição normal é tão importante: independentemente da forma da população original, a distribuição das médias amostrais se aproxima da normalidade à medida que o tamanho da amostra aumenta. É por isso que tantos testes estatísticos assumem normalidade mesmo quando os dados brutos não são distribuídos normalmente.

Intervalos de confiança

Um intervalo de confiança de 95% não significa que “há uma probabilidade de 95% de que o valor verdadeiro esteja nesse intervalo”. Significa: “se repetissemos esse processo de amostragem muitas vezes, 95% dos intervalos que calculamos conteriam o valor verdadeiro”.

Para uma proporção p de uma amostra de tamanho n:

CI = p ± z × √(p(1-p)/n)

Para 95% de confiança, z = 1,96. Para 99%, z = 2,576.

Margem de erro é apenas a parte ±: z × √(p(1-p)/n). Quando uma pesquisa informa “±3 pontos percentuais”, esta é a margem de erro.

Teste de hipóteses

Todo teste de hipótese segue a mesma estrutura:

  1. H₀ (hipótese nula): O padrão - geralmente "sem efeito", "sem diferença", "sem relacionamento"
  2. H₁ (hipótese alternativa): O que você está tentando mostrar evidências
  3. Estatística de teste: Um número calculado a partir dos dados que mede a distância de H₀ os dados estão
  4. valor p: A probabilidade de observar um resultado pelo menos neste extremo se H₀ fosse verdadeiro

O valor p explicado

Um valor p de 0,03 significa: “Se realmente não houvesse nenhum efeito, veríamos dados tão extremos por acaso apenas 3% das vezes”. Isso geralmente é considerado significativo o suficiente para rejeitar H₀.

O que p < 0,05 NÃO significa:

  • Isso não significa que há 95% de chance de o efeito ser real
  • Isso não significa que o efeito seja praticamente importante
  • Isso não significa que H₀ seja falso

Erros Tipo I e Tipo II:

H₀ é verdade H₀ é falso
Rejeitar H₀ Erro tipo I (falso positivo) Correto
Falha ao rejeitar H₀ Correto Erro tipo II (falso negativo)

α (nível de significância) = taxa de erro tipo I, geralmente 0,05 β = taxa de erro tipo II; Poder = 1 − β, geralmente direcionado a 0,80

O teste t

O teste t compara médias entre grupos. A estatística t de duas amostras é:

t = (x̄₁ - x̄₂) / √(s₁²/n₁ + s₂²/n₂)

Um grande |t| significa que os grupos estão distantes em relação à variabilidade dentro do grupo. Compare com um valor crítico (ou calcule o valor p) com os graus de liberdade apropriados.

Quando usar: Comparação de duas médias de grupos independentes, quando os dados são aproximadamente normais ou n > 30.

Correlação

R de Pearson mede a força da relação linear entre duas variáveis:

  • r = +1: Relação linear positiva perfeita
  • r = 0: Sem relação linear
  • r = −1: Relação linear negativa perfeita
r = Σ(xi - x̄)(yi - ȳ) / √[Σ(xi - x̄)² × Σ(yi - ȳ)²]

(r ao quadrado) informa a proporção da variância em Y explicada por X. Se r = 0,7, então R² = 0,49 – X explica 49% da variabilidade em Y.

O ρ (rho) de Spearman faz a mesma coisa, mas usa classificações em vez de valores brutos, tornando-o robusto para valores discrepantes e apropriado para dados ordinais.

Lembre-se: Correlação ≠ causalidade. As vendas de sorvete e as taxas de afogamento estão fortemente correlacionadas (ambos atingem o pico no verão), mas o sorvete não causa afogamento.

Tamanho do efeito

A significância estatística informa se um efeito é real; tamanho do efeito informa quão grande é. D de Cohen para comparar duas médias:

d = (μ₁ - μ₂) / σ_pooled
Cohen's d Interpretação
0.2 Pequeno
0.5 Médio
0.8 Grande

Um valor p altamente significativo com d = 0,1 significa que você detectou um efeito real, mas trivialmente pequeno – possivelmente porque sua amostra era enorme. Sempre relate os tamanhos dos efeitos junto com os valores p.

Teste Qui-Quadrado

O teste qui-quadrado (χ²) pergunta: "As contagens observadas diferem do que esperaríamos por acaso?"

χ² = Σ (Observed - Expected)² / Expected

Use-o quando seus dados forem categóricos — por exemplo, testando se um dado é justo ou se o resultado do tratamento é independente do grupo de tratamento.

Escolhendo o teste certo

Situação Teste
Compare uma média com um valor conhecido Teste t de uma amostra
Compare duas médias independentes Teste t de duas amostras
Compare duas médias pareadas Teste t pareado
Compare 3+ médias ANOVA
Compare 3+ médias (não normais) Kruskal Wallis
Associação entre duas variáveis ​​contínuas Correlação de Pearson/Spearman
Compare proporções categóricas Qui-quadrado
Dois grupos, distribuição não normal Mann-Whitney U

Erros Comuns

Espiar: Executar seu teste repetidamente e parar quando p < 0,05 aumenta dramaticamente o erro Tipo I. Planeje o tamanho da sua amostra antes de coletar dados.

Comparações múltiplas: A execução de 20 testes independentes com α = 0,05 produzirá, em média, um falso positivo. Use a correção de Bonferroni ou controle a taxa de falsas descobertas.

Ignorando suposições: A maioria dos testes pressupõe amostragem aleatória, independência de observações e (para testes t) normalidade aproximada. Violar isso prejudica os resultados.

Use nossa calculadora de pontuação Z, calculadora de tamanho de amostra, calculadora de teste t e calculadora de correlação para trabalhar com seus próprios dados.