La statistica è il linguaggio dell’incertezza, lo strumento che ci consente di trarre conclusioni da informazioni incomplete. Che tu stia leggendo un sondaggio di notizie, interpretando il risultato di uno studio clinico o analizzando i tuoi dati, comprendere questi concetti fondamentali ti renderà un lettore molto più critico.

Statistiche descrittive: riepilogo dei dati

Prima di poter analizzare i dati, è necessario descriverli. Le misure chiave sono la tendenza centrale (dov'è il centro?) e lo spread (quanto sono variabili i dati?).

Media, mediana e moda

La media aritmetica è la somma divisa per il conteggio. È la media più familiare ma è altamente sensibile ai valori anomali.

La mediana è il valore medio quando i dati vengono ordinati. È più robusto: un singolo valore estremo non lo sposta molto.

La modalità è il valore più frequente. Utile per dati categorici; meno utile per misurazioni continue.

Set di dati Significare Mediano Modalità
2, 4, 4, 6, 8 4.8 4 4
2, 4, 4, 6, 100 23.2 4 4

Nota come un valore estremo (100) cambia drasticamente la media ma lascia intatta la mediana. Questo è il motivo per cui le statistiche sui prezzi delle case utilizzano la mediana: una manciata di ville da molti milioni di sterline renderebbe fuorvianti i prezzi medi.

Deviazione standard e varianza

La varianza misura la deviazione quadrata media dalla media:

σ² = Σ(xi - x̄)² / n

La deviazione standard è la radice quadrata della varianza: è espressa nelle stesse unità dei dati originali, il che la rende interpretabile:

σ = √[Σ(xi - x̄)² / n]

La regola 68-95-99.7 per i dati distribuiti normalmente:

  • Il 68% dei valori rientra in 1 deviazione standard della media
  • 95% entro 2 deviazioni standard
  • 99,7% entro 3 deviazioni standard

Nota: utilizzare n al denominatore per la deviazione standard della popolazione; utilizzare n−1 per una stima del campione (questa è chiamata correzione di Bessel e corregge la leggera sottostima che si verifica con i campioni).

La distribuzione normale

La distribuzione normale (gaussiana) è la curva a campana che appare ovunque in natura e in statistica. È completamente descritto da due parametri: media (μ) e deviazione standard (σ).

Il punteggio z converte qualsiasi valore in "quante deviazioni standard dalla media":

z = (x - μ) / σ

Un punteggio z di 1,96 corrisponde al 97,5° percentile, il valore al di sopra del quale si trova solo il 2,5% della distribuzione. Ciò appare costantemente nelle statistiche a causa degli intervalli di confidenza.

Il Teorema del limite centrale è il motivo per cui la distribuzione normale è così importante: indipendentemente dalla forma della popolazione originaria, la distribuzione delle medie campionarie si avvicina alla normalità all’aumentare della dimensione del campione. Questo è il motivo per cui così tanti test statistici presuppongono la normalità anche quando i dati grezzi non sono distribuiti normalmente.

Intervalli di confidenza

Un intervallo di confidenza del 95% non significa "esiste una probabilità del 95% che il valore reale rientri in questo intervallo". Significa: "se ripetessimo questo processo di campionamento molte volte, il 95% degli intervalli da noi calcolati conterrebbe il valore vero".

Per una proporzione p da un campione di dimensione n:

CI = p ± z × √(p(1-p)/n)

Per una confidenza del 95%, z = 1,96. Per il 99%, z = 2,576.

Margine di errore è solo la parte ±: z × √(p(1-p)/n). Quando un sondaggio riporta "±3 punti percentuali", questo è il margine di errore.

Verifica di ipotesi

Ogni test di ipotesi segue la stessa struttura:

  1. H₀ (ipotesi nulla): Valore predefinito: solitamente "nessun effetto", "nessuna differenza", "nessuna relazione"
  2. H₁ (ipotesi alternativa): ciò di cui stai cercando di dimostrare le prove
  3. Statistica del test: un numero calcolato dai dati che misura la distanza da H₀ dei dati
  4. valore p: la probabilità di osservare un risultato almeno così estremo se H₀ fosse vero

Spiegazione del valore p

Un valore p di 0,03 significa: "Se non ci fosse davvero alcun effetto, vedremmo dati così estremi per caso solo il 3% delle volte". Questo di solito è considerato abbastanza significativo da rifiutare H₀.

Cosa p < 0,05 NON significa:

  • Ciò non significa che ci sia una probabilità del 95% che l'effetto sia reale
  • Ciò non significa che l'effetto sia praticamente importante
  • Ciò non significa che H₀ sia falso

Errori di tipo I e di tipo II:

H₀ è vero H₀ è falso
Rifiuta H₀ Errore di tipo I (falso positivo) Corretto
Non rifiutare H₀ Corretto Errore di tipo II (falso negativo)

α (livello di significatività) = tasso di errore di tipo I, solitamente 0,05 β = tasso di errore di tipo II; Potenza = 1 − β, solitamente mirata a 0,80

Il test t

Il test t confronta le medie tra i gruppi. La statistica t a due campioni è:

t = (x̄₁ - x̄₂) / √(s₁²/n₁ + s₂²/n₂)

Una grande |t| significa che i gruppi sono distanti rispetto alla variabilità all’interno del gruppo. Confrontare con un valore critico (o calcolare il valore p) con i gradi di libertà appropriati.

Quando usarlo: Confrontando due medie di gruppi indipendenti, quando i dati sono approssimativamente normali o n > 30.

Correlazione

R di Pearson misura la forza della relazione lineare tra due variabili:

  • r = +1: relazione lineare positiva perfetta
  • r = 0: nessuna relazione lineare
  • r = −1: relazione lineare negativa perfetta
r = Σ(xi - x̄)(yi - ȳ) / √[Σ(xi - x̄)² × Σ(yi - ȳ)²]

(r al quadrato) indica la proporzione della varianza in Y spiegata da X. Se r = 0,7, allora R² = 0,49 — X spiega il 49% della variabilità in Y.

ρ (rho) di Spearman fa la stessa cosa ma utilizza ranghi anziché valori grezzi, rendendolo robusto rispetto ai valori anomali e appropriato per i dati ordinali.

Ricorda: Correlazione ≠ causalità. Le vendite di gelato e il tasso di annegamento sono fortemente correlati (entrambi raggiungono il picco in estate), ma il gelato non provoca annegamento.

Dimensione dell'effetto

La significatività statistica ti dice se un effetto è reale; dimensione dell'effetto indica quanto è grande. La d di Cohen per confrontare due medie:

d = (μ₁ - μ₂) / σ_pooled
Cohen d Interpretazione
0.2 Piccolo
0.5 Medio
0.8 Grande

Un valore p altamente significativo con d = 0,1 significa che hai rilevato un effetto reale ma banalmente piccolo, probabilmente perché il tuo campione era enorme. Riportare sempre le dimensioni degli effetti insieme ai valori p.

Test del chi quadrato

Il test del chi quadrato (χ²) chiede: "I conteggi osservati differiscono da ciò che ci aspetteremmo per caso?"

χ² = Σ (Observed - Expected)² / Expected

Usalo quando i tuoi dati sono categorici, ad esempio per verificare se un morire è giusto o se il risultato del trattamento è indipendente dal gruppo di trattamento.

Scegliere il test giusto

Situazione Test
Confronta una media con un valore noto Test t per un campione
Confronta due medie indipendenti Test t a due campioni
Confronta due medie accoppiate Test t accoppiato
Confronta 3+ significa ANOVA
Confronta 3+ medie (non normale) Kruskal-Wallis
Associazione tra due variabili continue Correlazione Pearson/Spearman
Confronta le proporzioni categoriche Chi-quadrato
Due gruppi, distribuzione non normale Mann-Whitney U

Errori comuni

Sbirciare: eseguire ripetutamente il test e interromperlo quando p < 0,05 gonfia notevolmente l'errore di tipo I. Pianifica la dimensione del campione prima di raccogliere i dati.

Confronti multipli: L'esecuzione di 20 test indipendenti a α = 0,05 produrrà in media un falso positivo. Utilizza la correzione Bonferroni o controlla il tasso di false scoperte.

Ignorando le ipotesi: la maggior parte dei test presuppone il campionamento casuale, l'indipendenza delle osservazioni e (per i test t) una normalità approssimativa. La violazione di questi mina i risultati.

Utilizza il nostro Calcolatore Z-Score, Calcolatore della dimensione del campione, Calcolatore t-Test e Calcolatore di correlazione per elaborare i tuoi dati.