Statistica este limbajul incertitudinii - instrumentul care ne permite să tragem concluzii din informații incomplete. Indiferent dacă citiți un sondaj de știri, interpretați rezultatul unui studiu clinic sau analizați propriile date, înțelegerea acestor concepte de bază vă va face un cititor mult mai critic.

Statistici descriptive: Rezumarea datelor

Înainte de a putea analiza datele, trebuie să le descrieți. Măsurile cheie sunt tendința centrală (unde este mijlocul?) și spread (cât de variabile sunt datele?).

Medie, Mediană și Mod

Media aritmetică este suma împărțită la număr. Este cea mai cunoscută medie, dar este foarte sensibilă la valori aberante.

mediana este valoarea de mijloc atunci când datele sunt sortate. Este mai robust - o singură valoare extremă nu o mișcă prea mult.

Modul este cea mai frecventă valoare. Util pentru date categorice; mai puțin util pentru măsurători continue.

Setul de date Medie Median Modul
2, 4, 4, 6, 8 4.8 4 4
2, 4, 4, 6, 100 23.2 4 4

Observați cum o valoare extremă (100) modifică dramatic media, dar lasă mediana neatinsă. Acesta este motivul pentru care statisticile prețurilor caselor folosesc mediana - o mână de conace de mai multe milioane de lire sterline ar face prețurile medii înșelătoare.

Abaterea standard și variația

Varianta măsoară abaterea medie pătrată de la medie:

σ² = Σ(xi - x̄)² / n

Abaterea standard este rădăcina pătrată a varianței - este în aceleași unități ca și datele originale, ceea ce o face interpretabilă:

σ = √[Σ(xi - x̄)² / n]

Regula 68-95-99.7 pentru date distribuite normal:

  • 68% dintre valori se încadrează la o abatere standard a mediei
  • 95% în 2 abateri standard
  • 99,7% în 3 abateri standard

Notă: Folosiți n în numitor pentru abaterea standard a populației; utilizați n−1 pentru o estimare a eșantionului (aceasta se numește corecția lui Bessel și corectează ușoară subestimare care apare cu eșantioane).

Distribuția normală

Distribuția normală (Gauss) este curba în formă de clopot care apare peste tot în natură și statistică. Este complet descris de doi parametri: medie (μ) și abatere standard (σ).

Scorul z convertește orice valoare în „câte abateri standard de la medie”:

z = (x - μ) / σ

Un scor z de 1,96 corespunde percentilei 97,5 - valoarea peste care se află doar 2,5% din distribuție. Acest lucru apare constant în statistici din cauza intervalelor de încredere.

Teorema limitei centrale este motivul pentru care distribuția normală contează atât de mult: indiferent de forma populației inițiale, distribuția mediilor eșantionului se apropie de normalitate pe măsură ce dimensiunea eșantionului crește. Acesta este motivul pentru care atât de multe teste statistice presupun normalitate chiar și atunci când datele brute nu sunt distribuite în mod normal.

Intervale de încredere

Un interval de încredere de 95% nu înseamnă „există o probabilitate de 95% ca valoarea adevărată să fie în acest interval”. Înseamnă: „dacă am repeta acest proces de eșantionare de multe ori, 95% din intervalele pe care le-am calculat ar conține valoarea adevărată”.

Pentru o proporție p dintr-un eșantion de mărimea n:

CI = p ± z × √(p(1-p)/n)

Pentru o încredere de 95%, z = 1,96. Pentru 99%, z = 2,576.

Marja de eroare este doar partea ±: z × √(p(1-p)/n). Când un sondaj raportează „±3 puncte procentuale”, aceasta este marja de eroare.

Testarea ipotezelor

Fiecare test de ipoteză urmează aceeași structură:

  1. H₀ (ipoteză nulă): Valoarea implicită — de obicei „fără efect”, „fără diferență”, „fără relație”
  2. H₁ (ipoteză alternativă): Pentru ce încerci să arăți dovezi
  3. Test statistic: Un număr calculat din date care măsoară cât de departe de H₀ sunt datele
  4. valoare-p: Probabilitatea de a observa un rezultat cel puțin această extremă dacă H₀ ar fi adevărată

Valoarea p explicată

O valoare p de 0,03 înseamnă: „Dacă nu ar exista cu adevărat niciun efect, am vedea date atât de extreme întâmplător doar în 3% din timp”. Acest lucru este de obicei considerat suficient de semnificativ pentru a respinge H₀.

Ce p < 0,05 NU înseamnă:

  • Nu înseamnă că există o șansă de 95% ca efectul să fie real
  • Nu înseamnă că efectul este practic important
  • Nu înseamnă că H₀ este fals

Erori de tip I și de tip II:

H₀ este adevărat H₀ este fals
Respinge H₀ Eroare de tip I (fals pozitiv) Corecta
Eșuarea respingerii H₀ Corecta Eroare de tip II (fals negativ)

α (nivel de semnificație) = rata de eroare de tip I, de obicei 0,05 β = rata de eroare de tip II; Putere = 1 − β, de obicei vizată la 0,80

Testul t

Testul t compară mediile între grupuri. Statistica t cu două eșantioane este:

t = (x̄₁ - x̄₂) / √(s₁²/n₁ + s₂²/n₂)

Un |t| mare înseamnă că grupurile sunt îndepărtate în raport cu variabilitatea în interiorul grupului. Comparați cu o valoare critică (sau calculați valoarea p) cu grade adecvate de libertate.

Când să-l utilizați: Comparând două medii din grupuri independente, când datele sunt aproximativ normale sau n > 30.

Corelație

Rul lui Pearson măsoară puterea relației liniare dintre două variabile:

  • r = +1: Relație liniară pozitivă perfectă
  • r = 0: Nicio relație liniară
  • r = −1: Relație liniară negativă perfectă
r = Σ(xi - x̄)(yi - ȳ) / √[Σ(xi - x̄)² × Σ(yi - ȳ)²]

(r pătrat) vă spune proporția de varianță în Y explicată de X. Dacă r = 0,7, atunci R² = 0,49 — X explică 49% din variabilitatea în Y.

Spearman ρ (rho) face același lucru, dar folosește ranguri mai degrabă decât valori brute, făcându-l robust la valori aberante și adecvat pentru datele ordinale.

Amintiți-vă: Corelație ≠ cauzalitate. Vânzările de înghețată și ratele de înec sunt strâns corelate (ambele vârfuri vara), dar înghețata nu provoacă înec.

Dimensiunea efectului

Semnificația statistică vă spune dacă un efect este real; dimensiunea efectului vă spune cât de mare este. d-ul lui Cohen pentru compararea a două mijloace:

d = (μ₁ - μ₂) / σ_pooled
lui Cohen d Interpretare
0.2 Mic
0.5 Mediu
0.8 Mare

O valoare p foarte semnificativă cu d = 0,1 înseamnă că ați detectat un efect real, dar trivial de mic - posibil pentru că eșantionul dvs. a fost enorm. Raportați întotdeauna dimensiunile efectului alături de valorile p.

Testul Chi-Pătrat

Testul chi-pătrat (χ²) întreabă: „Numărurile observate diferă de ceea ce ne-am aștepta întâmplător?”

χ² = Σ (Observed - Expected)² / Expected

Folosiți-l atunci când datele dvs. sunt categorice - de exemplu, testați dacă un zar este corect sau dacă rezultatul tratamentului este independent de grupul de tratament.

Alegerea testului potrivit

Situaţie Test
Comparați o medie cu o valoare cunoscută Testul t cu un eșantion
Comparați două mijloace independente Test t cu două probe
Comparați două mijloace pereche Test t pereche
Compara 3+ mijloace ANOVA
Comparați 3+ mijloace (nenormale) Kruskal-Wallis
Asocierea între două variabile continue Corelația Pearson/Spearman
Comparați proporțiile categorice Chi-pătrat
Două grupuri, distribuție nenormală Mann-Whitney U

Greșeli frecvente

Peeking: Executarea testului în mod repetat și oprirea când p < 0,05 umflă dramatic eroarea de tip I. Planificați dimensiunea eșantionului înainte de a colecta date.

Comparații multiple: Executarea a 20 de teste independente la α = 0,05 va produce un fals pozitiv în medie. Utilizați corecția Bonferroni sau controlați rata de descoperire falsă.

Ignorarea ipotezelor: Cele mai multe teste presupun eșantionarea aleatorie, independența observațiilor și (pentru testele t) normalitate aproximativă. Încălcarea acestora subminează rezultatele.

Folosiți Z-Score Calculator, Sample Size Calculator, t-Test Calculator și Corelation Calculator pentru a lucra cu propriile date.