Statistica este limbajul incertitudinii - instrumentul care ne permite să tragem concluzii din informații incomplete. Indiferent dacă citiți un sondaj de știri, interpretați rezultatul unui studiu clinic sau analizați propriile date, înțelegerea acestor concepte de bază vă va face un cititor mult mai critic.
Statistici descriptive: Rezumarea datelor
Înainte de a putea analiza datele, trebuie să le descrieți. Măsurile cheie sunt tendința centrală (unde este mijlocul?) și spread (cât de variabile sunt datele?).
Medie, Mediană și Mod
Media aritmetică este suma împărțită la număr. Este cea mai cunoscută medie, dar este foarte sensibilă la valori aberante.
mediana este valoarea de mijloc atunci când datele sunt sortate. Este mai robust - o singură valoare extremă nu o mișcă prea mult.
Modul este cea mai frecventă valoare. Util pentru date categorice; mai puțin util pentru măsurători continue.
| Setul de date | Medie | Median | Modul |
|---|---|---|---|
| 2, 4, 4, 6, 8 | 4.8 | 4 | 4 |
| 2, 4, 4, 6, 100 | 23.2 | 4 | 4 |
Observați cum o valoare extremă (100) modifică dramatic media, dar lasă mediana neatinsă. Acesta este motivul pentru care statisticile prețurilor caselor folosesc mediana - o mână de conace de mai multe milioane de lire sterline ar face prețurile medii înșelătoare.
Abaterea standard și variația
Varianta măsoară abaterea medie pătrată de la medie:
σ² = Σ(xi - x̄)² / n
Abaterea standard este rădăcina pătrată a varianței - este în aceleași unități ca și datele originale, ceea ce o face interpretabilă:
σ = √[Σ(xi - x̄)² / n]
Regula 68-95-99.7 pentru date distribuite normal:
- 68% dintre valori se încadrează la o abatere standard a mediei
- 95% în 2 abateri standard
- 99,7% în 3 abateri standard
Notă: Folosiți n în numitor pentru abaterea standard a populației; utilizați n−1 pentru o estimare a eșantionului (aceasta se numește corecția lui Bessel și corectează ușoară subestimare care apare cu eșantioane).
Distribuția normală
Distribuția normală (Gauss) este curba în formă de clopot care apare peste tot în natură și statistică. Este complet descris de doi parametri: medie (μ) și abatere standard (σ).
Scorul z convertește orice valoare în „câte abateri standard de la medie”:
z = (x - μ) / σ
Un scor z de 1,96 corespunde percentilei 97,5 - valoarea peste care se află doar 2,5% din distribuție. Acest lucru apare constant în statistici din cauza intervalelor de încredere.
Teorema limitei centrale este motivul pentru care distribuția normală contează atât de mult: indiferent de forma populației inițiale, distribuția mediilor eșantionului se apropie de normalitate pe măsură ce dimensiunea eșantionului crește. Acesta este motivul pentru care atât de multe teste statistice presupun normalitate chiar și atunci când datele brute nu sunt distribuite în mod normal.
Intervale de încredere
Un interval de încredere de 95% nu înseamnă „există o probabilitate de 95% ca valoarea adevărată să fie în acest interval”. Înseamnă: „dacă am repeta acest proces de eșantionare de multe ori, 95% din intervalele pe care le-am calculat ar conține valoarea adevărată”.
Pentru o proporție p dintr-un eșantion de mărimea n:
CI = p ± z × √(p(1-p)/n)
Pentru o încredere de 95%, z = 1,96. Pentru 99%, z = 2,576.
Marja de eroare este doar partea ±: z × √(p(1-p)/n). Când un sondaj raportează „±3 puncte procentuale”, aceasta este marja de eroare.
Testarea ipotezelor
Fiecare test de ipoteză urmează aceeași structură:
- H₀ (ipoteză nulă): Valoarea implicită — de obicei „fără efect”, „fără diferență”, „fără relație”
- H₁ (ipoteză alternativă): Pentru ce încerci să arăți dovezi
- Test statistic: Un număr calculat din date care măsoară cât de departe de H₀ sunt datele
- valoare-p: Probabilitatea de a observa un rezultat cel puțin această extremă dacă H₀ ar fi adevărată
Valoarea p explicată
O valoare p de 0,03 înseamnă: „Dacă nu ar exista cu adevărat niciun efect, am vedea date atât de extreme întâmplător doar în 3% din timp”. Acest lucru este de obicei considerat suficient de semnificativ pentru a respinge H₀.
Ce p < 0,05 NU înseamnă:
- Nu înseamnă că există o șansă de 95% ca efectul să fie real
- Nu înseamnă că efectul este practic important
- Nu înseamnă că H₀ este fals
Erori de tip I și de tip II:
| H₀ este adevărat | H₀ este fals | |
|---|---|---|
| Respinge H₀ | Eroare de tip I (fals pozitiv) | Corecta |
| Eșuarea respingerii H₀ | Corecta | Eroare de tip II (fals negativ) |
α (nivel de semnificație) = rata de eroare de tip I, de obicei 0,05 β = rata de eroare de tip II; Putere = 1 − β, de obicei vizată la 0,80
Testul t
Testul t compară mediile între grupuri. Statistica t cu două eșantioane este:
t = (x̄₁ - x̄₂) / √(s₁²/n₁ + s₂²/n₂)
Un |t| mare înseamnă că grupurile sunt îndepărtate în raport cu variabilitatea în interiorul grupului. Comparați cu o valoare critică (sau calculați valoarea p) cu grade adecvate de libertate.
Când să-l utilizați: Comparând două medii din grupuri independente, când datele sunt aproximativ normale sau n > 30.
Corelație
Rul lui Pearson măsoară puterea relației liniare dintre două variabile:
- r = +1: Relație liniară pozitivă perfectă
- r = 0: Nicio relație liniară
- r = −1: Relație liniară negativă perfectă
r = Σ(xi - x̄)(yi - ȳ) / √[Σ(xi - x̄)² × Σ(yi - ȳ)²]
R² (r pătrat) vă spune proporția de varianță în Y explicată de X. Dacă r = 0,7, atunci R² = 0,49 — X explică 49% din variabilitatea în Y.
Spearman ρ (rho) face același lucru, dar folosește ranguri mai degrabă decât valori brute, făcându-l robust la valori aberante și adecvat pentru datele ordinale.
Amintiți-vă: Corelație ≠ cauzalitate. Vânzările de înghețată și ratele de înec sunt strâns corelate (ambele vârfuri vara), dar înghețata nu provoacă înec.
Dimensiunea efectului
Semnificația statistică vă spune dacă un efect este real; dimensiunea efectului vă spune cât de mare este. d-ul lui Cohen pentru compararea a două mijloace:
d = (μ₁ - μ₂) / σ_pooled
| lui Cohen d | Interpretare |
|---|---|
| 0.2 | Mic |
| 0.5 | Mediu |
| 0.8 | Mare |
O valoare p foarte semnificativă cu d = 0,1 înseamnă că ați detectat un efect real, dar trivial de mic - posibil pentru că eșantionul dvs. a fost enorm. Raportați întotdeauna dimensiunile efectului alături de valorile p.
Testul Chi-Pătrat
Testul chi-pătrat (χ²) întreabă: „Numărurile observate diferă de ceea ce ne-am aștepta întâmplător?”
χ² = Σ (Observed - Expected)² / Expected
Folosiți-l atunci când datele dvs. sunt categorice - de exemplu, testați dacă un zar este corect sau dacă rezultatul tratamentului este independent de grupul de tratament.
Alegerea testului potrivit
| Situaţie | Test |
|---|---|
| Comparați o medie cu o valoare cunoscută | Testul t cu un eșantion |
| Comparați două mijloace independente | Test t cu două probe |
| Comparați două mijloace pereche | Test t pereche |
| Compara 3+ mijloace | ANOVA |
| Comparați 3+ mijloace (nenormale) | Kruskal-Wallis |
| Asocierea între două variabile continue | Corelația Pearson/Spearman |
| Comparați proporțiile categorice | Chi-pătrat |
| Două grupuri, distribuție nenormală | Mann-Whitney U |
Greșeli frecvente
Peeking: Executarea testului în mod repetat și oprirea când p < 0,05 umflă dramatic eroarea de tip I. Planificați dimensiunea eșantionului înainte de a colecta date.
Comparații multiple: Executarea a 20 de teste independente la α = 0,05 va produce un fals pozitiv în medie. Utilizați corecția Bonferroni sau controlați rata de descoperire falsă.
Ignorarea ipotezelor: Cele mai multe teste presupun eșantionarea aleatorie, independența observațiilor și (pentru testele t) normalitate aproximativă. Încălcarea acestora subminează rezultatele.
Folosiți Z-Score Calculator, Sample Size Calculator, t-Test Calculator și Corelation Calculator pentru a lucra cu propriile date.