A statisztika a bizonytalanság nyelve – az az eszköz, amellyel következtetéseket vonhatunk le a hiányos információkból. Legyen szó közvélemény-kutatásról, klinikai vizsgálati eredmények értelmezéséről vagy saját adatainak elemzéséről, ezen alapvető fogalmak megértése sokkal kritikusabb olvasóvá tesz.
Leíró statisztika: Adatok összegzése
Az adatok elemzése előtt le kell írni azokat. A legfontosabb mérőszámok a centrális tendencia (hol van a középső?) és a szpred (mennyire változékonyak az adatok?).
Átlag, medián és mód
A számtani átlag az összeg osztva a számlálással. Ez a legismertebb átlag, de nagyon érzékeny a kiugró értékekre.
A medián a középső érték az adatok rendezésekor. Robusztusabb – egyetlen szélsőérték sem mozgatja meg sokat.
A mode a leggyakoribb érték. Hasznos kategorikus adatokhoz; kevésbé hasznos folyamatos méréseknél.
| Adatkészlet | Átlagos | Középső | Mód |
|---|---|---|---|
| 2, 4, 4, 6, 8 | 4.8 | 4 | 4 |
| 2, 4, 4, 6, 100 | 23.2 | 4 | 4 |
Figyelje meg, hogy egy szélső érték (100) drámaian megváltoztatja az átlagot, de a mediánt érintetlenül hagyja. Ez az oka annak, hogy a lakásárak statisztikái a mediánt használják – egy maroknyi több millió font értékű kastély félrevezetővé tenné az átlagárakat.
Szórás és szórás
A variancia az átlagtól való átlagos négyzetes eltérést méri:
σ² = Σ(xi - x̄)² / n
A szórás a variancia négyzetgyöke – ugyanabban az egységben van, mint az eredeti adat, ami értelmezhetővé teszi:
σ = √[Σ(xi - x̄)² / n]
A 68-95-99.7 szabály normál eloszlású adatokhoz:
- Az értékek 68%-a az átlag 1 szórása közé esik
- 95% 2 szórással
- 99,7% 3 szórással
Megjegyzés: A sokaság szórásához használjon n-et a nevezőben; használja az n−1-et a mintabecsléshez (ezt Bessel-korrekciónak nevezik, és korrigálja a mintáknál előforduló enyhe alulbecslést).
A normál eloszlás
A normál (Gauss-) eloszlás a természetben és a statisztikákban mindenhol megjelenő harang alakú görbe. Teljesen két paraméter írja le: az átlag (μ) és a szórás (σ).
A z-score bármely értéket "hány standard eltérés az átlagtól" konvertál:
z = (x - μ) / σ
Az 1,96-os z-pontszám a 97,5 százalékos értéknek felel meg – ez az érték, amely felett az eloszlásnak csak 2,5%-a van. Ez folyamatosan megjelenik a statisztikákban a konfidencia intervallumok miatt.
A Central Limit Theorem miatt a normális eloszlás olyan sokat számít: az eredeti sokaság alakjától függetlenül a mintaátlagok eloszlása a minta méretének növekedésével megközelíti a normalitást. Ez az oka annak, hogy oly sok statisztikai teszt feltételezi a normalitást még akkor is, ha a nyers adatok nem normálisan oszlanak el.
Bizalmi intervallumok
A 95%-os konfidenciaintervallum nem jelenti azt, hogy "95%-os valószínűséggel a valódi érték ebben a tartományban van". Ez azt jelenti: "ha ezt a mintavételi folyamatot többször megismételnénk, a kiszámított intervallumok 95%-a tartalmazná a valódi értéket."
Egy n méretű mintából származó p arányhoz:
CI = p ± z × √(p(1-p)/n)
95%-os megbízhatóság esetén z = 1,96. 99%-ra z = 2,576.
A hibahatár csak a ± rész: z × √(p(1-p)/n). Ha egy közvélemény-kutatás „±3 százalékpontot” jelez, ez a hibahatár.
Hipotézisvizsgálat
Minden hipotézis teszt ugyanazt a struktúrát követi:
- H₀ (null hipotézis): Az alapértelmezett – általában "nincs hatás", "nincs különbség", "nincs kapcsolat"
- H₁ (alternatív hipotézis): Amire bizonyítékot próbál mutatni
- Tesztstatisztika: Az adatokból kiszámított szám, amely azt méri, milyen messze vannak az adatok H₀-től
- p-érték: Annak a valószínűsége, hogy egy eredményt legalább ekkora szélsőségben észlelünk, ha H₀ igaz
A p-érték magyarázata
A 0,03-as p-érték azt jelenti: "Ha valóban nem lenne hatás, akkor véletlenül csak az esetek 3%-ában látnánk ilyen szélsőséges adatokat." Ezt általában elég jelentősnek tekintik a H₀ elutasításához.
Mit p < A 0,05 NEM azt jelenti:
- Ez nem jelenti azt, hogy 95%-os esély van arra, hogy a hatás valódi
- Ez nem jelenti azt, hogy a hatás gyakorlatilag fontos
- Ez nem jelenti azt, hogy H₀ hamis
I. és II. típusú hibák:
| H₀ igaz | H₀ hamis | |
|---|---|---|
| Elutasítás H₀ | I. típusú hiba (hamis pozitív) | Helyes |
| A H₀ elutasítása sikertelen | Helyes | II. típusú hiba (hamis negatív) |
α (szignifikancia szint) = I. típusú hibaarány, általában 0,05 β = II. típusú hibaarány; Teljesítmény = 1 − β, általában 0,80 a cél
A t-teszt
A t-próba a csoportok átlagait hasonlítja össze. A kétmintás t-statisztika a következő:
t = (x̄₁ - x̄₂) / √(s₁²/n₁ + s₂²/n₂)
Egy nagy |t| azt jelenti, hogy a csoportok távol vannak egymástól a csoporton belüli változékonysághoz képest. Hasonlítsa össze a megfelelő szabadsági fokokkal rendelkező kritikus értékkel (vagy számítsa ki a p-értéket).
Mikor érdemes használni: Két független csoport átlagának összehasonlítása, amikor az adatok megközelítőleg normálisak vagy n >gt; 30.
Korreláció
Pearson r két változó közötti lineáris kapcsolat erősségét méri:
- r = +1: Tökéletes pozitív lineáris kapcsolat
- r = 0: Nincs lineáris kapcsolat
- r = −1: Tökéletes negatív lineáris kapcsolat
r = Σ(xi - x̄)(yi - ȳ) / √[Σ(xi - x̄)² × Σ(yi - ȳ)²]
R² (r négyzet) az Y varianciájának X-szel magyarázható arányát mutatja meg. Ha r = 0,7, akkor R² = 0,49 – X az Y variabilitásának 49%-át magyarázza.
Spearman ρ (rho) ugyanezt csinálja, de a nyers értékek helyett rangokat használ, így robusztussá teszi a kiugró értékeket, és megfelelő az ordinális adatokhoz.
Ne feledje: Korreláció ≠ okozati összefüggés. A jégkrémeladások és a vízbefulladás aránya szorosan összefügg (mindkettő nyáron tetőzik), de a fagylalt nem okoz fulladást.
Hatásméret
A statisztikai szignifikancia megmutatja, hogy egy hatás valódi-e; effektus mérete jelzi, mekkora. Cohen d két eszköz összehasonlítására:
d = (μ₁ - μ₂) / σ_pooled
| Cohen d | Értelmezés |
|---|---|
| 0.2 | Kicsi |
| 0.5 | Közepes |
| 0.8 | Nagy |
A rendkívül szignifikáns p-érték d = 0,1 mellett azt jelenti, hogy valódi, de triviálisan kicsi hatást észlelt – valószínűleg azért, mert a mintája óriási volt. Mindig jelentse a hatásméreteket a p-értékek mellett.
Khi-négyzet teszt
A khi-négyzet (χ²) teszt azt kérdezi: "Eltérnek-e a megfigyelt számok attól, amit véletlenül várnánk?"
χ² = Σ (Observed - Expected)² / Expected
Használja, ha az adatok kategorikusak – például annak teszteléséhez, hogy a kocka tisztességes-e, vagy hogy a kezelés eredménye független-e a kezelési csoporttól.
A megfelelő teszt kiválasztása
| Helyzet | Teszt |
|---|---|
| Hasonlítsa össze az egyik átlagot egy ismert értékkel | Egymintás t-próba |
| Hasonlítson össze két független eszközt | Kétmintás t-próba |
| Hasonlítsa össze a két páros átlagot | Páros t-próba |
| Hasonlítsa össze a 3+ átlagot | ANOVA |
| 3+ átlag összehasonlítása (nem normál) | Kruskal-Wallis |
| Asszociáció két folytonos változó között | Pearson/Spearman korreláció |
| Hasonlítsa össze a kategorikus arányokat | Khi-négyzet |
| Két csoport, nem normál eloszlás | Mann-Whitney U |
Gyakori hibák
Megkukucskál: A teszt ismételt futtatása és leállítás, amikor p < 0,05 drámaian felfújja az I. típusú hibát. Az adatok gyűjtése előtt tervezze meg a minta méretét.
Többszörös összehasonlítás: 20 független teszt futtatása α = 0,05 értéknél átlagosan egy hamis pozitív eredményt ad. Használjon Bonferroni-korrekciót, vagy szabályozza a hamis felfedezési arányt.
A feltevések figyelmen kívül hagyása: A legtöbb teszt véletlenszerű mintavételt, a megfigyelések függetlenségét és (t-próbák esetén) közelítő normalitást feltételez. Ezek megszegése aláássa az eredményeket.
Használja a Z-Score Calculator, a Sample Size Calculator, t-Test Calculator és a [Correlation Calculator/relation/stat/sont. saját adatain keresztül.