A statisztika a bizonytalanság nyelve – az az eszköz, amellyel következtetéseket vonhatunk le a hiányos információkból. Legyen szó közvélemény-kutatásról, klinikai vizsgálati eredmények értelmezéséről vagy saját adatainak elemzéséről, ezen alapvető fogalmak megértése sokkal kritikusabb olvasóvá tesz.

Leíró statisztika: Adatok összegzése

Az adatok elemzése előtt le kell írni azokat. A legfontosabb mérőszámok a centrális tendencia (hol van a középső?) és a szpred (mennyire változékonyak az adatok?).

Átlag, medián és mód

A számtani átlag az összeg osztva a számlálással. Ez a legismertebb átlag, de nagyon érzékeny a kiugró értékekre.

A medián a középső érték az adatok rendezésekor. Robusztusabb – egyetlen szélsőérték sem mozgatja meg sokat.

A mode a leggyakoribb érték. Hasznos kategorikus adatokhoz; kevésbé hasznos folyamatos méréseknél.

Adatkészlet Átlagos Középső Mód
2, 4, 4, 6, 8 4.8 4 4
2, 4, 4, 6, 100 23.2 4 4

Figyelje meg, hogy egy szélső érték (100) drámaian megváltoztatja az átlagot, de a mediánt érintetlenül hagyja. Ez az oka annak, hogy a lakásárak statisztikái a mediánt használják – egy maroknyi több millió font értékű kastély félrevezetővé tenné az átlagárakat.

Szórás és szórás

A variancia az átlagtól való átlagos négyzetes eltérést méri:

σ² = Σ(xi - x̄)² / n

A szórás a variancia négyzetgyöke – ugyanabban az egységben van, mint az eredeti adat, ami értelmezhetővé teszi:

σ = √[Σ(xi - x̄)² / n]

A 68-95-99.7 szabály normál eloszlású adatokhoz:

  • Az értékek 68%-a az átlag 1 szórása közé esik
  • 95% 2 szórással
  • 99,7% 3 szórással

Megjegyzés: A sokaság szórásához használjon n-et a nevezőben; használja az n−1-et a mintabecsléshez (ezt Bessel-korrekciónak nevezik, és korrigálja a mintáknál előforduló enyhe alulbecslést).

A normál eloszlás

A normál (Gauss-) eloszlás a természetben és a statisztikákban mindenhol megjelenő harang alakú görbe. Teljesen két paraméter írja le: az átlag (μ) és a szórás (σ).

A z-score bármely értéket "hány standard eltérés az átlagtól" konvertál:

z = (x - μ) / σ

Az 1,96-os z-pontszám a 97,5 százalékos értéknek felel meg – ez az érték, amely felett az eloszlásnak csak 2,5%-a van. Ez folyamatosan megjelenik a statisztikákban a konfidencia intervallumok miatt.

A Central Limit Theorem miatt a normális eloszlás olyan sokat számít: az eredeti sokaság alakjától függetlenül a mintaátlagok eloszlása ​​a minta méretének növekedésével megközelíti a normalitást. Ez az oka annak, hogy oly sok statisztikai teszt feltételezi a normalitást még akkor is, ha a nyers adatok nem normálisan oszlanak el.

Bizalmi intervallumok

A 95%-os konfidenciaintervallum nem jelenti azt, hogy "95%-os valószínűséggel a valódi érték ebben a tartományban van". Ez azt jelenti: "ha ezt a mintavételi folyamatot többször megismételnénk, a kiszámított intervallumok 95%-a tartalmazná a valódi értéket."

Egy n méretű mintából származó p arányhoz:

CI = p ± z × √(p(1-p)/n)

95%-os megbízhatóság esetén z = 1,96. 99%-ra z = 2,576.

A hibahatár csak a ± rész: z × √(p(1-p)/n). Ha egy közvélemény-kutatás „±3 százalékpontot” jelez, ez a hibahatár.

Hipotézisvizsgálat

Minden hipotézis teszt ugyanazt a struktúrát követi:

  1. H₀ (null hipotézis): Az alapértelmezett – általában "nincs hatás", "nincs különbség", "nincs kapcsolat"
  2. H₁ (alternatív hipotézis): Amire bizonyítékot próbál mutatni
  3. Tesztstatisztika: Az adatokból kiszámított szám, amely azt méri, milyen messze vannak az adatok H₀-től
  4. p-érték: Annak a valószínűsége, hogy egy eredményt legalább ekkora szélsőségben észlelünk, ha H₀ igaz

A p-érték magyarázata

A 0,03-as p-érték azt jelenti: "Ha valóban nem lenne hatás, akkor véletlenül csak az esetek 3%-ában látnánk ilyen szélsőséges adatokat." Ezt általában elég jelentősnek tekintik a H₀ elutasításához.

Mit p < A 0,05 NEM azt jelenti:

  • Ez nem jelenti azt, hogy 95%-os esély van arra, hogy a hatás valódi
  • Ez nem jelenti azt, hogy a hatás gyakorlatilag fontos
  • Ez nem jelenti azt, hogy H₀ hamis

I. és II. típusú hibák:

H₀ igaz H₀ hamis
Elutasítás H₀ I. típusú hiba (hamis pozitív) Helyes
A H₀ elutasítása sikertelen Helyes II. típusú hiba (hamis negatív)

α (szignifikancia szint) = I. típusú hibaarány, általában 0,05 β = II. típusú hibaarány; Teljesítmény = 1 − β, általában 0,80 a cél

A t-teszt

A t-próba a csoportok átlagait hasonlítja össze. A kétmintás t-statisztika a következő:

t = (x̄₁ - x̄₂) / √(s₁²/n₁ + s₂²/n₂)

Egy nagy |t| azt jelenti, hogy a csoportok távol vannak egymástól a csoporton belüli változékonysághoz képest. Hasonlítsa össze a megfelelő szabadsági fokokkal rendelkező kritikus értékkel (vagy számítsa ki a p-értéket).

Mikor érdemes használni: Két független csoport átlagának összehasonlítása, amikor az adatok megközelítőleg normálisak vagy n >gt; 30.

Korreláció

Pearson r két változó közötti lineáris kapcsolat erősségét méri:

  • r = +1: Tökéletes pozitív lineáris kapcsolat
  • r = 0: Nincs lineáris kapcsolat
  • r = −1: Tökéletes negatív lineáris kapcsolat
r = Σ(xi - x̄)(yi - ȳ) / √[Σ(xi - x̄)² × Σ(yi - ȳ)²]

(r négyzet) az Y varianciájának X-szel magyarázható arányát mutatja meg. Ha r = 0,7, akkor R² = 0,49 – X az Y variabilitásának 49%-át magyarázza.

Spearman ρ (rho) ugyanezt csinálja, de a nyers értékek helyett rangokat használ, így robusztussá teszi a kiugró értékeket, és megfelelő az ordinális adatokhoz.

Ne feledje: Korreláció ≠ okozati összefüggés. A jégkrémeladások és a vízbefulladás aránya szorosan összefügg (mindkettő nyáron tetőzik), de a fagylalt nem okoz fulladást.

Hatásméret

A statisztikai szignifikancia megmutatja, hogy egy hatás valódi-e; effektus mérete jelzi, mekkora. Cohen d két eszköz összehasonlítására:

d = (μ₁ - μ₂) / σ_pooled
Cohen d Értelmezés
0.2 Kicsi
0.5 Közepes
0.8 Nagy

A rendkívül szignifikáns p-érték d = 0,1 mellett azt jelenti, hogy valódi, de triviálisan kicsi hatást észlelt – valószínűleg azért, mert a mintája óriási volt. Mindig jelentse a hatásméreteket a p-értékek mellett.

Khi-négyzet teszt

A khi-négyzet (χ²) teszt azt kérdezi: "Eltérnek-e a megfigyelt számok attól, amit véletlenül várnánk?"

χ² = Σ (Observed - Expected)² / Expected

Használja, ha az adatok kategorikusak – például annak teszteléséhez, hogy a kocka tisztességes-e, vagy hogy a kezelés eredménye független-e a kezelési csoporttól.

A megfelelő teszt kiválasztása

Helyzet Teszt
Hasonlítsa össze az egyik átlagot egy ismert értékkel Egymintás t-próba
Hasonlítson össze két független eszközt Kétmintás t-próba
Hasonlítsa össze a két páros átlagot Páros t-próba
Hasonlítsa össze a 3+ átlagot ANOVA
3+ átlag összehasonlítása (nem normál) Kruskal-Wallis
Asszociáció két folytonos változó között Pearson/Spearman korreláció
Hasonlítsa össze a kategorikus arányokat Khi-négyzet
Két csoport, nem normál eloszlás Mann-Whitney U

Gyakori hibák

Megkukucskál: A teszt ismételt futtatása és leállítás, amikor p < 0,05 drámaian felfújja az I. típusú hibát. Az adatok gyűjtése előtt tervezze meg a minta méretét.

Többszörös összehasonlítás: 20 független teszt futtatása α = 0,05 értéknél átlagosan egy hamis pozitív eredményt ad. Használjon Bonferroni-korrekciót, vagy szabályozza a hamis felfedezési arányt.

A feltevések figyelmen kívül hagyása: A legtöbb teszt véletlenszerű mintavételt, a megfigyelések függetlenségét és (t-próbák esetén) közelítő normalitást feltételez. Ezek megszegése aláássa az eredményeket.

Használja a Z-Score Calculator, a Sample Size Calculator, t-Test Calculator és a [Correlation Calculator/relation/stat/sont. saját adatain keresztül.