Statistik är osäkerhetens språk – verktyget som låter oss dra slutsatser från ofullständig information. Oavsett om du läser en nyhetsundersökning, tolkar ett kliniskt prövningsresultat eller analyserar dina egna data, kommer förståelsen av dessa kärnkoncept att göra dig till en mycket mer kritisk läsare.
Beskrivande statistik: Sammanfatta data
Innan du kan analysera data måste du beskriva den. Nyckelmåtten är central tendens (var är mitten?) och spridning (hur varierande är data?).
Medelvärde, median och läge
Det aritmetiska medelvärdet är summan dividerat med antalet. Det är det mest kända genomsnittet men är mycket känsligt för extremvärden.
medianen är mittvärdet när data sorteras. Det är mer robust – ett enda extremvärde påverkar det inte mycket.
läge är det vanligaste värdet. Användbar för kategoriska data; mindre användbar för kontinuerliga mätningar.
| Datauppsättning | Betyda | Median | Läge |
|---|---|---|---|
| 2, 4, 4, 6, 8 | 4.8 | 4 | 4 |
| 2, 4, 4, 6, 100 | 23.2 | 4 | 4 |
Lägg märke till hur ett extremvärde (100) ändrar medelvärdet dramatiskt men lämnar medianen orörd. Det är därför husprisstatistiken använder medianen - en handfull herrgårdar på flera miljoner pund skulle göra genomsnittspriserna missvisande.
Standardavvikelse och varians
Varians mäter den genomsnittliga kvadratiska avvikelsen från medelvärdet:
σ² = Σ(xi - x̄)² / n
Standardavvikelse är kvadratroten av variansen - den är i samma enheter som den ursprungliga data, vilket gör den tolkbar:
σ = √[Σ(xi - x̄)² / n]
68-95-99.7-regeln för normalfördelad data:
- 68 % av värdena faller inom 1 standardavvikelse från medelvärdet
- 95 % inom 2 standardavvikelser
- 99,7 % inom 3 standardavvikelser
Obs: Använd n i nämnaren för populationens standardavvikelse; använd n−1 för en provuppskattning (detta kallas Bessels korrigering och korrigerar för den lätta underskattning som inträffar med prover).
Normalfördelningen
Normalfördelningen (Gauss) är den klockformade kurvan som förekommer överallt i naturen och statistiken. Det beskrivs fullständigt av två parametrar: medelvärde (μ) och standardavvikelse (σ).
z-poängen konverterar alla värden till "hur många standardavvikelser från medelvärdet":
z = (x - μ) / σ
Ett z-värde på 1,96 motsvarar den 97,5:e percentilen — värdet över vilket endast 2,5 % av fördelningen ligger. Detta visas ständigt i statistiken på grund av konfidensintervall.
Centralgränssatsen är anledningen till att normalfördelningen spelar så stor roll: oavsett formen på den ursprungliga populationen närmar sig fördelningen av urvalsmedel normalitet när urvalsstorleken ökar. Det är därför så många statistiska tester antar normalitet även när rådata inte är normalt fördelade.
Konfidensintervall
Ett konfidensintervall på 95 % betyder inte "det är 95 % sannolikhet att det sanna värdet ligger inom det här intervallet." Det betyder: "om vi upprepade denna samplingsprocess många gånger, skulle 95 % av intervallen vi beräknade innehålla det sanna värdet."
För en proportion p från ett urval av storlek n:
CI = p ± z × √(p(1-p)/n)
För 95 % konfidens, z = 1,96. För 99 % är z = 2,576.
Felmarginalen är bara ±-delen: z × √(p(1-p)/n). När en undersökning rapporterar "±3 procentenheter" är detta felmarginalen.
Hypotestestning
Varje hypotestest följer samma struktur:
- H₀ (nollhypotes): Standard — vanligtvis "ingen effekt", "ingen skillnad", "ingen relation"
- H₁ (alternativ hypotes): Vad du försöker visa bevis för
- Teststatistik: Ett tal beräknat från data som mäter hur långt från H₀ data är
- p-värde: Sannolikheten att observera ett resultat som är åtminstone denna extrema om H₀ var sant
P-värdet förklarat
Ett p-värde på 0,03 betyder: "Om det verkligen inte fanns någon effekt, skulle vi av en slump bara se denna extrema data 3% av gångerna." Detta anses vanligtvis tillräckligt signifikant för att förkasta H0.
Vad p < 0,05 betyder INTE: – Det betyder inte att det är 95 % chans att effekten är verklig – Det betyder inte att effekten är praktiskt viktig
- Det betyder inte att H₀ är falskt
Typ I och Typ II-fel:
| H₀ är sant | H₀ är falskt | |
|---|---|---|
| Avvisa H₀ | Typ I-fel (falskt positivt) | Rätta |
| ** Misslyckas med att avvisa H₀** | Rätta | Typ II-fel (falskt negativt) |
α (signifikansnivå) = Typ I felfrekvens, vanligtvis 0,05 β = Typ II felfrekvens; Effekt = 1 − β, vanligtvis inriktad på 0,80
t-testet
T-testet jämför medelvärden mellan grupper. T-statistiken med två urval är:
t = (x̄₁ - x̄₂) / √(s₁²/n₁ + s₂²/n₂)
En stor |t| betyder att grupperna är långt ifrån varandra i förhållande till variationer inom gruppen. Jämför med ett kritiskt värde (eller beräkna p-värdet) med lämpliga frihetsgrader.
När det ska användas: Jämför två medelvärden från oberoende grupper, när data är ungefär normala eller n > 30.
Korrelation
Pearsons r mäter styrkan i linjärt samband mellan två variabler:
- r = +1: Perfekt positivt linjärt samband
- r = 0: Inget linjärt samband
- r = −1: Perfekt negativt linjärt samband
r = Σ(xi - x̄)(yi - ȳ) / √[Σ(xi - x̄)² × Σ(yi - ȳ)²]
R² (r i kvadrat) anger andelen varians i Y som förklaras av X. Om r = 0,7 så förklarar R² = 0,49 — X förklarar 49 % av variabiliteten i Y.
Spearmans ρ (rho) gör samma sak men använder rankningar snarare än råvärden, vilket gör den robust mot extremvärden och lämplig för ordningsdata.
Kom ihåg: Korrelation ≠ orsakssamband. Glassförsäljning och drunkningstal är starkt korrelerade (båda toppar på sommaren), men glass orsakar inte drunkning.
Effektstorlek
Statistisk signifikans talar om för dig om en effekt är verklig; effektstorlek berättar hur stor den är. Cohens d för att jämföra två sätt:
d = (μ₁ - μ₂) / σ_pooled
| Cohens d | Tolkning |
|---|---|
| 0.2 | Små |
| 0.5 | Medium |
| 0.8 | Stor |
Ett mycket signifikant p-värde med d = 0,1 betyder att du har upptäckt en verklig men trivialt liten effekt - möjligen för att ditt prov var enormt. Rapportera alltid effektstorlekar tillsammans med p-värden.
Chi-Square Test
Chi-kvadrattestet (χ²) frågar: "Skiller sig de observerade räkningarna från vad vi av en slump skulle förvänta oss?"
χ² = Σ (Observed - Expected)² / Expected
Använd den när din data är kategorisk - till exempel för att testa om en tärning är rättvis eller om behandlingsresultatet är oberoende av behandlingsgrupp.
Att välja rätt test
| Situation | Testa |
|---|---|
| Jämför ett medelvärde med ett känt värde | Ett prov t-test |
| Jämför två oberoende medel | Två-prov t-test |
| Jämför två parade medel | Parat t-test |
| Jämför 3+ medelvärden | ANOVA |
| Jämför 3+ medelvärden (icke-normalt) | Kruskal-Wallis |
| Samband mellan två kontinuerliga variabler | Pearson/Spearman korrelation |
| Jämför kategoriska proportioner | Chi-kvadrat |
| Två grupper, icke-normalfördelning | Mann-Whitney U |
Vanliga misstag
Titta: Kör ditt test upprepade gånger och stoppar när p < 0,05 blåser upp typ I-felet dramatiskt. Planera din urvalsstorlek innan du samlar in data.
Flera jämförelser: Att köra 20 oberoende tester vid α = 0,05 kommer att producera ett falskt positivt i genomsnitt. Använd Bonferroni-korrigering eller kontrollera antalet falska upptäckter.
Ignorera antaganden: De flesta tester förutsätter slumpmässigt urval, oberoende av observationer och (för t-tester) ungefärlig normalitet. Att bryta mot dessa undergräver resultaten.
Använd vår Z-Score-kalkylator, Sample Size Calculator, t-Test Calculator och Korrelationskalkylator för att arbeta igenom din egen pearstat.