Les statistiques sont le langage de l’incertitude : l’outil qui nous permet de tirer des conclusions à partir d’informations incomplètes. Que vous lisiez un sondage d'actualité, interprétiez les résultats d'un essai clinique ou analysiez vos propres données, la compréhension de ces concepts fondamentaux fera de vous un lecteur beaucoup plus critique.

Statistiques descriptives : résumer les données

Avant de pouvoir analyser des données, vous devez les décrire. Les mesures clés sont la tendance centrale (où est le milieu ?) et la propagation (dans quelle mesure les données sont-elles variables ?).

Moyenne, médiane et mode

La moyenne arithmétique est la somme divisée par le nombre. Il s'agit de la moyenne la plus connue, mais elle est très sensible aux valeurs aberrantes.

La médiane est la valeur médiane lorsque les données sont triées. C'est plus robuste : une seule valeur extrême ne le fait pas beaucoup bouger.

Le mode est la valeur la plus fréquente. Utile pour les données catégorielles ; moins utile pour les mesures continues.

Ensemble de données Signifier Médian Mode
2, 4, 4, 6, 8 4.8 4 4
2, 4, 4, 6, 100 23.2 4 4

Remarquez comment une valeur extrême (100) modifie considérablement la moyenne mais laisse la médiane intacte. C’est pourquoi les statistiques des prix de l’immobilier utilisent la médiane : une poignée de demeures valant plusieurs millions de livres rendrait les prix moyens trompeurs.

Écart type et variance

La variance mesure l'écart quadratique moyen par rapport à la moyenne :

σ² = Σ(xi - x̄)² / n

L'écart type est la racine carrée de la variance : il est exprimé dans les mêmes unités que les données d'origine, ce qui le rend interprétable :

σ = √[Σ(xi - x̄)² / n]

La règle 68-95-99.7 pour les données normalement distribuées :

  • 68 % des valeurs se situent à moins de 1 écart type de la moyenne
  • 95% à 2 écarts-types
  • 99,7% dans 3 écarts types

Remarque : Utilisez n dans le dénominateur pour l'écart type de la population ; utilisez n−1 pour une estimation d'échantillon (c'est ce qu'on appelle la correction de Bessel et corrige la légère sous-estimation qui se produit avec les échantillons).

La distribution normale

La distribution normale (gaussienne) est la courbe en forme de cloche qui apparaît partout dans la nature et dans les statistiques. Il est entièrement décrit par deux paramètres : la moyenne (μ) et l'écart type (σ).

Le z-score convertit n'importe quelle valeur en « combien d'écarts types par rapport à la moyenne » :

z = (x - μ) / σ

Un score z de 1,96 correspond au 97,5e percentile – la valeur au-dessus de laquelle se situe seulement 2,5 % de la distribution. Cela apparaît constamment dans les statistiques en raison des intervalles de confiance.

Le théorème central limite explique pourquoi la distribution normale est si importante : quelle que soit la forme de la population d'origine, la distribution des moyennes de l'échantillon se rapproche de la normalité à mesure que la taille de l'échantillon augmente. C'est pourquoi tant de tests statistiques supposent la normalité même lorsque les données brutes ne sont pas normalement distribuées.

Intervalles de confiance

Un intervalle de confiance de 95 % ne signifie pas « qu'il y a une probabilité de 95 % que la vraie valeur se situe dans cette plage ». Cela signifie : « si nous répétions ce processus d'échantillonnage plusieurs fois, 95 % des intervalles que nous avons calculés contiendraient la vraie valeur ».

Pour une proportion p d’un échantillon de taille n :

CI = p ± z × √(p(1-p)/n)

Pour un niveau de confiance de 95 %, z = 1,96. Pour 99%, z = 2,576.

La marge d'erreur n'est que la partie ± : z × √(p(1-p)/n). Lorsqu’un sondage rapporte « ± 3 points de pourcentage », c’est la marge d’erreur.

Test d'hypothèse

Chaque test d'hypothèse suit la même structure :

  1. H₀ (hypothèse nulle) : La valeur par défaut — généralement « aucun effet », « aucune différence », « aucune relation »
  2. H₁ (hypothèse alternative) : Ce dont vous essayez de montrer la preuve
  3. Statistique de test : Un nombre calculé à partir des données qui mesure à quelle distance de H₀ se trouvent les données
  4. Valeur p : La probabilité d'observer un résultat au moins cet extrême si H₀ était vrai

La valeur p expliquée

Une valeur p de 0,03 signifie : « S’il n’y avait vraiment aucun effet, nous verrions des données aussi extrêmes par hasard seulement 3 % du temps. » Ceci est généralement considéré comme suffisamment important pour rejeter H₀.

Quel p &Lt ; 0,05 ne signifie PAS :

  • Cela ne signifie pas qu'il y a 95 % de chances que l'effet soit réel
  • Cela ne veut pas dire que l'effet est important en pratique
  • Cela ne veut pas dire que H₀ est faux

Erreurs de type I et de type II :

H₀ est vrai H₀ est faux
Rejeter H₀ Erreur de type I (faux positif) Correct
Échec du rejet de H₀ Correct Erreur de type II (faux négatif)

α (niveau de signification) = taux d'erreur de type I, généralement 0,05 β = taux d'erreur de type II ; Puissance = 1 − β, généralement ciblée sur 0,80

Le test t

Le test t compare les moyennes entre les groupes. La statistique t à deux échantillons est :

t = (x̄₁ - x̄₂) / √(s₁²/n₁ + s₂²/n₂)

Un grand |t| signifie que les groupes sont éloignés les uns des autres par rapport à la variabilité intra-groupe. Comparez à une valeur critique (ou calculez la valeur p) avec les degrés de liberté appropriés.

Quand l'utiliser : Comparaison de deux moyennes de groupes indépendants, lorsque les données sont à peu près normales ou n > 30.

Corrélation

Le r de Pearson mesure la force de la relation linéaire entre deux variables :

  • r = +1 : Relation linéaire positive parfaite
  • r = 0 : Pas de relation linéaire
  • r = −1 : Relation linéaire négative parfaite
r = Σ(xi - x̄)(yi - ȳ) / √[Σ(xi - x̄)² × Σ(yi - ȳ)²]

(r au carré) vous indique la proportion de variance de Y expliquée par X. Si r = 0,7, alors R² = 0,49 — X explique 49 % de la variabilité de Y.

Le ρ (rho) de Spearman fait la même chose mais utilise des classements plutôt que des valeurs brutes, ce qui le rend robuste aux valeurs aberrantes et approprié pour les données ordinales.

Rappelez-vous : Corrélation ≠ causalité. Les ventes de glaces et les taux de noyade sont fortement corrélés (tous deux culminent en été), mais la crème glacée ne provoque pas de noyade.

Taille de l'effet

La signification statistique vous indique si un effet est réel ; taille de l'effet vous indique sa taille. Le d de Cohen pour comparer deux moyennes :

d = (μ₁ - μ₂) / σ_pooled
Cohen's d Interprétation
0.2 Petit
0.5 Moyen
0.8 Grand

Une valeur p très significative avec d = 0,1 signifie que vous avez détecté un effet réel mais trivial – peut-être parce que votre échantillon était énorme. Signalez toujours les tailles d’effet avec les valeurs p.

Test du Chi carré

Le test du chi carré (χ²) pose la question : « Les chiffres observés diffèrent-ils de ce à quoi nous nous attendrions par hasard ? »

χ² = Σ (Observed - Expected)² / Expected

Utilisez-le lorsque vos données sont catégoriques, par exemple pour vérifier si un résultat est équitable ou si le résultat du traitement est indépendant du groupe de traitement.

Choisir le bon test

Situation Test
Comparer une moyenne à une valeur connue Test t sur un échantillon
Comparez deux moyennes indépendantes Test t à deux échantillons
Comparez deux moyennes appariées Test t apparié
Comparez 3+ moyennes ANOVA
Comparez plus de 3 moyennes (anormal) Kruskal-Wallis
Association entre deux variables continues Corrélation Pearson/Spearman
Comparez les proportions catégorielles Chi carré
Deux groupes, distribution non normale Université Mann-Whitney

Erreurs courantes

Jeter un coup d'œil : Exécuter votre test à plusieurs reprises et s'arrêter lorsque p < 0,05 gonfle considérablement l’erreur de type I. Planifiez la taille de votre échantillon avant de collecter des données.

Comparaisons multiples : L'exécution de 20 tests indépendants à α = 0,05 produira en moyenne un faux positif. Utilisez la correction Bonferroni ou contrôlez le taux de fausses découvertes.

Ignorer les hypothèses : La plupart des tests supposent un échantillonnage aléatoire, l'indépendance des observations et (pour les tests t) une normalité approximative. Les violer compromet les résultats.

Utilisez notre Calculateur de score Z, Calculateur de taille d'échantillon, Calculateur de test t et Calculateur de corrélation pour travailler sur vos propres données.