Σ
SDCalc
IntermédiaireApplications·12 min

d de Cohen et calculs de taille de l’effet

Maîtrisez les calculs de taille de l’effet incluant le d de Cohen, le g de Hedges et le delta de Glass. Apprenez à mesurer la signification pratique au-delà des valeurs p en utilisant l’écart type.

Au-delà de la signification statistique : comprendre la taille de l’effet

La taille de l’effet mesure l’ampleur d’une différence ou d’une relation, indépendamment de la taille de l’échantillon. Alors que les valeurs p vous disent si un effet est statistiquement significatif, les tailles d’effet vous disent à quel point cet effet est pratiquement important. Cette distinction est cruciale pour la prise de décisions fondées sur les données probantes en recherche, en médecine, en éducation et en affaires.

Considérez un essai pharmaceutique où un nouveau médicament montre une amélioration statistiquement significative (p < 0,001) par rapport au placebo. Sans la taille de l’effet, vous ne savez pas si l’amélioration est de 0,1 % ou de 50 %. La taille de l’effet fournit ce contexte crucial, aidant les parties prenantes à déterminer si l’effet vaut le coût, les effets secondaires ou l’effort de mise en œuvre.

La mesure de taille d’effet la plus courante pour comparer deux groupes est le d de Cohen, qui exprime la différence entre les moyennes en unités d’écart type. Cette standardisation permet la comparaison entre différentes études et échelles de mesure.

Pourquoi la taille de l’effet est importante

La signification statistique est fortement influencée par la taille de l’échantillon. Avec un échantillon suffisamment grand, même des différences triviales deviennent « significatives ». Inversement, des effets importants peuvent ne pas atteindre la signification dans de petits échantillons. La taille de l’effet résout ce problème en fournissant une mesure indépendante de la taille de l’échantillon.

Le piège de la signification

Une étude avec n=10 000 pourrait montrer p < 0,001 pour une différence de 0,5 point sur une échelle de 100 points. C’est statistiquement significatif mais pratiquement sans importance (d ≈ 0,05). Rapportez toujours les tailles d’effet aux côtés des valeurs p.

Raisons principales d’utiliser la taille de l’effet :

  • Méta-analyse : Les tailles d’effet peuvent être combinées entre études pour estimer les effets globaux
  • Analyse de puissance : Nécessaire pour calculer les tailles d’échantillons requises pour les études futures
  • Décisions pratiques : Aide à déterminer si les interventions valent la peine d’être mises en œuvre
  • Réplication : Fournit une cible que les études de réplication doivent atteindre

d de Cohen : la mesure standard de taille d’effet

Le d de Cohen exprime la différence entre deux moyennes de groupes en unités d’écart type combiné :

d de Cohen

d = (M₁ - M₂) / sp

Où M₁ et M₂ sont les moyennes des groupes, et sp est l’écart type combiné calculé comme :

Écart type combiné

sp = √[((n₁-1)s₁² + (n₂-1)s₂²) / (n₁+n₂-2)]

Le signe de d indique la direction : positif quand M₁ > M₂, négatif quand M₁ < M₂. Souvent la valeur absolue |d| est rapportée quand la direction est évidente d’après le contexte.

Pourquoi combiner l’écart type?

Le calcul combiné suppose que les deux groupes ont des variances de population égales. Cela donne une estimation plus stable que d’utiliser l’écart type d’un seul groupe et correspond aux hypothèses du test t pour échantillons indépendants.

Mesures alternatives de taille d’effet

Bien que le d de Cohen soit le plus courant, des alternatives existent pour des situations spécifiques :

g de Hedges : taille d’effet corrigée du biais

Le d de Cohen surestime légèrement la taille d’effet de la population dans les petits échantillons. Le g de Hedges applique un facteur de correction :

Correction du g de Hedges

g = d × (1 - 3/(4(n₁+n₂) - 9))

Pour des échantillons de plus de 20 par groupe, la différence est négligeable. Pour de petits échantillons (n < 20), le g de Hedges est préféré.

Δ de Glass : quand les variances diffèrent

Quand un groupe est un groupe témoin avec une variabilité connue, on utilise uniquement l’écart type du groupe témoin comme dénominateur :

Delta de Glass

Δ = (M₁ - M₂) / s_control

C’est utile quand le traitement peut affecter la variance (p. ex., une intervention qui aide davantage les participants à faible performance que ceux à haute performance).

Interpréter les tailles d’effet : les lignes directrices de Cohen

Jacob Cohen a proposé ces conventions pour interpréter les valeurs de d :

Taille de l’effet (d)InterprétationChevauchement
0,2Petit85 % de chevauchement entre les groupes
0,5Moyen67 % de chevauchement entre les groupes
0,8Grand53 % de chevauchement entre les groupes
1,2Très grand40 % de chevauchement entre les groupes
2,0Énorme19 % de chevauchement entre les groupes

Le contexte compte

Ce sont des lignes directrices approximatives, pas des règles absolues. Dans certains domaines, d = 0,2 peut être très significatif (p. ex., réduire le risque de crise cardiaque), tandis que dans d’autres, d = 0,8 peut être attendu (p. ex., tutorat vs aucune instruction).

Exemple résolu : Intervention éducative

Une école teste un nouveau programme de lecture. Groupe témoin (n=25) : moyenne=72, ÉT=12. Groupe traitement (n=30) : moyenne=79, ÉT=14. Calculez le d de Cohen :

1

Calculer la variance combinée

sp² = [(25-1)(12)² + (30-1)(14)²] / (25+30-2) = [24×144 + 29×196] / 53 = [3456 + 5684] / 53 = 172,45
2

Calculer l’écart type combiné

sp = √172,45 = 13,13
3

Calculer le d de Cohen

d = (79 - 72) / 13,13 = 7 / 13,13 = 0,53
4

Interpréter

Une taille d’effet moyenne (d = 0,53). Le groupe traitement obtient environ un demi-écart type de plus que le groupe témoin.

Cela signifie que si vous preniez un étudiant au hasard du groupe traitement et un du groupe témoin, l’étudiant du groupe traitement obtiendrait un score plus élevé environ 64 % du temps (calculé à partir du chevauchement).

Implémentation en Python

Calculez les tailles d’effet par programmation avec des intervalles de confiance :

python
import numpy as np
from scipy import stats

def cohens_d(group1, group2):
    """Calculate Cohen's d for two independent groups."""
    n1, n2 = len(group1), len(group2)
    var1, var2 = np.var(group1, ddof=1), np.var(group2, ddof=1)

    # Pooled standard deviation
    pooled_std = np.sqrt(((n1-1)*var1 + (n2-1)*var2) / (n1+n2-2))

    # Cohen's d
    d = (np.mean(group1) - np.mean(group2)) / pooled_std
    return d

def hedges_g(group1, group2):
    """Calculate Hedges' g (bias-corrected effect size)."""
    n1, n2 = len(group1), len(group2)
    d = cohens_d(group1, group2)

    # Correction factor for small sample bias
    correction = 1 - 3 / (4*(n1+n2) - 9)
    return d * correction

# Example usage
control = [68, 72, 75, 70, 69, 74, 71, 73, 76, 72]
treatment = [75, 79, 82, 78, 80, 77, 81, 76, 83, 79]

d = cohens_d(treatment, control)
g = hedges_g(treatment, control)
print(f"Cohen's d: {d:.3f}")
print(f"Hedges' g: {g:.3f}")

Further Reading

How to Read This Article

A statistics tutorial is a practical interpretation guide, not just a formula dump. It refers to the assumptions, notation, and reporting language that analysts need when they explain a result to a teacher, manager, client, or reviewer. The article body covers the specific topic, while the sections below create a common interpretation frame that readers can reuse across related metrics.

Reading goalWhat to focus onCommon mistake
DefinitionWhat the metric is and what quantity it summarizesTreating the formula as self-explanatory
Formula choiceSample versus population assumptions and notationUsing n when n-1 is required or vice versa
InterpretationWhether the result indicates concentration, spread, or riskCalling a large value good or bad without context

Frequently Asked Questions

How should I interpret a high standard deviation?

A high standard deviation means the observations are spread farther from the mean on average. Whether that spread is acceptable depends on the context: wide dispersion might signal risk in finance, instability in manufacturing, or genuine natural variation in scientific data.

Why do some articles mention n while others mention n-1?

The denominator reflects the difference between population and sample formulas. Population variance and population standard deviation use N because the full dataset is known. Sample variance and sample standard deviation often use n-1 because Bessel’s correction reduces bias when estimating population spread from a sample.

What is a statistical interpretation guide?

A statistical interpretation guide is a page that moves beyond arithmetic and explains meaning. It tells you what a metric is, when the formula applies, and how to describe the result in plain English without overstating certainty.

Can I cite this article in a report?

You should cite the underlying authoritative reference for formal work whenever possible. This page is best used as an explanatory bridge that helps you understand the concept before quoting the original standard or handbook.

Why include direct citations on every article page?

Direct citations give readers a route to verify the definition, notation, and assumptions. That improves trust and reduces the chance that a simplified explanation is mistaken for the entire technical standard.

Authoritative References

These sources define the concepts referenced most often across our articles. Bessel's correction is a sample adjustment, variance is a squared measure of spread, and standard deviation is the square root of variance expressed in the same units as the data.