Σ
SDCalc
AvancéAvancé·14 min

Écart type combiné pour plusieurs groupes

Apprenez à calculer l’écart type combiné pour regrouper les données de plusieurs groupes dans les tests t et l’ANOVA.

Qu’est-ce que l’écart type combiné?

L’écart type combiné combine les estimations de variance de deux groupes ou plus pour obtenir une estimation unique et pondérée. Il est essentiel pour les tests t à deux échantillons quand on suppose des variances égales.

Le concept est simple : si nous croyons que deux groupes proviennent de populations ayant la même variabilité sous-jacente, nous pouvons combiner leurs données pour obtenir une meilleure estimation de cette variabilité commune. Plus de données signifie une estimation plus précise.

Pensez-y de cette façon : si vous avez 20 observations du groupe A et 30 du groupe B, et que les deux groupes ont la même vraie variance, vous avez maintenant 50 observations pour estimer cette variance au lieu de l’estimer séparément à partir d’échantillons plus petits.

Quand combiner

Ne combinez les écarts types que lorsque vous avez des raisons de croire que les variances de population sous-jacentes sont égales. Utilisez le test de Levene ou le test F pour vérifier cette hypothèse avant de combiner.

La formule de l’écart type combiné

Pour deux groupes, l’écart type combiné est :

Écart type combiné pour deux groupes

sp = √[((n₁-1)s₁² + (n₂-1)s₂²) / (n₁+n₂-2)]

Où n₁ et n₂ sont les tailles d’échantillons, et s₁ et s₂ sont les écarts types d’échantillons.

Pour k groupes (comme dans l’ANOVA), la formule se généralise :

Écart type combiné multi-groupes

sp = √[Σ(nᵢ-1)sᵢ² / Σ(nᵢ-1)]

Remarquez que la formule utilise des termes (n-1) au numérateur et au dénominateur. Cette pondération assure que les échantillons plus grands contribuent davantage à l’estimation combinée, ce qui est approprié parce que les échantillons plus grands fournissent des estimations de variance plus fiables.

Hypothèses sous-jacentes

L’écart type combiné suppose l’homogénéité des variances — que tous les groupes partagent la même variance de population. Cette hypothèse est particulièrement importante quand :

  • Les tailles d’échantillons sont inégales (particulièrement problématique si le groupe le plus grand a la plus petite variance)
  • Le rapport de la plus grande à la plus petite variance dépasse 2-3
  • Les tailles d’échantillons sont petites (les grands échantillons sont plus robustes aux violations)

Quand les variances diffèrent

Si les variances sont inégales, utilisez le test t de Welch au lieu du test t combiné, ou utilisez des estimations de variance séparées. Le test de Welch ne suppose pas des variances égales et est souvent recommandé comme approche par défaut.

Exemple résolu

Scénario : Comparer les résultats d’examen entre deux classes :

  • Classe A : n₁ = 25, moyenne = 78, s₁ = 12
  • Classe B : n₂ = 30, moyenne = 82, s₂ = 14

Calcul de l’écart type combiné :

sp = √[((25-1)(12)² + (30-1)(14)²) / (25+30-2)] sp = √[(24×144 + 29×196) / 53] sp = √[(3456 + 5684) / 53] sp = √[9140 / 53] = √172,45 = 13,13

L’écart type combiné de 13,13 se situe entre les écarts types individuels (12 et 14), pondéré vers l’échantillon plus grand. Cette valeur combinée serait ensuite utilisée dans la formule du test t ou le calcul du d de Cohen.

Applications statistiques

  • Test t pour échantillons indépendants : L’écart type combiné est utilisé pour calculer l’erreur type de la différence entre les moyennes.
  • d de Cohen comme taille de l’effet : Les tailles d’effet sont standardisées à l’aide de l’écart type combiné : d = (M₁ - M₂) / sp
  • ANOVA : Le carré moyen de l’erreur (CME) dans l’ANOVA est essentiellement une estimation de variance combinée pour tous les groupes.
  • Méta-analyse : Lors de la combinaison d’études, les estimations combinées aident à standardiser les effets à travers différents contextes.

Further Reading

How to Read This Article

A statistics tutorial is a practical interpretation guide, not just a formula dump. It refers to the assumptions, notation, and reporting language that analysts need when they explain a result to a teacher, manager, client, or reviewer. The article body covers the specific topic, while the sections below create a common interpretation frame that readers can reuse across related metrics.

Reading goalWhat to focus onCommon mistake
DefinitionWhat the metric is and what quantity it summarizesTreating the formula as self-explanatory
Formula choiceSample versus population assumptions and notationUsing n when n-1 is required or vice versa
InterpretationWhether the result indicates concentration, spread, or riskCalling a large value good or bad without context

Frequently Asked Questions

How should I interpret a high standard deviation?

A high standard deviation means the observations are spread farther from the mean on average. Whether that spread is acceptable depends on the context: wide dispersion might signal risk in finance, instability in manufacturing, or genuine natural variation in scientific data.

Why do some articles mention n while others mention n-1?

The denominator reflects the difference between population and sample formulas. Population variance and population standard deviation use N because the full dataset is known. Sample variance and sample standard deviation often use n-1 because Bessel’s correction reduces bias when estimating population spread from a sample.

What is a statistical interpretation guide?

A statistical interpretation guide is a page that moves beyond arithmetic and explains meaning. It tells you what a metric is, when the formula applies, and how to describe the result in plain English without overstating certainty.

Can I cite this article in a report?

You should cite the underlying authoritative reference for formal work whenever possible. This page is best used as an explanatory bridge that helps you understand the concept before quoting the original standard or handbook.

Why include direct citations on every article page?

Direct citations give readers a route to verify the definition, notation, and assumptions. That improves trust and reduces the chance that a simplified explanation is mistaken for the entire technical standard.

Authoritative References

These sources define the concepts referenced most often across our articles. Bessel's correction is a sample adjustment, variance is a squared measure of spread, and standard deviation is the square root of variance expressed in the same units as the data.