Σ
SDCalc
AvancéAvancé·15 min

Méthodes bootstrap pour l’écart type

Maîtrisez le rééchantillonnage bootstrap pour l’estimation de l’écart type. Apprenez les méthodes de percentile, BCa et bootstrap paramétrique avec l’implémentation en Python et des exemples résolus.

Bootstrap : la révolution statistique de l’ère informatique

Le rééchantillonnage bootstrap est une technique statistique puissante qui estime la distribution d’échantillonnage de n’importe quelle statistique en rééchantillonnant de façon répétée à partir de vos données observées. Introduit par Bradley Efron en 1979, il a révolutionné l’inférence statistique en rendant possible l’analyse de statistiques complexes sans s’appuyer sur des formules mathématiques ou des hypothèses distributionnelles.

L’idée clé derrière le bootstrap est d’une simplicité élégante : votre échantillon est votre meilleure estimation de la population. En rééchantillonnant à partir de votre échantillon (avec remise), vous simulez ce qui se passerait si vous pouviez échantillonner de façon répétée à partir de la population. Cette approche est particulièrement précieuse pour l’écart type, où les formules traditionnelles d’intervalle de confiance supposent la normalité — une hypothèse qui échoue souvent en pratique.

Le bootstrap est devenu essentiel en science des données moderne parce qu’il fonctionne avec n’importe quelle statistique (médiane, corrélation, coefficients de régression, poids de réseaux neuronaux) et ne fait aucune hypothèse sur la distribution sous-jacente de vos données.

Pourquoi le bootstrap pour l’écart type?

Les intervalles de confiance traditionnels pour l’écart type supposent que vos données proviennent d’une distribution normale. Quand cette hypothèse échoue (ce qui est courant), ces intervalles peuvent être très inexacts. Le bootstrap fournit une alternative sans hypothèse distributionnelle.

Quand les méthodes traditionnelles échouent

L’IC basé sur le chi-carré pour l’écart type suppose la normalité. Avec des données asymétriques (revenus, temps de réaction, données de survie), cela peut produire des intervalles qui manquent le vrai paramètre 20-30 % du temps, au lieu des 5 % attendus.

Avantages clés du bootstrap pour l’écart type :

  • Aucune hypothèse distributionnelle : Fonctionne aussi bien avec des données normales, asymétriques ou à queues lourdes
  • Performance avec petits échantillons : Souvent plus précis que les méthodes paramétriques avec n < 30
  • Gère les statistiques complexes : La même approche fonctionne pour l’écart type tronqué, le MAD ou des mesures de variabilité personnalisées
  • Aperçu visuel : La distribution bootstrap vous montre ce qui se passe, pas seulement les chiffres finaux

La procédure bootstrap

L’algorithme bootstrap est remarquablement simple. À partir de votre échantillon original de n observations :

1

Tirer un échantillon bootstrap

Sélectionnez aléatoirement n observations avec remise à partir de vos données originales. Certaines valeurs apparaîtront plusieurs fois, d’autres pas du tout.
2

Calculer la statistique

Calculez l’écart type de cet échantillon bootstrap. C’est une réplication bootstrap.
3

Répéter plusieurs fois

Répétez les étapes 1-2 des milliers de fois (typiquement B = 10 000). Chaque répétition donne un écart type bootstrap.
4

Analyser la distribution

L’ensemble des B écarts types bootstrap approxime la distribution d’échantillonnage. Utilisez-la pour les IC et les tests d’hypothèses.

Pourquoi avec remise?

L’échantillonnage avec remise est crucial. Il crée des échantillons dont la composition varie, imitant la variabilité que vous verriez à travers différents échantillons de la population. Sans remise, chaque échantillon serait identique à l’original.

Combien d’échantillons bootstrap? B = 1 000 suffit souvent pour des estimations grossières et des tests d’hypothèses. Pour les intervalles de confiance, B = 10 000 fournit des percentiles stables. Pour des intervalles BCa de qualité publication, B = 15 000+ est recommandé.

Méthodes d’intervalle de confiance bootstrap

Plusieurs méthodes existent pour construire des intervalles de confiance à partir d’échantillons bootstrap, chacune avec ses compromis :

1. Méthode des percentiles (la plus simple)

L’approche la plus intuitive : prenez directement les percentiles de la distribution bootstrap.

IC par percentile

95% CI = [θ*₂.₅, θ*₉₇.₅]

Pour 10 000 échantillons bootstrap, ce sont les 250e et 9 750e valeurs ordonnées. Simple mais peut être biaisé quand la distribution bootstrap est asymétrique.

2. Bootstrap de base (pivotal)

Utilise la relation entre la statistique d’échantillon et les statistiques bootstrap :

IC bootstrap de base

95% CI = [2θ̂ - θ*₉₇.₅, 2θ̂ - θ*₂.₅]

Où θ̂ est l’écart type de l’échantillon original. Cela « reflète » l’intervalle de percentile autour de l’estimation de l’échantillon.

3. BCa (corrigé du biais et accéléré)

La norme de référence pour la précision. Le BCa ajuste à la fois le biais dans la distribution bootstrap et l’accélération (comment l’erreur type change avec la valeur du paramètre). Plus complexe à calculer mais fournit des intervalles précis au second ordre.

MéthodeAvantagesInconvénients
PercentileSimple, intuitifPeut être biaisé avec des données asymétriques
De baseIntervalles symétriquesPeut produire des valeurs négatives
BCaLe plus précis, respecte les transformationsCoûteux en calcul

Exemple résolu : Données non normales

Considérez 15 mesures de temps de réponse (en ms) : 245, 312, 287, 456, 234, 298, 267, 523, 289, 301, 278, 645, 256, 289, 312. Ces données sont asymétriques à droite (quelques réponses très lentes).

1

Calculer l’écart type de l’échantillon

Échantillon original : n=15, ÉT = 109,8 ms
2

Générer les échantillons bootstrap

Tirez 10 000 échantillons de taille 15 avec remise. Chaque échantillon a une composition différente.
3

Calculer les écarts types bootstrap

Calculez l’écart type pour chaque échantillon bootstrap, obtenant 10 000 valeurs allant d’environ 60 à 180
4

Trouver les percentiles

2,5e percentile : 72,3 ms, 97,5e percentile : 156,8 ms
5

Former l’IC à 95 %

IC à 95 % : [72,3; 156,8] ms. Comparez à l’IC chi-carré : [79,4; 175,2] qui suppose la normalité.

L’IC bootstrap est asymétrique (plus large du côté élevé), reflétant la nature asymétrique à droite des données. L’IC chi-carré ne capture pas cette asymétrie.

Implémentation en Python

Implémentation bootstrap complète avec plusieurs méthodes d’IC :

python
import numpy as np
from scipy import stats

def bootstrap_sd_ci(data, n_bootstrap=10000, ci=0.95, method='percentile'):
    """
    Bootstrap confidence interval for standard deviation.

    Parameters:
    -----------
    data : array-like - Original sample
    n_bootstrap : int - Number of bootstrap samples
    ci : float - Confidence level (e.g., 0.95)
    method : str - 'percentile', 'basic', or 'bca'

    Returns:
    --------
    tuple : (lower_bound, upper_bound, bootstrap_sds)
    """
    data = np.array(data)
    n = len(data)
    original_sd = np.std(data, ddof=1)

    # Generate bootstrap samples and calculate SDs
    bootstrap_sds = np.array([
        np.std(np.random.choice(data, size=n, replace=True), ddof=1)
        for _ in range(n_bootstrap)
    ])

    alpha = 1 - ci

    if method == 'percentile':
        lower = np.percentile(bootstrap_sds, 100 * alpha/2)
        upper = np.percentile(bootstrap_sds, 100 * (1 - alpha/2))

    elif method == 'basic':
        lower = 2*original_sd - np.percentile(bootstrap_sds, 100*(1-alpha/2))
        upper = 2*original_sd - np.percentile(bootstrap_sds, 100*alpha/2)

    elif method == 'bca':
        # Bias correction
        prop_less = np.mean(bootstrap_sds < original_sd)
        z0 = stats.norm.ppf(prop_less)

        # Acceleration (jackknife estimate)
        jackknife_sds = np.array([
            np.std(np.delete(data, i), ddof=1) for i in range(n)
        ])
        jack_mean = jackknife_sds.mean()
        a = np.sum((jack_mean - jackknife_sds)**3) / \
            (6 * np.sum((jack_mean - jackknife_sds)**2)**1.5)

        # Adjusted percentiles
        z_alpha = stats.norm.ppf([alpha/2, 1-alpha/2])
        adj_percentiles = stats.norm.cdf(
            z0 + (z0 + z_alpha) / (1 - a*(z0 + z_alpha))
        ) * 100
        lower = np.percentile(bootstrap_sds, adj_percentiles[0])
        upper = np.percentile(bootstrap_sds, adj_percentiles[1])

    return lower, upper, bootstrap_sds

# Example usage
response_times = [245, 312, 287, 456, 234, 298, 267, 523, 289, 301, 278, 645, 256, 289, 312]

for method in ['percentile', 'basic', 'bca']:
    lower, upper, _ = bootstrap_sd_ci(response_times, method=method)
    print(f"{method.upper():12s} 95% CI: [{lower:.1f}, {upper:.1f}]")

Further Reading

How to Read This Article

A statistics tutorial is a practical interpretation guide, not just a formula dump. It refers to the assumptions, notation, and reporting language that analysts need when they explain a result to a teacher, manager, client, or reviewer. The article body covers the specific topic, while the sections below create a common interpretation frame that readers can reuse across related metrics.

Reading goalWhat to focus onCommon mistake
DefinitionWhat the metric is and what quantity it summarizesTreating the formula as self-explanatory
Formula choiceSample versus population assumptions and notationUsing n when n-1 is required or vice versa
InterpretationWhether the result indicates concentration, spread, or riskCalling a large value good or bad without context

Frequently Asked Questions

How should I interpret a high standard deviation?

A high standard deviation means the observations are spread farther from the mean on average. Whether that spread is acceptable depends on the context: wide dispersion might signal risk in finance, instability in manufacturing, or genuine natural variation in scientific data.

Why do some articles mention n while others mention n-1?

The denominator reflects the difference between population and sample formulas. Population variance and population standard deviation use N because the full dataset is known. Sample variance and sample standard deviation often use n-1 because Bessel’s correction reduces bias when estimating population spread from a sample.

What is a statistical interpretation guide?

A statistical interpretation guide is a page that moves beyond arithmetic and explains meaning. It tells you what a metric is, when the formula applies, and how to describe the result in plain English without overstating certainty.

Can I cite this article in a report?

You should cite the underlying authoritative reference for formal work whenever possible. This page is best used as an explanatory bridge that helps you understand the concept before quoting the original standard or handbook.

Why include direct citations on every article page?

Direct citations give readers a route to verify the definition, notation, and assumptions. That improves trust and reduces the chance that a simplified explanation is mistaken for the entire technical standard.

Authoritative References

These sources define the concepts referenced most often across our articles. Bessel's correction is a sample adjustment, variance is a squared measure of spread, and standard deviation is the square root of variance expressed in the same units as the data.