Σ
SDCalc
AvanzatoAvanzato·15 min

Metodi bootstrap per la deviazione standard

Padroneggia il ricampionamento bootstrap per la stima della deviazione standard. Scopri i metodi percentile, BCa e bootstrap parametrico con implementazione in Python ed esempi svolti.

Bootstrap: la rivoluzione statistica dell’era informatica

Il ricampionamento bootstrap è una tecnica statistica potente che stima la distribuzione campionaria di qualsiasi statistica ricampionando ripetutamente dai dati osservati. Introdotto da Bradley Efron nel 1979, ha rivoluzionato l’inferenza statistica consentendo l’analisi di statistiche complesse senza dipendere da formule matematiche o assunzioni distributive.

L’intuizione alla base del bootstrap è elegantemente semplice: il campione è la migliore stima della popolazione. Ricampionando dal proprio campione (con reinserimento), si simula ciò che accadrebbe se si potesse campionare ripetutamente dalla popolazione. Questo approccio è particolarmente prezioso per la deviazione standard, dove le formule tradizionali per gli intervalli di confidenza assumono la normalità, un’assunzione che spesso non regge nella pratica.

Il bootstrap è diventato essenziale nella data science moderna perché funziona con qualsiasi statistica (mediana, correlazione, coefficienti di regressione, pesi delle reti neurali) e non fa assunzioni sulla distribuzione sottostante dei dati.

Perché il bootstrap per la deviazione standard?

Gli intervalli di confidenza tradizionali per la deviazione standard assumono che i dati provengano da una distribuzione normale. Quando questa assunzione viene meno (come spesso accade), questi intervalli possono essere gravemente imprecisi. Il bootstrap fornisce un’alternativa libera da assunzioni distributive.

Quando i metodi tradizionali falliscono

L’IC basato sul chi-quadrato per la deviazione standard assume la normalità. Con dati asimmetrici (redditi, tempi di reazione, dati di sopravvivenza), può produrre intervalli che mancano il vero parametro il 20-30% delle volte, non il 5% atteso.

Vantaggi chiave del bootstrap per la deviazione standard:

  • Nessuna assunzione distributiva: Funziona ugualmente bene con dati normali, asimmetrici o a code pesanti
  • Prestazioni con piccoli campioni: Spesso più accurato dei metodi parametrici con n < 30
  • Gestisce statistiche complesse: Lo stesso approccio funziona per DS troncata, MAD o misure di variabilità personalizzate
  • Insight visivo: La distribuzione bootstrap mostra ciò che accade, non solo i numeri finali

La procedura bootstrap

L’algoritmo bootstrap è notevolmente semplice. Dal campione originale di n osservazioni:

1

Estrarre un campione bootstrap

Selezionare casualmente n osservazioni con reinserimento dal campione originale. Alcuni valori appariranno più volte, altri per nulla.
2

Calcolare la statistica

Calcolare la deviazione standard di questo campione bootstrap. Questa è una replica bootstrap.
3

Ripetere molte volte

Ripetere i passi 1-2 migliaia di volte (tipicamente B = 10.000). Ogni ripetizione produce una DS bootstrap.
4

Analizzare la distribuzione

L’insieme delle B DS bootstrap approssima la distribuzione campionaria. Usarla per IC e test di ipotesi.

Perché con reinserimento?

Il campionamento con reinserimento è cruciale. Crea campioni che variano nella composizione, imitando la variabilità che si vedrebbe tra diversi campioni dalla popolazione. Senza reinserimento, ogni campione sarebbe identico all’originale.

Quanti campioni bootstrap? B = 1.000 è spesso sufficiente per stime approssimative e test di ipotesi. Per intervalli di confidenza, B = 10.000 fornisce percentili stabili. Per intervalli BCa di qualità pubblicabile, si raccomandano B = 15.000 o più.

Metodi per gli intervalli di confidenza bootstrap

Esistono diversi metodi per costruire intervalli di confidenza dai campioni bootstrap, ciascuno con i propri compromessi:

1. Metodo dei percentili (il più semplice)

L’approccio più intuitivo: prendere direttamente i percentili della distribuzione bootstrap.

IC dei percentili

95% IC = [θ*₂,₅, θ*₉₇,₅]

Per 10.000 campioni bootstrap, sono il 250° e il 9.750° valore ordinato. Semplice ma può essere distorto quando la distribuzione bootstrap è asimmetrica.

2. Bootstrap di base (pivotale)

Utilizza la relazione tra la statistica campionaria e le statistiche bootstrap:

IC bootstrap di base

95% IC = [2θ̂ - θ*₉₇,₅, 2θ̂ - θ*₂,₅]

Dove θ̂ è la DS campionaria originale. Questo “riflette” l’intervallo dei percentili attorno alla stima campionaria.

3. BCa (corretto per distorsione e accelerato)

Lo standard di riferimento per l’accuratezza. Il BCa corregge sia la distorsione nella distribuzione bootstrap che l’accelerazione (come l’errore standard cambia con il valore del parametro). Più complesso da calcolare ma fornisce intervalli accurati al secondo ordine.

MetodoProContro
PercentiliSemplice, intuitivoPuò essere distorto con dati asimmetrici
Di baseIntervalli simmetriciPuò produrre valori negativi
BCaPiù accurato, rispetta le trasformazioniComputazionalmente intensivo

Esempio svolto: dati non normali

Consideriamo 15 misurazioni di tempi di risposta (in ms): 245, 312, 287, 456, 234, 298, 267, 523, 289, 301, 278, 645, 256, 289, 312. Questi dati sono asimmetrici a destra (alcune risposte molto lente).

1

Calcolare la DS campionaria

Campione originale: n=15, DS = 109,8 ms
2

Generare campioni bootstrap

Estrarre 10.000 campioni di dimensione 15 con reinserimento. Ogni campione ha composizione diversa.
3

Calcolare le DS bootstrap

Calcolare la DS per ogni campione bootstrap, ottenendo 10.000 valori compresi tra ~60 e ~180
4

Trovare i percentili

Percentile 2,5: 72,3 ms, Percentile 97,5: 156,8 ms
5

Costruire l’IC al 95%

95% IC: [72,3; 156,8] ms. Confronto con l’IC chi-quadrato: [79,4; 175,2] che assume la normalità.

L’IC bootstrap è asimmetrico (più ampio sul lato alto), riflettendo la natura asimmetrica a destra dei dati. L’IC chi-quadrato non cattura questa asimmetria.

Implementazione in Python

Implementazione completa del bootstrap con più metodi per gli IC:

python
import numpy as np
from scipy import stats

def bootstrap_sd_ci(data, n_bootstrap=10000, ci=0.95, method='percentile'):
    """
    Bootstrap confidence interval for standard deviation.

    Parameters:
    -----------
    data : array-like - Original sample
    n_bootstrap : int - Number of bootstrap samples
    ci : float - Confidence level (e.g., 0.95)
    method : str - 'percentile', 'basic', or 'bca'

    Returns:
    --------
    tuple : (lower_bound, upper_bound, bootstrap_sds)
    """
    data = np.array(data)
    n = len(data)
    original_sd = np.std(data, ddof=1)

    # Generate bootstrap samples and calculate SDs
    bootstrap_sds = np.array([
        np.std(np.random.choice(data, size=n, replace=True), ddof=1)
        for _ in range(n_bootstrap)
    ])

    alpha = 1 - ci

    if method == 'percentile':
        lower = np.percentile(bootstrap_sds, 100 * alpha/2)
        upper = np.percentile(bootstrap_sds, 100 * (1 - alpha/2))

    elif method == 'basic':
        lower = 2*original_sd - np.percentile(bootstrap_sds, 100*(1-alpha/2))
        upper = 2*original_sd - np.percentile(bootstrap_sds, 100*alpha/2)

    elif method == 'bca':
        # Bias correction
        prop_less = np.mean(bootstrap_sds < original_sd)
        z0 = stats.norm.ppf(prop_less)

        # Acceleration (jackknife estimate)
        jackknife_sds = np.array([
            np.std(np.delete(data, i), ddof=1) for i in range(n)
        ])
        jack_mean = jackknife_sds.mean()
        a = np.sum((jack_mean - jackknife_sds)**3) / \
            (6 * np.sum((jack_mean - jackknife_sds)**2)**1.5)

        # Adjusted percentiles
        z_alpha = stats.norm.ppf([alpha/2, 1-alpha/2])
        adj_percentiles = stats.norm.cdf(
            z0 + (z0 + z_alpha) / (1 - a*(z0 + z_alpha))
        ) * 100
        lower = np.percentile(bootstrap_sds, adj_percentiles[0])
        upper = np.percentile(bootstrap_sds, adj_percentiles[1])

    return lower, upper, bootstrap_sds

# Example usage
response_times = [245, 312, 287, 456, 234, 298, 267, 523, 289, 301, 278, 645, 256, 289, 312]

for method in ['percentile', 'basic', 'bca']:
    lower, upper, _ = bootstrap_sd_ci(response_times, method=method)
    print(f"{method.upper():12s} 95% CI: [{lower:.1f}, {upper:.1f}]")

Further Reading

How to Read This Article

A statistics tutorial is a practical interpretation guide, not just a formula dump. It refers to the assumptions, notation, and reporting language that analysts need when they explain a result to a teacher, manager, client, or reviewer. The article body covers the specific topic, while the sections below create a common interpretation frame that readers can reuse across related metrics.

Reading goalWhat to focus onCommon mistake
DefinitionWhat the metric is and what quantity it summarizesTreating the formula as self-explanatory
Formula choiceSample versus population assumptions and notationUsing n when n-1 is required or vice versa
InterpretationWhether the result indicates concentration, spread, or riskCalling a large value good or bad without context

Frequently Asked Questions

How should I interpret a high standard deviation?

A high standard deviation means the observations are spread farther from the mean on average. Whether that spread is acceptable depends on the context: wide dispersion might signal risk in finance, instability in manufacturing, or genuine natural variation in scientific data.

Why do some articles mention n while others mention n-1?

The denominator reflects the difference between population and sample formulas. Population variance and population standard deviation use N because the full dataset is known. Sample variance and sample standard deviation often use n-1 because Bessel’s correction reduces bias when estimating population spread from a sample.

What is a statistical interpretation guide?

A statistical interpretation guide is a page that moves beyond arithmetic and explains meaning. It tells you what a metric is, when the formula applies, and how to describe the result in plain English without overstating certainty.

Can I cite this article in a report?

You should cite the underlying authoritative reference for formal work whenever possible. This page is best used as an explanatory bridge that helps you understand the concept before quoting the original standard or handbook.

Why include direct citations on every article page?

Direct citations give readers a route to verify the definition, notation, and assumptions. That improves trust and reduces the chance that a simplified explanation is mistaken for the entire technical standard.

Authoritative References

These sources define the concepts referenced most often across our articles. Bessel's correction is a sample adjustment, variance is a squared measure of spread, and standard deviation is the square root of variance expressed in the same units as the data.