Σ
SDCalc
AvanzadoAvanzado·15 min

Métodos Bootstrap para la Desviación Estándar

Domina el remuestreo bootstrap para estimar la desviación estándar. Aprende los métodos de percentiles, BCa y bootstrap paramétrico con implementación en Python y ejemplos resueltos.

Bootstrap: La Revolución Estadística de la Era Computacional

El remuestreo bootstrap es una técnica estadística poderosa que estima la distribución muestral de cualquier estadístico mediante el muestreo repetido a partir de los datos observados. Introducido por Bradley Efron en 1979, revolucionó la inferencia estadística al permitir el análisis de estadísticos complejos sin depender de fórmulas matemáticas ni supuestos distribucionales.

La idea clave detrás del bootstrap es elegantemente simple: tu muestra es la mejor estimación de la población. Al remuestrear de tu muestra (con reemplazo), simulas lo que ocurriría si pudieras tomar muestras repetidamente de la población. Este enfoque es particularmente valioso para la desviación estándar, donde las fórmulas tradicionales de intervalos de confianza asumen normalidad, un supuesto que frecuentemente falla en la práctica.

El bootstrap se ha vuelto esencial en la ciencia de datos moderna porque funciona con cualquier estadístico (mediana, correlación, coeficientes de regresión, pesos de redes neuronales) y no requiere supuestos sobre la distribución subyacente de los datos.

¿Por qué usar Bootstrap para la Desviación Estándar?

Los intervalos de confianza tradicionales para la desviación estándar asumen que los datos provienen de una distribución normal. Cuando este supuesto no se cumple (lo cual es frecuente), estos intervalos pueden ser enormemente imprecisos. El bootstrap ofrece una alternativa libre de distribución.

Cuando los Métodos Tradicionales Fallan

El intervalo de confianza basado en chi-cuadrada para la desviación estándar asume normalidad. Con datos asimétricos (ingresos, tiempos de reacción, datos de supervivencia), esto puede producir intervalos que no contienen el verdadero parámetro entre el 20 y el 30% de las veces, en lugar del 5% esperado.

Ventajas clave del bootstrap para la desviación estándar:

  • Sin supuestos distribucionales: Funciona igualmente bien con datos normales, asimétricos o de colas pesadas
  • Buen desempeño con muestras pequeñas: Frecuentemente más preciso que los métodos paramétricos cuando n < 30
  • Manejo de estadísticos complejos: El mismo enfoque funciona para DE recortada, MAD u otras medidas de variabilidad personalizadas
  • Perspectiva visual: La distribución bootstrap muestra lo que está ocurriendo, no solo números finales

El Procedimiento Bootstrap

El algoritmo bootstrap es notablemente sencillo. A partir de tu muestra original de n observaciones:

1

Extraer Muestra Bootstrap

Selecciona aleatoriamente n observaciones con reemplazo de tus datos originales. Algunos valores aparecerán múltiples veces, otros no aparecerán en absoluto.
2

Calcular el Estadístico

Calcula la desviación estándar de esta muestra bootstrap. Esta es una réplica bootstrap.
3

Repetir Muchas Veces

Repite los pasos 1-2 miles de veces (típicamente B = 10,000). Cada repetición produce una DE bootstrap.
4

Analizar la Distribución

La colección de B desviaciones estándar bootstrap aproxima la distribución muestral. Úsala para intervalos de confianza y pruebas de hipótesis.

¿Por qué Con Reemplazo?

El muestreo con reemplazo es fundamental. Crea muestras que varían en composición, imitando la variabilidad que observarías entre diferentes muestras de la población. Sin reemplazo, cada muestra sería idéntica a la original.

¿Cuántas muestras bootstrap? B = 1,000 suele ser suficiente para estimaciones aproximadas y pruebas de hipótesis. Para intervalos de confianza, B = 10,000 proporciona percentiles estables. Para intervalos BCa de calidad para publicación, se recomiendan B = 15,000 o más.

Métodos de Intervalos de Confianza Bootstrap

Existen varios métodos para construir intervalos de confianza a partir de muestras bootstrap, cada uno con sus ventajas y desventajas:

1. Método de Percentiles (El Más Simple)

El enfoque más intuitivo: tomar directamente los percentiles de la distribución bootstrap.

IC de Percentiles

95% CI = [θ*₂.₅, θ*₉₇.₅]

Para 10,000 muestras bootstrap, estos son los valores ordenados en las posiciones 250 y 9,750. Simple pero puede tener sesgo cuando la distribución bootstrap es asimétrica.

2. Bootstrap Básico (Pivotal)

Utiliza la relación entre el estadístico muestral y los estadísticos bootstrap:

IC Bootstrap Básico

95% CI = [2θ̂ - θ*₉₇.₅, 2θ̂ - θ*₂.₅]

Donde θ̂ es la DE de la muestra original. Este método “refleja” el intervalo de percentiles alrededor de la estimación muestral.

3. BCa (Corregido por Sesgo y Acelerado)

El estándar de referencia en precisión. El método BCa ajusta tanto por el sesgo en la distribución bootstrap como por la aceleración (cómo cambia el error estándar con el valor del parámetro). Es más complejo de calcular, pero proporciona intervalos con precisión de segundo orden.

MétodoVentajasDesventajas
PercentilesSimple e intuitivoPuede tener sesgo con datos asimétricos
BásicoIntervalos simétricosPuede producir valores negativos
BCaMayor precisión, respeta transformacionesComputacionalmente intensivo

Ejemplo Resuelto: Datos No Normales

Consideremos 15 mediciones de tiempos de respuesta (en ms): 245, 312, 287, 456, 234, 298, 267, 523, 289, 301, 278, 645, 256, 289, 312. Estos datos tienen asimetría positiva (algunas respuestas muy lentas).

1

Calcular la DE Muestral

Muestra original: n=15, DE = 109.8 ms
2

Generar Muestras Bootstrap

Extraer 10,000 muestras de tamaño 15 con reemplazo. Cada muestra tiene diferente composición.
3

Calcular las DE Bootstrap

Calcular la DE para cada muestra bootstrap, obteniendo 10,000 valores que van aproximadamente de 60 a 180
4

Encontrar los Percentiles

Percentil 2.5: 72.3 ms, Percentil 97.5: 156.8 ms
5

Formar el IC del 95%

IC del 95%: [72.3, 156.8] ms. Comparar con el IC chi-cuadrada: [79.4, 175.2] que asume normalidad.

El IC bootstrap es asimétrico (más amplio en el lado superior), reflejando la naturaleza asimétrica positiva de los datos. El IC chi-cuadrada no captura esta asimetría.

Implementación en Python

Implementación completa del bootstrap con múltiples métodos de intervalos de confianza:

python
import numpy as np
from scipy import stats

def bootstrap_sd_ci(data, n_bootstrap=10000, ci=0.95, method='percentile'):
    """
    Bootstrap confidence interval for standard deviation.

    Parameters:
    -----------
    data : array-like - Original sample
    n_bootstrap : int - Number of bootstrap samples
    ci : float - Confidence level (e.g., 0.95)
    method : str - 'percentile', 'basic', or 'bca'

    Returns:
    --------
    tuple : (lower_bound, upper_bound, bootstrap_sds)
    """
    data = np.array(data)
    n = len(data)
    original_sd = np.std(data, ddof=1)

    # Generate bootstrap samples and calculate SDs
    bootstrap_sds = np.array([
        np.std(np.random.choice(data, size=n, replace=True), ddof=1)
        for _ in range(n_bootstrap)
    ])

    alpha = 1 - ci

    if method == 'percentile':
        lower = np.percentile(bootstrap_sds, 100 * alpha/2)
        upper = np.percentile(bootstrap_sds, 100 * (1 - alpha/2))

    elif method == 'basic':
        lower = 2*original_sd - np.percentile(bootstrap_sds, 100*(1-alpha/2))
        upper = 2*original_sd - np.percentile(bootstrap_sds, 100*alpha/2)

    elif method == 'bca':
        # Bias correction
        prop_less = np.mean(bootstrap_sds < original_sd)
        z0 = stats.norm.ppf(prop_less)

        # Acceleration (jackknife estimate)
        jackknife_sds = np.array([
            np.std(np.delete(data, i), ddof=1) for i in range(n)
        ])
        jack_mean = jackknife_sds.mean()
        a = np.sum((jack_mean - jackknife_sds)**3) / \
            (6 * np.sum((jack_mean - jackknife_sds)**2)**1.5)

        # Adjusted percentiles
        z_alpha = stats.norm.ppf([alpha/2, 1-alpha/2])
        adj_percentiles = stats.norm.cdf(
            z0 + (z0 + z_alpha) / (1 - a*(z0 + z_alpha))
        ) * 100
        lower = np.percentile(bootstrap_sds, adj_percentiles[0])
        upper = np.percentile(bootstrap_sds, adj_percentiles[1])

    return lower, upper, bootstrap_sds

# Example usage
response_times = [245, 312, 287, 456, 234, 298, 267, 523, 289, 301, 278, 645, 256, 289, 312]

for method in ['percentile', 'basic', 'bca']:
    lower, upper, _ = bootstrap_sd_ci(response_times, method=method)
    print(f"{method.upper():12s} 95% CI: [{lower:.1f}, {upper:.1f}]")

Further Reading

How to Read This Article

A statistics tutorial is a practical interpretation guide, not just a formula dump. It refers to the assumptions, notation, and reporting language that analysts need when they explain a result to a teacher, manager, client, or reviewer. The article body covers the specific topic, while the sections below create a common interpretation frame that readers can reuse across related metrics.

Reading goalWhat to focus onCommon mistake
DefinitionWhat the metric is and what quantity it summarizesTreating the formula as self-explanatory
Formula choiceSample versus population assumptions and notationUsing n when n-1 is required or vice versa
InterpretationWhether the result indicates concentration, spread, or riskCalling a large value good or bad without context

Frequently Asked Questions

How should I interpret a high standard deviation?

A high standard deviation means the observations are spread farther from the mean on average. Whether that spread is acceptable depends on the context: wide dispersion might signal risk in finance, instability in manufacturing, or genuine natural variation in scientific data.

Why do some articles mention n while others mention n-1?

The denominator reflects the difference between population and sample formulas. Population variance and population standard deviation use N because the full dataset is known. Sample variance and sample standard deviation often use n-1 because Bessel’s correction reduces bias when estimating population spread from a sample.

What is a statistical interpretation guide?

A statistical interpretation guide is a page that moves beyond arithmetic and explains meaning. It tells you what a metric is, when the formula applies, and how to describe the result in plain English without overstating certainty.

Can I cite this article in a report?

You should cite the underlying authoritative reference for formal work whenever possible. This page is best used as an explanatory bridge that helps you understand the concept before quoting the original standard or handbook.

Why include direct citations on every article page?

Direct citations give readers a route to verify the definition, notation, and assumptions. That improves trust and reduces the chance that a simplified explanation is mistaken for the entire technical standard.

Authoritative References

These sources define the concepts referenced most often across our articles. Bessel's correction is a sample adjustment, variance is a squared measure of spread, and standard deviation is the square root of variance expressed in the same units as the data.