Σ
SDCalc
IntermedioAplicaciones·12 min

d de Cohen y Cálculos de Tamaño del Efecto

Domina los cálculos de tamaño del efecto incluyendo la d de Cohen, la g de Hedges y la delta de Glass. Aprende a medir la significancia práctica más allá de los valores p usando la desviación estándar.

Más Allá de la Significancia Estadística: Entendiendo el Tamaño del Efecto

El tamaño del efecto mide la magnitud de una diferencia o relación, independientemente del tamaño de la muestra. Mientras que los valores p indican si un efecto es estadísticamente significativo, los tamaños del efecto revelan qué tan relevante es ese efecto en la práctica. Esta distinción es fundamental para la toma de decisiones basada en evidencia en investigación, medicina, educación y negocios.

Consideremos un ensayo farmacéutico donde un nuevo medicamento muestra una mejora estadísticamente significativa (p < 0.001) respecto al placebo. Sin el tamaño del efecto, no sabemos si la mejora es del 0.1% o del 50%. El tamaño del efecto proporciona este contexto crucial, ayudando a los tomadores de decisiones a determinar si el efecto justifica el costo, los efectos secundarios o el esfuerzo de implementación.

La medida de tamaño del efecto más común para comparar dos grupos es la d de Cohen, que expresa la diferencia entre medias en unidades de desviación estándar. Esta estandarización permite la comparación entre diferentes estudios y escalas de medición.

¿Por qué Importa el Tamaño del Efecto?

La significancia estadística está fuertemente influenciada por el tamaño de la muestra. Con una muestra suficientemente grande, incluso diferencias triviales se vuelven “significativas”. Por el contrario, efectos importantes pueden no alcanzar significancia en muestras pequeñas. El tamaño del efecto resuelve este problema al proporcionar una medida independiente del tamaño de muestra.

La Trampa de la Significancia

Un estudio con n=10,000 podría mostrar p < 0.001 para una diferencia de 0.5 puntos en una escala de 100 puntos. Esto es estadísticamente significativo pero prácticamente irrelevante (d ≈ 0.05). Siempre reporte los tamaños del efecto junto con los valores p.

Razones clave para usar el tamaño del efecto:

  • Meta-análisis: Los tamaños del efecto pueden combinarse entre estudios para estimar efectos generales
  • Análisis de potencia: Son necesarios para calcular los tamaños de muestra requeridos en estudios futuros
  • Decisiones prácticas: Ayudan a determinar si las intervenciones valen la pena de implementar
  • Replicación: Proporcionan un objetivo que los estudios de replicación deben alcanzar

d de Cohen: La Medida Estándar del Tamaño del Efecto

La d de Cohen expresa la diferencia entre las medias de dos grupos en unidades de desviación estándar combinada:

Cohen's d

d = (M₁ - M₂) / sp

Donde M₁ y M₂ son las medias de los grupos, y sp es la desviación estándar combinada calculada como:

Pooled Standard Deviation

sp = √[((n₁-1)s₁² + (n₂-1)s₂²) / (n₁+n₂-2)]

El signo de d indica la dirección: positivo cuando M₁ > M₂, negativo cuando M₁ < M₂. Con frecuencia se reporta el valor absoluto |d| cuando la dirección es obvia por el contexto.

¿Por qué Combinar la Desviación Estándar?

La combinación asume que ambos grupos tienen varianzas poblacionales iguales. Esto proporciona una estimación más estable que usar la DE de un solo grupo, y coincide con los supuestos de la prueba t para muestras independientes.

Medidas Alternativas del Tamaño del Efecto

Aunque la d de Cohen es la más común, existen alternativas para situaciones específicas:

g de Hedges: Tamaño del Efecto Corregido por Sesgo

La d de Cohen sobreestima ligeramente el tamaño del efecto poblacional en muestras pequeñas. La g de Hedges aplica un factor de corrección:

Hedges' g Correction

g = d × (1 - 3/(4(n₁+n₂) - 9))

Para muestras mayores a 20 por grupo, la diferencia es insignificante. Para muestras pequeñas (n < 20), se prefiere la g de Hedges.

Δ de Glass: Cuando las Varianzas Difieren

Cuando un grupo es el control con variabilidad conocida, se usa solo la desviación estándar del grupo control como denominador:

Glass's Delta

Δ = (M₁ - M₂) / s_control

Esto es útil cuando el tratamiento puede afectar la varianza (por ejemplo, una intervención que beneficia más a los de bajo rendimiento que a los de alto rendimiento).

Interpretación de los Tamaños del Efecto: Directrices de Cohen

Jacob Cohen propuso estas convenciones para interpretar los valores de d:

Tamaño del Efecto (d)InterpretaciónSuperposición
0.2Pequeño85% de superposición entre grupos
0.5Mediano67% de superposición entre grupos
0.8Grande53% de superposición entre grupos
1.2Muy Grande40% de superposición entre grupos
2.0Enorme19% de superposición entre grupos

El Contexto Importa

Estas son directrices generales, no reglas absolutas. En algunos campos, d = 0.2 puede ser altamente significativo (por ejemplo, reducir el riesgo de infarto), mientras que en otros d = 0.8 puede ser lo esperado (por ejemplo, tutoría vs. sin instrucción).

Ejemplo Resuelto: Intervención Educativa

Una escuela evalúa un nuevo programa de lectura. Grupo control (n=25): media=72, DE=12. Grupo de tratamiento (n=30): media=79, DE=14. Calcular la d de Cohen:

1

Calcular la Varianza Combinada

sp² = [(25-1)(12)² + (30-1)(14)²] / (25+30-2) = [24×144 + 29×196] / 53 = [3456 + 5684] / 53 = 172.45
2

Calcular la DE Combinada

sp = √172.45 = 13.13
3

Calcular la d de Cohen

d = (79 - 72) / 13.13 = 7 / 13.13 = 0.53
4

Interpretar

Un tamaño del efecto mediano (d = 0.53). El grupo de tratamiento obtiene aproximadamente media desviación estándar más que el grupo control.

Esto significa que si se toma un estudiante al azar del grupo de tratamiento y otro del grupo control, el estudiante del grupo de tratamiento tendrá una calificación más alta aproximadamente el 64% de las veces (calculado a partir de la superposición).

Implementación en Python

Cálculo de tamaños del efecto de manera programática con intervalos de confianza:

python
import numpy as np
from scipy import stats

def cohens_d(group1, group2):
    """Calculate Cohen's d for two independent groups."""
    n1, n2 = len(group1), len(group2)
    var1, var2 = np.var(group1, ddof=1), np.var(group2, ddof=1)

    # Pooled standard deviation
    pooled_std = np.sqrt(((n1-1)*var1 + (n2-1)*var2) / (n1+n2-2))

    # Cohen's d
    d = (np.mean(group1) - np.mean(group2)) / pooled_std
    return d

def hedges_g(group1, group2):
    """Calculate Hedges' g (bias-corrected effect size)."""
    n1, n2 = len(group1), len(group2)
    d = cohens_d(group1, group2)

    # Correction factor for small sample bias
    correction = 1 - 3 / (4*(n1+n2) - 9)
    return d * correction

# Example usage
control = [68, 72, 75, 70, 69, 74, 71, 73, 76, 72]
treatment = [75, 79, 82, 78, 80, 77, 81, 76, 83, 79]

d = cohens_d(treatment, control)
g = hedges_g(treatment, control)
print(f"Cohen's d: {d:.3f}")
print(f"Hedges' g: {g:.3f}")

Further Reading

How to Read This Article

A statistics tutorial is a practical interpretation guide, not just a formula dump. It refers to the assumptions, notation, and reporting language that analysts need when they explain a result to a teacher, manager, client, or reviewer. The article body covers the specific topic, while the sections below create a common interpretation frame that readers can reuse across related metrics.

Reading goalWhat to focus onCommon mistake
DefinitionWhat the metric is and what quantity it summarizesTreating the formula as self-explanatory
Formula choiceSample versus population assumptions and notationUsing n when n-1 is required or vice versa
InterpretationWhether the result indicates concentration, spread, or riskCalling a large value good or bad without context

Frequently Asked Questions

How should I interpret a high standard deviation?

A high standard deviation means the observations are spread farther from the mean on average. Whether that spread is acceptable depends on the context: wide dispersion might signal risk in finance, instability in manufacturing, or genuine natural variation in scientific data.

Why do some articles mention n while others mention n-1?

The denominator reflects the difference between population and sample formulas. Population variance and population standard deviation use N because the full dataset is known. Sample variance and sample standard deviation often use n-1 because Bessel’s correction reduces bias when estimating population spread from a sample.

What is a statistical interpretation guide?

A statistical interpretation guide is a page that moves beyond arithmetic and explains meaning. It tells you what a metric is, when the formula applies, and how to describe the result in plain English without overstating certainty.

Can I cite this article in a report?

You should cite the underlying authoritative reference for formal work whenever possible. This page is best used as an explanatory bridge that helps you understand the concept before quoting the original standard or handbook.

Why include direct citations on every article page?

Direct citations give readers a route to verify the definition, notation, and assumptions. That improves trust and reduces the chance that a simplified explanation is mistaken for the entire technical standard.

Authoritative References

These sources define the concepts referenced most often across our articles. Bessel's correction is a sample adjustment, variance is a squared measure of spread, and standard deviation is the square root of variance expressed in the same units as the data.