Σ
SDCalc
OrtaUygulamalar·12 min

Cohen’in d ve Etki Büyüklüğü Hesaplamaları

Cohen’in d, Hedges’ g ve Glass’ın deltası dahil etki büyüklüğü hesaplamalarını öğrenin. Standart sapma kullanarak p-değerlerinin ötesinde pratik anlamlılığı ölçmeyi keşfedin.

İstatistiksel Anlamlılığın Ötesinde: Etki Büyüklüğünü Anlamak

Etki büyüklüğü, örneklem büyüklüğünden bağımsız olarak bir farkın veya ilişkinin büyüklüğünü ölçer. p-değerleri size bir etkinin istatistiksel olarak anlamlı olup olmadığını söylerken, etki büyüklükleri bu etkinin pratik olarak ne kadar anlamlı olduğunu söyler. Bu ayrım, araştırma, tıp, eğitim ve iş dünyasında kanıta dayalı karar verme için çok önemlidir.

Yeni bir ilacın plaseboya göre istatistiksel olarak anlamlı bir iyileşme (p < 0,001) gösterdiği bir ilaç denemesini düşünün. Etki büyüklüğü olmadan, iyileşmenin %0,1 mi yoksa %50 mi olduğunu bilemezsiniz. Etki büyüklüğü bu kritik bağlamı sağlayarak paydaşların etkinin maliyet, yan etkiler veya uygulama çabasına değip değmeyeceğini belirlemesine yardımcı olur.

İki grubu karşılaştırmak için en yaygın etki büyüklüğü ölçüsü, ortalamalar arasındaki farkı standart sapma birimlerinde ifade eden Cohen’in d’sidir. Bu standartlaştırma, farklı çalışmalar ve ölçüm ölçekleri arasında karşılaştırmayı mümkün kılar.

Etki Büyüklüğü Neden Önemlidir?

İstatistiksel anlamlılık örneklem büyüklüğünden büyük ölçüde etkilenir. Yeterince büyük bir örneklemle önemsiz farklar bile “anlamlı” hale gelir. Tersine, küçük örneklemlerde önemli etkiler anlamlılığa ulaşamayabilir. Etki büyüklüğü, örneklem büyüklüğünden bağımsız bir ölçü sağlayarak bu sorunu çözer.

Anlamlılık Tuzağı

n=10.000 olan bir çalışma, 100 puanlık bir ölçekte 0,5 puanlık bir fark için p < 0,001 gösterebilir. Bu istatistiksel olarak anlamlıdır ancak pratik olarak anlamsızdır (d ≈ 0,05). p-değerlerinin yanı sıra her zaman etki büyüklüklerini raporlayın.

Etki büyüklüğünü kullanmanın temel nedenleri:

  • Meta-analiz: Etki büyüklükleri, genel etkileri tahmin etmek için çalışmalar arasında birleştirilebilir
  • Güç analizi: Gelecekteki çalışmalar için gerekli örneklem büyüklüklerini hesaplamak için gereklidir
  • Pratik kararlar: Müdahalelerin uygulamaya değer olup olmadığını belirlemeye yardımcı olur
  • Tekrarlama: Tekrarlama çalışmalarının eşleşmesi gereken bir hedef sağlar

Cohen’in d: Standart Etki Büyüklüğü Ölçüsü

Cohen’in d, iki grup ortalaması arasındaki farkı birleştirilmiş standart sapma birimleriyle ifade eder:

Cohen’in d

d = (M₁ - M₂) / sp

Burada M₁ ve M₂ grup ortalamaları, sp ise birleştirilmiş standart sapmadır:

Birleştirilmiş Standart Sapma

sp = √[((n₁-1)s₁² + (n₂-1)s₂²) / (n₁+n₂-2)]

d’nin işareti yönü gösterir: M₁ > M₂ olduğunda pozitif, M₁ < M₂ olduğunda negatif. Yön bağlamdan açıkça anlaşıldığında genellikle mutlak değer |d| raporlanır.

Standart Sapma Neden Birleştirilir?

Birleştirme, her iki grubun eşit popülasyon varyanslarına sahip olduğunu varsayar. Bu, tek bir grubun SS’sini kullanmaktan daha kararlı bir tahmin verir ve bağımsız örneklem t-testinin varsayımlarıyla eşleşir.

Alternatif Etki Büyüklüğü Ölçüleri

Cohen’in d en yaygın olmakla birlikte, belirli durumlar için alternatifler mevcuttur:

Hedges’ g: Yanlılık Düzeltmeli Etki Büyüklüğü

Cohen’in d, küçük örneklemlerde popülasyon etki büyüklüğünü hafifçe fazla tahmin eder. Hedges’ g bir düzeltme faktörü uygular:

Hedges’ g Düzeltmesi

g = d × (1 - 3/(4(n₁+n₂) - 9))

Grup başına 20’nin üzerindeki örneklemler için fark ihmal edilebilir düzeydedir. Küçük örneklemler (n < 20) için Hedges’ g tercih edilir.

Glass’ın Δ: Varyanslar Farklı Olduğunda

Bir grup bilinen değişkenliğe sahip bir kontrol grubu olduğunda, yalnızca kontrol grubunun standart sapmasını payda olarak kullanın:

Glass’ın Deltası

Δ = (M₁ - M₂) / s_control

Bu, tedavinin varyansı etkileyebileceği durumlarda kullanışlıdır (ör. düşük performanslı öğrencilere yüksek performanslılardan daha çok yardımcı olan bir müdahale).

Etki Büyüklüklerini Yorumlama: Cohen’in Kılavuzu

Jacob Cohen, d değerlerini yorumlamak için şu ölçütleri önermiştir:

Etki Büyüklüğü (d)YorumÖrtüşme
0,2KüçükGruplar arası %85 örtüşme
0,5OrtaGruplar arası %67 örtüşme
0,8BüyükGruplar arası %53 örtüşme
1,2Çok BüyükGruplar arası %40 örtüşme
2,0DevasaGruplar arası %19 örtüşme

Bağlam Önemlidir

Bunlar kesin kurallar değil, kaba kılavuzlardır. Bazı alanlarda d = 0,2 oldukça anlamlı olabilir (ör. kalp krizi riskini azaltma), diğerlerinde d = 0,8 beklenen olabilir (ör. özel ders ile ders almama karşılaştırması).

Çözümlü Örnek: Eğitim Müdahalesi

Bir okul yeni bir okuma programını test ediyor. Kontrol grubu (n=25): ortalama=72, SS=12. Tedavi grubu (n=30): ortalama=79, SS=14. Cohen’in d’sini hesaplayın:

1

Birleştirilmiş Varyansı Hesaplayın

sp² = [(25-1)(12)² + (30-1)(14)²] / (25+30-2) = [24×144 + 29×196] / 53 = [3456 + 5684] / 53 = 172,45
2

Birleştirilmiş SS’yi Hesaplayın

sp = √172,45 = 13,13
3

Cohen’in d’sini Hesaplayın

d = (79 - 72) / 13,13 = 7 / 13,13 = 0,53
4

Yorumlayın

Orta düzey bir etki büyüklüğü (d = 0,53). Tedavi grubu kontrolden yaklaşık yarım standart sapma daha yüksek puan almıştır.

Bu, tedavi grubundan rastgele bir öğrenci ve kontrol grubundan rastgele bir öğrenci seçerseniz, tedavi öğrencisinin yaklaşık %64 oranında daha yüksek puan alacağı anlamına gelir (örtüşmeden hesaplanır).

Python Uygulaması

Güven aralıklarıyla etki büyüklüklerini programatik olarak hesaplayın:

python
import numpy as np
from scipy import stats

def cohens_d(group1, group2):
    """Calculate Cohen's d for two independent groups."""
    n1, n2 = len(group1), len(group2)
    var1, var2 = np.var(group1, ddof=1), np.var(group2, ddof=1)

    # Pooled standard deviation
    pooled_std = np.sqrt(((n1-1)*var1 + (n2-1)*var2) / (n1+n2-2))

    # Cohen's d
    d = (np.mean(group1) - np.mean(group2)) / pooled_std
    return d

def hedges_g(group1, group2):
    """Calculate Hedges' g (bias-corrected effect size)."""
    n1, n2 = len(group1), len(group2)
    d = cohens_d(group1, group2)

    # Correction factor for small sample bias
    correction = 1 - 3 / (4*(n1+n2) - 9)
    return d * correction

# Example usage
control = [68, 72, 75, 70, 69, 74, 71, 73, 76, 72]
treatment = [75, 79, 82, 78, 80, 77, 81, 76, 83, 79]

d = cohens_d(treatment, control)
g = hedges_g(treatment, control)
print(f"Cohen's d: {d:.3f}")
print(f"Hedges' g: {g:.3f}")