Melampaui Kepentingan Statistik: Memahami Saiz Kesan
Saiz kesan mengukur magnitud sesuatu perbezaan atau hubungan, tanpa bergantung pada saiz sampel. Sementara nilai-p memberitahu anda sama ada kesan itu signifikan secara statistik, saiz kesan memberitahu anda betapa bermakna secara praktikal kesan itu. Perbezaan ini penting untuk membuat keputusan berasaskan bukti dalam penyelidikan, perubatan, pendidikan, dan perniagaan.
Pertimbangkan ujian farmaseutikal di mana ubat baharu menunjukkan peningkatan yang signifikan secara statistik (p < 0.001) berbanding plasebo. Tanpa saiz kesan, anda tidak tahu sama ada peningkatan itu 0.1% atau 50%. Saiz kesan memberikan konteks penting ini, membantu pihak berkepentingan menentukan sama ada kesan itu berbaloi dengan kos, kesan sampingan, atau usaha pelaksanaan.
Ukuran saiz kesan yang paling biasa untuk membandingkan dua kumpulan ialah Cohen's d, yang menyatakan perbezaan antara min dalam unit sisihan piawai. Penstandardan ini membolehkan perbandingan merentasi kajian dan skala pengukuran yang berbeza.
Mengapa Saiz Kesan Penting
Kepentingan statistik sangat dipengaruhi oleh saiz sampel. Dengan sampel yang cukup besar, perbezaan yang remeh pun menjadi “signifikan.” Sebaliknya, kesan penting mungkin tidak mencapai kepentingan dalam sampel kecil. Saiz kesan menyelesaikan masalah ini dengan menyediakan ukuran yang bebas daripada saiz sampel.
Perangkap Kepentingan
Sebab utama menggunakan saiz kesan:
- Meta-analisis: Saiz kesan boleh digabungkan merentasi kajian untuk menganggar kesan keseluruhan
- Analisis kuasa: Diperlukan untuk mengira saiz sampel yang diperlukan untuk kajian masa depan
- Keputusan praktikal: Membantu menentukan sama ada intervensi berbaloi untuk dilaksanakan
- Replikasi: Menyediakan sasaran untuk kajian replikasi yang perlu dipadankan
Cohen's d: Ukuran Saiz Kesan Piawai
Cohen's d menyatakan perbezaan antara dua min kumpulan dalam unit sisihan piawai terkumpul:
Cohen's d
Di mana M₁ dan M₂ ialah min kumpulan, dan sp ialah sisihan piawai terkumpul yang dikira sebagai:
Pooled Standard Deviation
Tanda d menunjukkan arah: positif apabila M₁ > M₂, negatif apabila M₁ < M₂. Selalunya nilai mutlak |d| dilaporkan apabila arah sudah jelas daripada konteks.
Mengapa Terkumpulkan Sisihan Piawai?
Ukuran Saiz Kesan Alternatif
Walaupun Cohen's d yang paling biasa, alternatif wujud untuk situasi tertentu:
Hedges' g: Saiz Kesan Diperbetulkan Bias
Cohen's d sedikit melebih-anggarkan saiz kesan populasi dalam sampel kecil. Hedges' g mengaplikasikan faktor pembetulan:
Hedges' g Correction
Untuk sampel melebihi 20 setiap kumpulan, perbezaannya tidak ketara. Untuk sampel kecil (n < 20), Hedges' g lebih diutamakan.
Glass's Δ: Apabila Varians Berbeza
Apabila satu kumpulan ialah kawalan dengan kebolehubahan yang diketahui, gunakan hanya sisihan piawai kumpulan kawalan sebagai penyebut:
Glass's Delta
Ini berguna apabila rawatan mungkin mempengaruhi varians (contohnya, intervensi yang membantu pelajar lemah lebih daripada pelajar cemerlang).
Mentafsir Saiz Kesan: Panduan Cohen
Jacob Cohen mencadangkan konvensyen berikut untuk mentafsir nilai d:
| Saiz Kesan (d) | Tafsiran | Pertindihan |
|---|---|---|
| 0.2 | Kecil | 85% pertindihan antara kumpulan |
| 0.5 | Sederhana | 67% pertindihan antara kumpulan |
| 0.8 | Besar | 53% pertindihan antara kumpulan |
| 1.2 | Sangat Besar | 40% pertindihan antara kumpulan |
| 2.0 | Amat Besar | 19% pertindihan antara kumpulan |
Konteks Penting
Contoh Terperinci: Intervensi Pendidikan
Sebuah sekolah menguji program bacaan baharu. Kumpulan kawalan (n=25): min=72, SD=12. Kumpulan rawatan (n=30): min=79, SD=14. Kira Cohen's d:
Kira Varians Terkumpul
Kira SD Terkumpul
Kira Cohen's d
Tafsirkan
Ini bermakna jika anda mengambil seorang pelajar secara rawak daripada kumpulan rawatan dan seorang daripada kumpulan kawalan, pelajar rawatan akan mendapat markah lebih tinggi kira-kira 64% daripada masa (dikira daripada pertindihan).
Pelaksanaan Python
Kira saiz kesan secara pengaturcaraan dengan selang keyakinan:
import numpy as np
from scipy import stats
def cohens_d(group1, group2):
"""Calculate Cohen's d for two independent groups."""
n1, n2 = len(group1), len(group2)
var1, var2 = np.var(group1, ddof=1), np.var(group2, ddof=1)
# Pooled standard deviation
pooled_std = np.sqrt(((n1-1)*var1 + (n2-1)*var2) / (n1+n2-2))
# Cohen's d
d = (np.mean(group1) - np.mean(group2)) / pooled_std
return d
def hedges_g(group1, group2):
"""Calculate Hedges' g (bias-corrected effect size)."""
n1, n2 = len(group1), len(group2)
d = cohens_d(group1, group2)
# Correction factor for small sample bias
correction = 1 - 3 / (4*(n1+n2) - 9)
return d * correction
# Example usage
control = [68, 72, 75, 70, 69, 74, 71, 73, 76, 72]
treatment = [75, 79, 82, 78, 80, 77, 81, 76, 83, 79]
d = cohens_d(treatment, control)
g = hedges_g(treatment, control)
print(f"Cohen's d: {d:.3f}")
print(f"Hedges' g: {g:.3f}")