Pokud jsem vypočítal správně, logická regrese asymptoticky má stejnou sílu jako t-test. Chcete-li to vidět, zapište si jeho logaritmickou pravděpodobnost a vypočítejte očekávání jeho hesenského na jeho globálním maximu (jeho negativní odhady matice rozptylu a kovariance řešení ML). Neobtěžujte se obvyklou logistickou parametrizací: je jednodušší ji parametrizovat dvěma dotyčnými pravděpodobnostmi. Podrobnosti budou záviset na tom, jak přesně testujete významnost logistického regresního koeficientu (existuje několik metod).
To, že tyto testy mají podobné schopnosti, by nemělo být příliš překvapivé, protože teorie chí-kvadrát pro ML odhady jsou založeny na normální aproximaci logaritmické pravděpodobnosti a t-test je založen na normální aproximaci distribucí proporcí. Podstatou je, že obě metody vytvářejí stejné odhady obou proporcí a oba odhady mají stejné standardní chyby.
Skutečná analýza může být přesvědčivější. Pojďme si osvojit obecnou terminologii pro hodnoty v dané skupině (A nebo B):
- $ p $ je pravděpodobnost 1.
- $ n $ je velikost každé sady losování.
- $ m $ je počet sad losování.
- $ N = mn $ je množství dat.
- $ k_ {ij} $ (rovná se $ 0 $ nebo $ 1 $) je hodnota výsledku $ j ^ \ text {th} $ v sadě losování $ i ^ \ text {th} $.
- $ k_i $ je celkový počet jednotek v sadě losování $ i ^ \ text {th} $.
- $ k $ je celkový počet jednotek.
Logistická regrese je v podstatě odhad ML pro $ p $. Jeho logaritmus je dán vztahem
$$ \ log (\ mathbb {L}) = k \ log (p) + (Nk) \ log (1-p). $$
Jeho deriváty s ohledem na parametr $ p $ jsou
$$ \ frac {\ částečné \ log (\ mathbb {L})} {\ částečné p} = \ frac {k} {p} - \ frac {Nk} {1-p} \ text {and} $$
$$ - \ frac {\ částečné ^ 2 \ log (\ mathbb {L})} {\ částečné p ^ 2} = \ frac {k} {p ^ 2} + \ frac {Nk} {(1-p) ^ 2}. $$
Nastavením prvního na nulu se získá odhad ML $ {\ hat {p} = k / N} $ a jeho vložením do převrácené hodnoty druhého výrazu se získá varianta $ \ hat {p} (1 - \ hat { p}) / N $, což je druhá mocnina standardní chyby.
t statistika bude získána z odhadů na základě dat seskupených podle sad losování; jmenovitě jako rozdíl průměrů (jeden ze skupiny A a druhý ze skupiny B) dělený standardní chybou tohoto rozdílu, která se získá ze směrodatných odchylek průměrů. Podívejme se tedy na průměr a směrodatnou odchylku pro danou skupinu. Průměr se rovná $ k / N $, což je totožné s odhadem ML $ \ hat {p} $. Dotyčná směrodatná odchylka je směrodatná odchylka čerpacích prostředků; to znamená, že jde o směrodatnou odchylku množiny $ k_i / n $. Zde je podstata věci, pojďme tedy prozkoumat některé možnosti.
-
Předpokládejme, že data nejsou vůbec seskupena do losování: tj. $ N = 1 $ a $ m = N $. $ K_ {i} $ jsou prostředky losování. Jejich ukázková varianta se rovná $ N / (N-1) $ krát $ \ hat {p} (1 - \ hat {p}) $. Z toho vyplývá, že standardní chyba je shodná se standardní chybou ML kromě faktoru $ \ sqrt {N / (N-1)} $, který je v podstatě $ 1 $, když $ N = 1800 $. Proto - kromě tohoto malého rozdílu - budou všechny testy založené na logistické regrese stejné jako t-test a dosáhneme v podstatě stejné síly.
-
Když data jsou seskupena, (true) rozptyl $ k_i / n $ se rovná $ p (1-p) / n $, protože statistika $ k_i $ představuje součet proměnných $ n $ Bernoulli ($ p $), každá s odchylka $ p (1-p) $. Proto očekávaná standardní chyba průměru $ m $ těchto hodnot je druhá odmocnina $ p (1-p) / n / m = p (1-p) / N $, jen jako předtím.
Číslo 2 naznačuje, že síla testu by se neměla znatelně lišit v závislosti na tom, jak jsou rozděleny losování (tj. s tím, jak se $ m $ a $ n $ mění podle $ mn = N $), kromě snad malý efekt z úpravy v rozptylu vzorku (pokud jste nebyli tak hloupí, že byste v každé skupině použili extrémně málo sad remíz).
Omezené simulace pro porovnání $ p = 0,70 $ až $ p = 0,74 $ (s 10 000 iteracemi za kus) zahrnující $ m = 900, n = 1 $ (v podstatě logistická regrese); $ m = n = 30 $; a $ m = 2, n = 450 $ (maximalizace úpravy rozptylu vzorku) to potvrzují: síla (při $ \ alpha = 0,05 $, jednostranná) je v prvních dvou případech 0,59, zatímco ve třetím, kde korekční faktor provede podstatnou změnu (nyní existují pouze dva stupně volnosti místo 1798 nebo 58), klesne na 0,36. Další test porovnávající $ p = 0,50 $ s $ p = 0,52 $ dává mocnosti 0,22, 0,21 a 0,15, v tomto pořadí: opět pozorujeme pouze mírný pokles od bez seskupení do losování (= logistická regrese) do seskupení do 30 skupin a podstatný rozbalovací seznam na pouhé dvě skupiny.
Morálka této analýzy je:
- Při rozdělení svého oddílu o mnoho neztratíte Datové hodnoty $ N $ do velkého počtu $ m $ relativně malých skupin „remíz“.
- Při malém počtu skupin můžete přijít o znatelnou sílu ($ m $ je malé, $ n $ - množství dat na skupinu - je velké).
- Nejlepší je, když své datové hodnoty $ N $ neseskupujete vůbec do „losování“. Stačí je analyzovat tak, jak jsou (pomocí jakéhokoli rozumného testu, včetně logistické regrese a t-testování).