Otázka:
Kdy bych měl * ne * povolit, aby se fixní efekt lišil napříč úrovněmi náhodného efektu v modelu smíšených efektů?
Mike Lawrence
2011-04-27 00:43:38 UTC
view on stackexchange narkive permalink

Vzhledem k predikované proměnné (P), náhodnému efektu (R) a fixnímu efektu (F) by se vešly dva * modely smíšených efektů (syntaxe lme4):

  m1 = lmer (P ~ (1 | R) + F) m2 = lmer (P ~ (1 + F | R) + F)  

Jak tomu rozumím , druhý model je ten, který umožňuje, aby se fixní efekt lišil na různých úrovních náhodného efektu.

Ve svém výzkumu obvykle používám modely smíšených efektů k analýze dat z experimentů prováděných na více lidských účastnících. Účastníka modeluji jako náhodný efekt a experimentální manipulace jako fixní efekty. Myslím, že má smysl a priori nechat, aby se míra, do jaké fixní efekty ovlivňují výkon v experimentu, u jednotlivých účastníků lišila. Mám však potíže s představováním si okolností, za kterých bych neměl povolit, aby se fixní efekty lišily na různých úrovních náhodného efektu, takže moje otázka zní:

Kdy by měl někdo ne povolit fixní efekt, který se mění na různých úrovních náhodného efektu?

Stále nerozumím syntaxi lme4, takže jsem zvědavý, až uvidím odpověď. Mám však tušení, že to souvisí s následujícím rozdílem: P je doba, kterou student stráví domácími úkoly, R je léčba na úrovni třídy a F je student. (Měli bychom mít také náhodný efekt pro samotnou třídu.) Pokud jsou všichni studenti podrobeni všem léčebným postupům R v různých časech, úrovně F jsou srovnatelné napříč třídami. Pokud měříme celou školu najednou, máme v každé třídě různé studenty, takže úrovně F v různých třídách spolu nemají nic společného.
Tři odpovědi:
mpiktas
2011-04-27 16:12:22 UTC
view on stackexchange narkive permalink

Nejsem odborníkem na modelování smíšených efektů, ale na otázku je mnohem snazší odpovědět, pokud je přeformulována v kontextu hierarchického regresního modelování. Naše pozorování tedy mají dva indexy $ P_ {ij} $ a $ F_ {ij} $ s indexem $ i $ představujícím třídu a $ j $ členy třídy. Hierarchické modely nám umožňují přizpůsobit lineární regresi, kde se koeficienty v různých třídách liší:

$$ Y_ {ij} = \ beta_ {0i} + \ beta_ {1i} F_ {ij} $$

Toto je naše regrese první úrovně. Regrese na druhé úrovni se provádí na prvních regresních koeficientech:

\ begin {align *} \ beta_ {0i} & = \ gamma_ {00} + u_ {0i} \\\ beta_ {1i} & = \ gamma_ {01} + u_ {1i} \ end {align *}

když to dosadíme v regresi první úrovně, dostaneme

\ begin {align *} Y_ {ij } & = (\ gamma_0 + u_ {0i}) + (\ gamma_ {01} + u_ {1i}) F_ {ij} \\ & = \ gamma_0 + u_ {0i} + u_ {1i} F_ {ij} + \ gamma_ {01} F_ {ij} \ end {align *}

Zde jsou $ \ gamma $ fixní efekty a $ u $ jsou náhodné efekty. Smíšený model odhaduje $ \ gamma $ a odchylky $ u $.

Model, který jsem si zapsal, odpovídá syntaxi lmer

  P ~ (1 + F | R) + F  

Nyní, pokud dáme $ \ beta_ {1i} = \ gamma_ {01} $ bez náhodného výrazu, který dostaneme

\ begin {align *} Y_ {ij} = \ gamma_0 + u_ {0i} + \ gamma_ {01} F_ {ij} \ end {align *}

což odpovídá lmer syntax

  P ~ (1 | R) + F  

Takže otázka se nyní stává, kdy můžeme vyloučit chybový člen z regrese druhé úrovně ? Kanonická odpověď je, že když jsme si jisti, že regresory (zde žádné nemáme, ale můžeme je zahrnout, přirozeně jsou ve třídách konstantní) v regresi druhé úrovně plně vysvětlí rozptyl koeficientů mezi třídami.

Takže v tomto konkrétním případě, pokud se koeficient $ F_ {ij} $ neliší, nebo je varianta $ u_ {1i} $ velmi malá, měli bychom pobavit myšlenku, že s prvním modelem jsme pravděpodobně lepší .

Poznámka . Uvedl jsem pouze algebraické vysvětlení, ale myslím si, že mít to na paměti je mnohem snazší vymyslet konkrétní aplikovaný příklad.

Pokud by první rovnice měla také chybný výraz: $ Y_ {ij} = β_ {0i} + β_ {1i} F_ {ij} + e_ {ij} $
ano, ale myslím, že jsem to kvůli jasnosti vynechal.
probabilityislogic
2011-07-27 21:27:26 UTC
view on stackexchange narkive permalink

O „Fixním efektu“ si můžete myslet jako o „náhodném efektu“ s nulovou složkou rozptylu.

Takže jednoduchá odpověď na to, proč nenecháte fixní efekt měnit, je nedostatečné důkazy pro „dostatečně velkou“ složku odchylky. Důkazy by měly pocházet jak z předběžných informací, tak z údajů. To je v souladu se základním principem „Occam's Razor“: nedělejte svůj model složitějším, než je třeba.

Mám sklon myslet na lineární smíšené modely následujícím způsobem, napište vícenásobná regrese takto:

$$ Y = X \ beta + Zu + e $$

Takže $ X \ beta $ je „pevná“ část modelu, $ Zu $ je „náhodná“ část a $ e $ je zbytek ve stylu OLS. Máme $ u \ sim N (0, D (\ theta)) $ pro parametry odchylky "náhodného efektu" $ \ theta $ a $ e \ sim N (0, \ sigma ^ {2} I) $. To dává standardní výsledky $ (Zu + e) ​​\ sim N (0, ZD (\ theta) Z ^ {T} + \ sigma ^ {2} I) $, což znamená, že máme:

$$ Y \ sim N (X \ beta, ZD (\ theta) Z ^ {T} + \ sigma ^ {2} I) $$

Porovnejte to s regresí OLS (která má $ Z = 0 $) a dostaneme:

$$ Y \ sim N (X \ beta, \ sigma ^ {2} I) $$

Takže „náhodná“ část na model lze nahlížet jako na způsob, jak specifikovat předchozí informace o korelační struktuře šumové nebo chybové složky v modelu. OLS v zásadě předpokládá, že jakákoli chyba z pevné části modelu v jednom případě je k předpovědi jakékoli další chyby zbytečná, i když jsme pevnou část modelu znali s jistotou. Přidání náhodného efektu v zásadě znamená, že si myslíte, že některé chyby budou pravděpodobně užitečné při předpovídání dalších chyb.

Robert Long
2019-12-06 17:46:15 UTC
view on stackexchange narkive permalink

Toto je docela stará otázka s několika velmi dobrými odpověďmi, myslím si však, že nová odpověď může být přínosem pro řešení pragmatičtější perspektivy.

Kdy by nemělo být povoleno, aby se fixní efekt lišil na různých úrovních náhodného efektu?

Nebudu se zabývat problémy, které již byly popsány v ostatních odpovědích, místo toho budu odkazovat na nyní známý, i když bych raději řekl „neslavný“ dokument Barra a spol. (2013), často jen „Keep to maximální "

Barr, D. J., Levy, R., Scheepers, C. a Tily, H. J., 2013. Struktura náhodných efektů pro testování potvrzující hypotézy: Udržujte ji maximální. Journal of memory and language, 68 (3), pp.255-278.

V tomto článku autoři tvrdí, že by mělo být umožněno, aby se všechny fixní efekty lišily na různých úrovních faktorů seskupení (náhodné zachycení). Jejich argument je docela přesvědčivý - v zásadě to, že jim nedovolí li se měnit, ukládá modelu omezení. To je dobře popsáno v ostatních odpovědích. S tímto přístupem však existují potenciálně vážné problémy, které popsal Bates el al (2015):

Bates, D., Kliegl, R., Vasishth, S. a Baayen, H., 2015. Parsimonious mixed models. předtisk arXiv arXiv: 1506.04967

Zde stojí za zmínku, že Bates je primárním autorem balíčku lme4 pro přizpůsobení smíšených modelů v R, což je pravděpodobně nejpoužívanější balíček pro takové modely. Bates a kol. Poznamenávají, že v mnoha aplikacích v reálném světě data jednoduše nepodporují maximální strukturu náhodných efektů, často proto, že v každém klastru není dostatečný počet pozorování pro příslušné proměnné. To se může projevit v modelech, které se neshodují, nebo jsou singulární v náhodných efektech. Svědčí o tom velké množství otázek o těchto modelech na tomto webu. Poznamenávají také, že Barr et al použili relativně jednoduchou simulaci, přičemž jako základ pro jejich práci byly použity „dobře vychované“ náhodné efekty. Místo toho Bates et al navrhují následující přístup:

Navrhli jsme (1) použít PCA k určení rozměrnosti matice rozptylu-kovarianční struktury struktury náhodných efektů, (2) zpočátku omezit korelační parametry na nulu, zvláště když počáteční pokus přizpůsobit maximální model ne konvergovat a (3) vypustit z modelu nevýznamné složky odchylek a jejich přidružené korelační parametry

Ve stejném příspěvku také poznamenávají:

Důležité je, že selhání konvergování není způsobeno vadami algoritmu odhadu, ale je přímým důsledkem pokusu o přizpůsobení modelu, který je příliš složitý na to, aby byl správně podporován daty.

A:

maximální modely nejsou nutné k ochraně před antikonzervativem závěry. Tuto ochranu plně poskytují komplexní modely, které se řídí realistickými očekáváními o složitosti, kterou mohou data podporovat. Ve statistikách, stejně jako jinde ve vědě, je šetrnost ctností, nikoli svěrákem.

Bates a kol. (2015)

Z více aplikovaného hlediska je třeba vzít v úvahu, zda proces generování dat, biologická / fyzikální / chemická teorie, která je základem dat, by měl vést analytika ke specifikaci struktury náhodných efektů.

„často proto, že v každém klastru není dostatečný počet pozorování“, můžete to rozvinout?Myslel jsem, že minimální požadovaný počet na klastr je 1?Toto je dokonce i vaše přijatá odpověď zde: https://stats.stackexchange.com/questions/388937/minimum-sample-size-per-cluster-in-a-random-effect-model
@LuckyPal otázka, na kterou jste odkazovali, se týká náhodných zachycení, tato se týká náhodných svahů.Jak byste odhadli sklon pro velikost vzorku 1?
Bod zaujatý.Dík!+1 Ale můžeme odhadnout pevný sklon pouze s jedním pozorováním na klastr, pokud je klastrů dost, že?To se zdá trochu divné.Možná, že když se vyskytnou konvergenční problémy s náhodným sklonem kvůli velikosti vzorku, odhad sklonu - ať už je to náhodný nebo ne - může být obecně diskutabilní?
@LuckyPal ano, odhad pevného sklonu je napříč všemi klastry, takže to obvykle není problém.Souhlasím s tím, že odhad náhodného svahu s malými shluky by mohl mít za následek problémy s konvergencí, ale neměl by to ovlivnit odhad pevného sklonu.
Takže v zásadě má Barr pravdu z teoretického hlediska a Bates má pravdu z hlediska odhadů.
Není to tak jednoduché.Barr představil kulturu, kde analytici chtěli přizpůsobit nejsložitější model (často se singulárním přizpůsobením - i když si to tehdy neuvědomovali).Jejich závěry byly velmi často neplatné.Moje filozofie je, že podle pokynů odborníka v dané oblasti by náhodná struktura měla být co nejjednodušší.


Tyto otázky a odpovědi byly automaticky přeloženy z anglického jazyka.Původní obsah je k dispozici na webu stackexchange, za který děkujeme za licenci cc by-sa 3.0, pod kterou je distribuován.
Loading...