Je možné pro dané konstantní číslo $ r $ (např. 4) najít rozdělení pravděpodobnosti pro $ X $, takže máme $ \ mathrm {Var} (X) = r $?
Je možné pro dané konstantní číslo $ r $ (např. 4) najít rozdělení pravděpodobnosti pro $ X $, takže máme $ \ mathrm {Var} (X) = r $?
Za předpokladu, že máte na mysli „je možné najít rozdělení pravděpodobnosti pro $ X $“, je odpověď ano, protože jste nezadali žádná kritéria, která musí $ X $ splňovat. Ve skutečnosti existuje nekonečné množství možných distribucí, které by tuto podmínku splňovaly. Jen zvažte normální rozdělení, $ \ mathcal {N} (x; \ mu, \ sigma ^ 2) $. Můžete nastavit $ \ sigma ^ 2 = r $ a $ \ mu $ může mít libovolnou hodnotu, která se vám líbí - pak budete mít $ Var [X] = r $ podle potřeby.
Ve skutečnosti je normální distribuce je v tomto ohledu poměrně zvláštní, protože se jedná o maximální distribuci pravděpodobnosti entropie pro daný průměr a rozptyl.
Tuto otázku lze interpretovat tak, aby byla zajímavá a ne zcela triviální. Vzhledem k něčemu $ X $, které vypadá jako náhodná proměnná, do jaké míry je možné k jeho hodnotám přiřadit pravděpodobnosti (nebo posunout existující pravděpodobnosti) takovým způsobem, aby se jeho rozptyl rovnal nějakému předem určenému číslu $ r $? Odpověď je, že jsou povoleny všechny možné hodnoty $ r \ ge 0 $, a to až do limitu určeného rozsahem $ X $.
Potenciální zájem o takovou analýzu spočívá v myšlence změny míry pravděpodobnosti při zachování stálé náhodné proměnné za účelem dosažení konkrétního cíle. Ačkoli je tato aplikace jednoduchá, zobrazuje některé z myšlenek, které jsou základem Girsanovovy věty, což je výsledek zásadní pro matematické finance.
Pojďme tuto otázku přepracovat v pečlivém a jednoznačném znění móda. Předpokládejme, že
$$ X: (\ Omega, \ mathfrak {S}) \ to \ mathbb {R} $$
je měřitelná funkce definovaná na měrném prostoru $ \ Omega $ se sigma-algebrou $ \ mathfrak {S} $. Kdy je možné pro dané reálné číslo $ r \ gt 0 $ najít míru pravděpodobnosti $ \ mathbb {P} $ v tomto prostoru, pro který $ \ text {Var} (X) = r $?
Věřím, že odpověď je, že toto je možné, když $ \ sup (X) - \ inf (X) \ gt 2 \ sqrt {r} $. (Rovnost může platit, pokud supremum a infimum jsou oba dosaženi: to znamená, že ve skutečnosti jsou maximální a minimální $ X $.) Když buď $ \ sup (X) = \ infty $ nebo $ \ inf (X) = - \ infty $, tato podmínka neukládá žádné limit na $ r $ a pak jsou možné všechny nezáporné hodnoty rozptylu.
Důkaz je konstrukcí. Začněme jeho jednoduchou verzí pečujte o detaily, upřesněte základní myšlenku a poté přejděte ke skutečné konstrukci.
Nechte $ x $ jako obrázek $ X $: to znamená, že existuje $ \ omega_x \ in \ Omega $, pro které $ X (\ omega_x) = x $. Definujte nastavenou funkci $ \ mathbb {P}: \ mathfrak {S} \ na [0,1] $ jako indikátor $ \ omega_x $: tj. $ \ Mathbb {P} (A) = 0 $ pokud $ \ omega_x \ notin A $ a $ \ mathbb {P} (A) = 1 $, když $ \ omega_x \ v A $.
Protože $ \ mathbb {P} (\ Omega) = 1 $ , samozřejmě $ \ mathbb P $ splňuje první dva axiomy pravděpodobnosti. Je nutné ukázat, že splňuje třetí; jmenovitě, že je sigma-aditivní. Ale je to téměř stejně zřejmé: kdykoli je $ \ {E_i, i = 1, 2, \ ldots \} $ konečná nebo spočetně nekonečná sada vzájemně se vylučujících událostí, pak žádný z nich neobsahuje $ \ omega_x $ - ve kterém případ $ \ mathbb {P} (E_i) = 0 $ pro všechny $ i $ - nebo přesně jeden z nich obsahuje $ \ omega_x $, v takovém případě $ \ mathbb {P} (E_j) = 1 $ pro konkrétní $ j $ a jinak $ \ mathbb {P} (E_i) = 0 $ pro všechny $ i \ ne j $. V obou případech
$$ \ mathbb {P} \ left (\ cup_i E_i \ right) = \ sum_i \ mathbb {P} (E_i) $$
protože obě strany jsou buď $ 0 $, nebo oba $ 1 $.
Protože $ \ mathbb {P} $ koncentruje veškerou pravděpodobnost na $ \ omega_x $, je distribuce $ X $ soustředěna na $ x $ a $ X $ musí mít nulovou odchylku.
Nechť $ x_1 \ le x_2 $ jsou dvě hodnoty v rozsahu $ X $; tj. $ X (\ omega_1) = x_1 $ a $ X (\ omega_2) = x_2 $. Podobným způsobem jako v předchozím kroku definujte míru $ \ mathbb {P} $ jako vážený průměr indikátorů $ \ omega_1 $ a $ \ omega_2 $. Pro určení $ p $ použijte nezáporné váhy $ 1-p $ a $ p $. Stejně jako dříve zjistíme, že $ \ mathbb {P} $ - je konvexní kombinací indikátorových měr popsaných v (1) - je mírou pravděpodobnosti. Distribuce $ X $ s ohledem na toto opatření je distribucí Bernoulli $ (p) $, která byla zmenšena o $ x_2-x_1 $ a posunuta o $ -x_1 $. Protože rozptyl distribuce Bernoulliho $ (p) $ je $ p (1-p) $, musí být rozptyl $ X $ $ (x_2-x_1) ^ 2p (1-p) $.
Okamžitým důsledkem (2) je, že jakékoli $ r $, pro které existují $ x_1 \ le x_2 $ v rozmezí $ X $ a $ 0 \ le p \ lt 1 $, pro které
$$ r = (x_2-x_1) ^ 2p (1-p) $$
může být rozptyl $ X $. Protože $ 0 \ le p (1-p) \ le 1/4 $, to znamená
$$ 2 \ sqrt {r} = \ sqrt {4 r} \ le \ sqrt {\ frac {r} {p (1-p)}} = \ sqrt {(x_2-x_1) ^ 2} = x_2-x_1 \ le \ sup (X) - \ inf (X), $$
s rovností držení právě tehdy, když $ X $ má maximum a minimum.
Naopak, pokud $ r $ překročí tuto hranici $ (\ sup (X) - \ inf (X)) ^ 2/4 $ , pak není možné žádné řešení, protože již víme, že rozptyl libovolné ohraničené náhodné proměnné nemůže překročit jednu čtvrtinu čtverce jejího rozsahu.
Pečlivé zvážení případů pro $ r $: pokud $ r = 0 $, distribuce je zdegenerovaná, ale $ X $ může mít jakýkoli průměr. To znamená, že $ \ Pr (X = \ mu) = 1 $ a $ \ Pr (X = c) = 0 $ za libovolný $ c \ neq \ mu $. Můžeme tedy najít mnoho možných distribucí pro $ X $, ale jsou indexovány a zcela specifikovány, $ \ mu \ in \ mathbb {R} $.
Pokud $ r<0 $, žádná distribuce nemůže najdete, protože $ \ mathrm {Var} (X) = \ mathbb {E} (X- \ mu_X) ^ 2 \ geq 0 $.
U $ r>0 $ bude odpověď záviset na tom, co o $ X $ jsou známy další informace. Například pokud je známo, že $ X $ má průměrnou hodnotu $ \ mu $, pak pro libovolné $ \ mu \ in \ mathbb {R} $ a $ r>0 $ můžeme najít distribuci s těmito momenty tak, že vezmeme $ X \ sim N ( \ mu, r) $. Toto není jedinečné řešení problému shody mezi průměrem a rozptylem, ale je to jediné normálně distribuované řešení (a ze všech možných řešení toto je to, které maximalizuje entropii, jak zdůrazňuje Daniel). Pokud jste také chtěli odpovídat např. třetí centrální moment nebo vyšší, pak byste měli zvážit širší škálu pravděpodobnostních distribucí.
Předpokládejme, že jsme místo toho měli nějaké informace o distribuci $ X $ spíše než jeho okamžiky. Například pokud víme, že $ X $ následuje Poissonovo rozdělení, pak by jedinečné řešení bylo $ X \ sim \ mathrm {Poisson} (r) $. Pokud víme, že $ X $ následuje exponenciální distribuci, pak opět existuje jedinečné řešení $ X \ sim \ mathrm {Exponential} (\ frac {1} {\ sqrt {r}}) $, kde jsme našli parametr řešením $ \ mathrm {Var} (X) = r = \ frac {1} {\ lambda ^ 2} $.
V ostatních případech můžeme najít celou rodinu řešení. Pokud víme, že $ X $ sleduje obdélníkové (kontinuální uniformní) rozdělení, pak můžeme najít jedinečnou šířku $ w $ pro distribuci řešením $ \ mathrm {Var} (X) = r = \ frac {w ^ 2} {12} $. Ale bude existovat celá rodina řešení, $ X \ sim U (a, a + w) $ parametrizovaných pomocí $ a \ in \ mathbb {R} $ - distribuce v této sadě jsou vzájemnými překlady. Podobně, pokud je $ X $ normální, pak by fungovala jakákoli distribuce $ X \ sim N (\ mu, r) $ (takže máme celou sadu řešení indexovaných $ \ mu $, což může být opět jakékoli reálné číslo a opět rodina jsou všechny překlady toho druhého). Pokud $ X $ sleduje distribuci gama, pak pomocí parametrizace ve tvaru tvaru můžeme získat celou rodinu řešení, $ X \ sim \ mathrm {Gamma} (\ frac {r} {\ theta ^ 2}, \ theta) $ parametrizováno $ \ theta > 0 $. Členové této rodiny nejsou vzájemnými překlady. Abychom vám pomohli představit si, jak může „rodina řešení“ vypadat, zde je několik příkladů normálních distribucí indexovaných pomocí $ \ mu $ a poté gama distribucí indexovaných pomocí $ \ theta $, vše s rozptylem rovným čtyřem, což odpovídá příkladu $ r = 4 $ ve vaší otázce.
Na druhou stranu pro některé distribuce může nebo nemusí být možné najít řešení, v závislosti na na hodnotě $ r $. Například pokud $ X $ musí být proměnná Bernoulli, pak pro $ 0 \ leq r \ lt 0,25 $ existují dvě možná řešení $ X \ sim \ mathrm {Bernoulli} (p) $, protože existují dvě pravděpodobnosti $ p $, které řeší rovnice $ \ mathrm {Var} (X) = r = p (1-p) $ a ve skutečnosti jsou tyto dvě pravděpodobnosti doplňkové, tj. $ p_1 + p_2 = 1 $. Pro $ r = 0,25 $ existuje pouze jedinečné řešení $ p = 0,5 $ a pro $ r>0,25 $ nemá žádná Bernoulliho distribuce dostatečně vysokou variabilitu.
Mám pocit, že bych měl zmínit také případ $ r = \ infty $. I pro tento případ existují řešení, například Studentova $ t $ distribuce se dvěma stupni volnosti.
R kód pro grafy
require (ggplot2) x.df <- data.frame (x = rep (seq (from = -8, to = 8, length = 100), times = 5), mu = rep (c (-4, -2, 0, 2, 4), each = 100)) x.df $ pdf <- dnorm (průměr = x.df $ mu, x.df $ x) ggplot (x.df, aes (x = x, y = pdf, skupina = faktor (mu), barva = faktor (mu))) + theme_bw () + geom_line (velikost = 1 ) + scale_colour_brewer (name = expression (mu), palette = "Set1") + theme (legend.key = element_blank ()) + ggtitle ("Normal distribution with variance 4") x.df <- data.frame (x = rep (seq (od = 0, do = 20, délka = 1000), krát = 5), theta = rep (c (0,25; 0,5; 1; 2; 4), každý = 1000)) x.df $ pdf < - dgamma (x.df $ x, tvar = 4 / (x.df $ theta) ^ 2, scale = x.df $ theta) ggplot (x.df, aes (x = x, y = pdf, group = factor) (theta), color = factor (theta))) + theme_bw () + geom_line (size = 1) + scale_colour_brewer (name = expression (theta), palette = "Set1") + theme (legend.key = element_blank ()) + ggtitle („Distribuce gama s odchylkou 4“) + coord_cartesian (ylim = c (0, 1) )
Ano, je možné tuto distribuci najít. Ve skutečnosti můžete použít libovolnou distribuci s konečnou odchylkou a škálovat tak, aby odpovídala vašemu stavu, protože $$ Var [cX] = c ^ 2Var [X] $$
Pro instance, rovnoměrná distribuce v intervalu $ [0,1] $ má odchylku: $$ \ sigma ^ 2 = \ frac {1} {12} $$ Proto jednotná distribuce v intervalu $ \ left [0, \ frac {1} {\ sqrt {12r}} \ right] $ bude mít rozptyl $ r $.
Ve skutečnosti se jedná o běžný způsob přidávání parametrů do některých distribucí, jako Student t. Má pouze jeden parametr, $ \ nu $ - stupně volnosti. Když $ \ nu \ to \ infty $ distribuce konverguje na standardní normální. Má tvar zvonu a vypadá hodně jako normální, ale má tlustší ocasy. Proto se často používá jako alternativa k normálnímu rozdělení, když jsou ocasy tlusté. Jediným problémem je, že Gaussovo rozdělení má dva parametry. Přichází tedy zmenšená verze Student t, která se někdy nazývá „ t škálování umístění“. Jedná se o velmi jednoduchou transformaci: $ \ xi = \ frac {t- \ mu} {s} $, kde $ \ mu, s $ jsou umístění a měřítko. Nyní můžete nastavit měřítko tak, aby nová proměnná $ \ xi $ měla jakoukoli požadovanou odchylku a měla tvar distribuce Student t.