Požadavky na tyto typy otázek mi připadají trochu bizarní. Zde je matematický koncept / vzorec, přesto o něm chci mluvit v některých souvislostech zcela postrádajících matematické symboly. Rovněž si myslím, že je třeba konstatovat, že skutečná algebra nutná k pochopení vzorců by se podle mého názoru měla naučit většinu jedinců před vysokoškolským vzděláním (není nutné porozumět maticové algebře, postačí jednoduchá algebra).
Takže namísto úplného ignorování vzorce a mluvení o něm v některých magických a heuristických typech analogií se podívejme na vzorec a pokusme se vysvětlit jednotlivé komponenty malými kroky. Při pohledu na vzorce by měl být jasný rozdíl v kovarianci a korelaci. Zatímco když mluvím o analogiích a heuristice, domnívám se, že by zakryl dva relativně jednoduché pojmy a jejich rozdíly v mnoha situacích.
Takže pojďme začít vzorcem pro ukázkovou kovarianci (ty jsem právě vzal a převzal z wikipedie);
$ \ frac {1} {n-1} \ sum_ {i = 1} ^ {n} (x_i- \ bar {x}) (y_i- \ bar {y}) $
Aby všichni dostali rychlost, pojďme explicitně definujte všechny prvky a operace ve vzorci.
- $ x_i $ a $ y_i $ jsou každé měření dvou samostatných atributů stejného pozorování
- $ \ bar { x} $ a $ \ bar {y} $ jsou prostředky (nebo průměr) každého atributu
- U $ \ frac {1} {n-1} $ řekněme, že to znamená, že rozdělíme konečný výsledek $ {n-1} $.
- $ \ sum_ {i = 1} ^ {n} $ může být pro některé cizí symbol, takže by bylo pravděpodobně užitečné tuto operaci vysvětlit. Je to prostě součet všech samostatných pozorování $ i $ a $ n $ představuje celkový počet pozorování.
V tomto okamžiku bych mohl představit jednoduchý příklad, abych tak řekl tvář prvkům a operacím. Například si například vytvořme tabulku, kde každý řádek odpovídá pozorování (a $ x $ a $ y $ jsou odpovídajícím způsobem označeny). Pravděpodobně by tyto příklady byly konkrétnější (např. Řekněme, že $ x $ představuje věk a $ y $ představuje váhu), ale pro naši diskusi by to nemělo vadit.
x y --- 2 54 89 35 60 8
V tomto okamžiku, pokud máte pocit, že operace součtu ve vzorci nemusí být zcela pochopena, můžete ji zavést znovu v mnohem jednodušším kontextu. Řekněme jen, že $ \ sum_ {i = 1} ^ {n} (x_i) $ je stejné jako v tomto příkladu;
x - 2 4 9 5+ 0 - 20
Nyní by měl být tento nepořádek vyjasněn a můžeme se dopracovat k druhé části vzorce, $ (x_i- \ bar {x}) (y_i- \ bar { y}) $. Nyní, za předpokladu, že lidé již vědí, co to znamená, $ \ bar {x} $ a $ \ bar {y} $ znamenají, a řekl bych, protože jsem pokrytecký vůči mým vlastním komentářům dříve v příspěvku, stačí se odvolat na znamená z hlediska jednoduché heuristiky (např. uprostřed distribuce). Jeden pak může jen vzít tento proces po jedné operaci. Výrok $ (x_i- \ bar {x}) $ právě zkoumá odchylky / vzdálenost mezi každým pozorováním a průměr všech pozorování pro daný konkrétní atribut. Pokud je tedy pozorování dále od střední hodnoty, bude této operaci přidělena vyšší hodnota. Lze se pak vrátit zpět k dané příkladové tabulce a jednoduše demonstrovat operaci pozorování na vektoru $ x $.
x x_bar (x - x_bar) 2 4 -24 4 09 4 55 4 10 4 -4
Operace je stejná pro $ y $ vektor, ale pouze pro zesílení můžete tuto operaci také prezentovat.
y y_bar (y - y_bar) 5 6 -18 6 23 6 -36 6 08 6 2
Pojmy $ (x_i- \ bar {x}) $ a $ (y_i- \ bar {y}) $ by nyní neměly být dvojznačné a můžeme přejít na další operaci, vynásobíme-li tyto výsledky společně, $ (x_i- \ bar {x}) \ cdot (y_i- \ bar {y}) $. Jak Gung zdůrazňuje v komentářích, často se tomu říká křížový produkt (možná užitečný příklad, jak se vrátit zpět, pokud bychom zavedli základní maticovou algebru pro statistiku).
Všimněte si, co se stane při násobení, jsou-li obě pozorování ve velké vzdálenosti nad průměrem, bude mít výsledné pozorování ještě větší kladnou hodnotu (totéž platí, pokud jsou obě pozorování ve velké vzdálenosti pod průměrem, protože vynásobení dvou negativů se rovná kladnému). Všimněte si také, že pokud je jedno pozorování vysoko nad průměrem a druhé je hluboko pod průměrem, bude výsledná hodnota velká (v absolutních číslech) a záporná (jako kladná doba se zápor rovná rovno zápornému číslu). Nakonec si všimněte, že když je hodnota velmi blízko průměru pro kterékoli z pozorování, vynásobením těchto dvou hodnot bude výsledkem malé číslo. Tuto operaci můžeme znovu prezentovat v tabulce.
(x - x_bar) (y - y_bar) (x - x_bar) * (y - y_bar) -2-1 2 0 2 0 5 -3 -15 1 0 0-4 2 -8
Nyní, pokud jsou v místnosti nějakí statistici, měli by v tomto okamžiku vřít s očekáváním. Můžeme vidět, že do hry vstupují všechny jednotlivé prvky toho, co je kovariance a jak se počítá. Nyní musíme jen shrnout konečný výsledek v předchozí tabulce, vydělit $ n-1 $ a voila , kovariance by již neměla být mystická (vše pouze s definováním jednoho řeckého symbolu) .
(x - x_bar) * (y - y_bar) ----------------------- 2 0-15 0 + -8 ----- -21-21 / (5-1) = -5,25
V tomto okamžiku možná budete chtít zdůraznit, odkud pochází 5, ale to by mělo být tak jednoduché, jako odkazovat zpět na tabulku a počítat počet pozorování (necháme opět ponechat rozdíl mezi vzorkem a populací na jinou dobu) .
Kovariance sama o sobě nám toho moc neřekne (může, ale v tomto okamžiku je zbytečné jít do jakýchkoli zajímavých příkladů, aniž bychom se uchýlili k magicky nedefinovaným odkazům na publikum). V dobrém případě nebudete opravdu muset prodávat, proč by nám mělo záležet na tom, co je to kovariance, za jiných okolností možná budete muset jen doufat, že vaše publikum je zajaté a vezme vaše slovo za to. Ale pokračujeme v rozvíjení rozdílu mezi tím, co je kovariance a co je korelace, můžeme se jen vrátit zpět k formuli pro korelaci. Abyste zabránili fobii řeckých symbolů, stačí říct, že $ \ rho $ je běžný symbol používaný k vyjádření korelace.
$ \ rho = \ frac {Cov (x, y)} {\ sqrt {Var (x) Var (y)}} $
Znovu opakuji, čitatel v předchozím vzorci je jednoduše kovariancí, jak jsme právě definovali, a jmenovatel je druhá odmocnina součinu rozptyl každé jednotlivé řady. Pokud potřebujete definovat samotnou odchylku, můžete jednoduše říci, že odchylka je stejná jako kovariance řady sama se sebou (tj. $ Cov (x, x) = Var (x) $). A platí všechny stejné koncepty, které jste zavedli s kovariancí (tj. Má-li řada mnoho hodnot daleko od svého průměru, bude mít vysokou rozptyl). Možná si zde všimněte, že řada nemůže mít také negativní rozptyl (což by logicky mělo vycházet z dříve uvedené matematiky).
Takže jediné nové komponenty, které jsme zavedli, jsou ve jmenovateli, $ Var (x) Var (y) $. Dělíme tedy kovarianci, kterou jsme právě vypočítali, součinem odchylek každé řady. Dalo by se jít do léčby o tom, proč dělení $ \ sqrt {Var (x) Var (y)} $ bude vždy mít za následek hodnotu mezi -1 a 1, ale mám podezření, že nerovnost Cauchy – Schwarz by měla být vynechána z program této diskuse. Takže jsem zase pokrytec a uchýlím se k některým, vezměte si slovo , ale v tomto okamžiku můžeme představit všechny důvody, proč používáme korelační koeficient. Tyto matematické lekce pak lze spojit s heuristikou uvedenou v dalších výrokech, jako je odpověď Petera Floma na jednu z dalších otázek. I když to bylo kritizováno za zavedení konceptu ve smyslu kauzálních prohlášení, tato lekce by měla být na pořadu dne také.
Chápu, že za určitých okolností by tato úroveň léčby nebyla vhodná. Senát potřebuje shrnutí . V takovém případě se můžete vrátit k jednoduché heuristice, kterou lidé používají v jiných příkladech, ale Řím nebyl postaven za den. A senátu, který žádá o shrnutí, pokud máte tak málo času, měli byste si jednoduše vzít mé slovo a upustit od formalit analogií a odrážek.