Otázka:
Porovnání SVM a logistické regrese
user41799
2014-04-27 04:01:36 UTC
view on stackexchange narkive permalink

Může mi někdo dát nějakou intuici, kdy zvolit SVM nebo LR? Chci porozumět intuici za tím, jaký je rozdíl mezi optimalizačními kritérii učení hyperplánu dvou, kde jsou příslušné cíle následující:

  • SVM: Pokuste se maximalizovat rozpětí mezi nejbližší podpůrné vektory
  • LR: Maximalizace pravděpodobnosti zadní třídy

Zvažme lineární prostor funkcí pro SVM i LR.

Některé rozdíly I již vím:

  1. SVM je deterministický (ale pro pravděpodobnostní skóre můžeme použít Plattsův model), zatímco LR je pravděpodobnostní.
  2. V prostoru jádra je SVM rychlejší (ukládá stačí podporovat vektory)
Toto tvrzení je nesprávné: „_LR: Maximalizovat pravděpodobnost zadní třídy_“. Logistická regrese maximalizuje pravděpodobnost, ne nějakou zadní hustotu._Bayesian logistic regression_ je jiný příběh, ale musíte o něm být konkrétní, pokud o tom mluvíte.
čtyři odpovědi:
David Marx
2014-04-27 06:00:42 UTC
view on stackexchange narkive permalink

Lineární SVM a logistická regrese obecně fungují v praxi srovnatelně. Použijte SVM s nelineárním jádrem, pokud máte důvod se domnívat, že vaše data nebudou lineárně oddělitelná (nebo musíte být odolnější vůči odlehlým hodnotám, než LR obvykle toleruje). Jinak zkuste nejprve logistickou regresi a podívejte se, jak jste na tom s tímto jednodušším modelem. Pokud vám logistická regrese selže, zkuste SVM s nelineárním jádrem jako RBF.

EDIT:

Ok, promluvme si o tom, odkud pocházejí objektivní funkce.

Logistická regrese pochází z generalizované lineární regrese. Dobrou diskusi o objektivní funkci logistické regrese v této souvislosti najdete zde: https://stats.stackexchange.com/a/29326/8451

Support Vector Machines algoritmus je mnohem geometricky motivovaný. Místo předpokládání pravděpodobnostního modelu se snažíme najít konkrétní optimální oddělovací nadrovinu, kde definujeme „optimálnost“ v kontextu podpůrných vektorů. Nemáme nic, co by se podobalo statistickému modelu, který zde používáme v logistické regrese, i když lineární případ nám dá podobné výsledky: ve skutečnosti to jen znamená, že logistická regrese dělá docela dobrou práci při vytváření klasifikátorů s „širokým okrajem“, protože všechno SVM se snaží dělat (konkrétně SVM se snaží „maximalizovat“ rozpětí mezi třídami).

Pokusím se k tomu vrátit později a dostat se trochu hlouběji do plevele, já Jsem něco uprostřed něčeho: p

Ale to stále neodpovídá na moji otázku, jaký je intuitivní rozdíl v objektivních funkcích SVM v / s LR, které jsou následující: (a) SVM: Zkuste maximalizovat rozpětí mezi nejbližšími podpůrnými vektory (b) LR: Maximalizujte pravděpodobnost zadní třídy
To je úplně jiná otázka. Ptáte se, kdy použít modely nebo co motivuje podobu jejich objektivních funkcí?
Více mě zajímá, co motivuje formu jejich objektivních funkcí
Pokusím se k tomu vrátit později a dostat se trochu hlouběji do plevelů, jsem tak nějak uprostřed něčeho _ O čtyři roky později ...
JSONParser
2016-03-17 18:19:00 UTC
view on stackexchange narkive permalink

Logistic Regression Vs SVM

Obrázek znamená rozdíl mezi SVM a logistickou regresí a kde použít kterou metodu

tento obrázek pochází z kurzu Coursera: „strojové učení“ Andrewa NG. Naleznete ji v 7. týdnu na konci: „Podpora vektorových strojů - pomocí SVM“

Pod pojmem „funkce“ máte na mysli počet jedinečných atributů nebo celkový počet jedinečných hodnot patřících k těmto atributům?
např .: v predikci cen pryže je jednou z funkcí cena benzínu, počasí atd .....
Ve skutečnosti obrázek neříká nic o jejich rozdílech ...
rozdíl může být špatné srovnání slov může být lepší
Chankey Pathak
2018-10-23 08:27:16 UTC
view on stackexchange narkive permalink
  • LR poskytuje kalibrované pravděpodobnosti, které lze interpretovat jako důvěra v rozhodnutí.
  • LR nám dává neomezený a hladký cíl.
  • LR lze (přímo) použít v Bayesovských modelech.
  • SVM netrestají příklady, pro které je správné rozhodnutí vyrobené s dostatečnou jistotou.To může být dobré pro zobecnění.
  • SVM mají pěknou dvojí formu, když poskytují řídká řešení pomocí triku jádra (lepší škálovatelnost)

Podívejte se Podpora vektorových strojů vs Logistic Regression, University of Toronto CSC2515, autor: Kevin Swersky.

Vynikající reference, děkuji.
doctorblaze
2020-05-28 14:25:23 UTC
view on stackexchange narkive permalink

I myslím další výhodou LR je, že ve skutečnosti optimalizuje váhy interpretovatelné funkce (např. Y = B0 + B1X1 + B2X2, kde X1 a X2 jsou vaše predikční proměnné / vlastnosti).To znamená, že můžete použít model s perem, papírem a základní vědeckou kalkulačkou a získat pravděpodobnostní výstup, pokud chcete.

Jediné, co musíte udělat, je vypočítat Y s výše optimalizovanou funkcí a zapojit Y do funkce sigmoid, abyste získali pravděpodobnost třídy mezi 0 a 1.

To může být užitečné v některých oblastech / aplikacích, i když stále méně a méně, když se pohybujeme vpřed a stačí připojit čísla do aplikace a získat výsledek z modelu.



Tyto otázky a odpovědi byly automaticky přeloženy z anglického jazyka.Původní obsah je k dispozici na webu stackexchange, za který děkujeme za licenci cc by-sa 3.0, pod kterou je distribuován.
Loading...