Lineární SVM a logistická regrese obecně fungují v praxi srovnatelně. Použijte SVM s nelineárním jádrem, pokud máte důvod se domnívat, že vaše data nebudou lineárně oddělitelná (nebo musíte být odolnější vůči odlehlým hodnotám, než LR obvykle toleruje). Jinak zkuste nejprve logistickou regresi a podívejte se, jak jste na tom s tímto jednodušším modelem. Pokud vám logistická regrese selže, zkuste SVM s nelineárním jádrem jako RBF.
EDIT:
Ok, promluvme si o tom, odkud pocházejí objektivní funkce.
Logistická regrese pochází z generalizované lineární regrese. Dobrou diskusi o objektivní funkci logistické regrese v této souvislosti najdete zde: https://stats.stackexchange.com/a/29326/8451
Support Vector Machines algoritmus je mnohem geometricky motivovaný. Místo předpokládání pravděpodobnostního modelu se snažíme najít konkrétní optimální oddělovací nadrovinu, kde definujeme „optimálnost“ v kontextu podpůrných vektorů. Nemáme nic, co by se podobalo statistickému modelu, který zde používáme v logistické regrese, i když lineární případ nám dá podobné výsledky: ve skutečnosti to jen znamená, že logistická regrese dělá docela dobrou práci při vytváření klasifikátorů s „širokým okrajem“, protože všechno SVM se snaží dělat (konkrétně SVM se snaží „maximalizovat“ rozpětí mezi třídami).
Pokusím se k tomu vrátit později a dostat se trochu hlouběji do plevele, já Jsem něco uprostřed něčeho: p