Proč jsou aktivační funkce opravených lineárních jednotek (ReLU) považovány za nelineární?
$$ f (x) = \ max (0, x) $$
Jsou lineární, když je vstup kladný, a podle mého chápání odemkne reprezentativní sílu hlubokých sítí nelineární aktivace jsou nutností, jinak by celá síť mohla být reprezentována jedinou vrstvou.