Dobrý den, budete s těmito webináři pokračovat? Jsou zajímavé.
@nekdo9590
3 жыл бұрын
:O Konečně jsme se dočkali :D
@SamuelBachorik-Mrtapo8-ApeX
3 жыл бұрын
Super videa ! Spravte ešte Gradient descent a loss function!
@MILKOMAXX
3 жыл бұрын
MALA OTAZKA ak vypočítam backpropagation a vypočítam ako prvé zmenu váhy poslednej vrstvy tak ci tu predposlednú ratám z novou hodnotou váh alebo z tou starou pôvodní hodnotou ?
3 жыл бұрын
budete počítat s tou novou hodnotou
@DusanJanovsky
3 жыл бұрын
Proč ve čtvrté minutě počítáme tu derivaci? Abychom ji pak položili rovnou nule, čímž vyjde lokálně optimální váha w11? Pokud je to tak, musíme pak vůbec počítat ty předchozí nenulové členy de/dy, df/dx a používat je jako mezivýsledky?
@MachineLearningCollege
3 жыл бұрын
Ten gradient počítáme proto, abychom věděli, jakým směrem se vydat v algoritmu Steepest Gradient Descent (vysvětlený zde: kzitem.info/news/bejne/l6WBxWiPiISajX4). Nepokládáme ho nule. Kdybychom chtěli hledat lokální extrémy řešením soustavy rovnic, kde je každá parciální derivace položena nule, dostali bychom u dnes běžných sítí soustavu o desítkách milionů až miliard rovnic. V reálu se používají chytřejší algortimy než prostý SGD. Jejich snahou je co nejvíce omezit uvíznutí v nějakém "hloupém" lokálním extrému, ale pořád jsou to jen heuristiky, které do globálního optima většinou nevedou.
@DusanJanovsky
3 жыл бұрын
Jo jasně. Dík.
@jfhjhrhrhrb
2 жыл бұрын
co znamená to d v 13:28 min
2 жыл бұрын
To je označení derivace. Viz cs.wikipedia.org/wiki/Z%C3%A1pis_derivace
Пікірлер: 10