Funkcja tanh jest również ograniczona imoże generować wartości aktywacji pomiędzy
-1 a1. Jej gradient jest bardziej stromy niż wprzypadku funkcji sigmoidalnej.
Funkcja ReLu
Funkcja ReLu mainteresującą właściwość. Jeśli Y jest dodatnie, ReLu zwróci Y.
Wprzeciwnym razie zwróci 0. Dlatego ReLu jest funkcją nieograniczoną dla dodat-
nich wartości Y.
Funkcja somax
Funkcja somax jest używana jako ostatnia funkcja aktywacji wsieci neuronowej dla
problemów klasykacyjnych, ponieważ normalizuje prawdopodobieństwa klasykacji
dowartości, które sumują się doprawdopodobieństwa równego 1.
Ztych wszystkich ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month, and much more.