Aus dem Kurs: Neuronale Netze und Deep Learning – Grundlagen
So erhalten Sie Zugriff auf diesen Kurs
Werden Sie noch heute Mitglied und erhalten Sie Zugriff auf mehr als 24.900 Kurse von Branchenfachleuten.
Aktivierungsfunktionen nutzen
Aus dem Kurs: Neuronale Netze und Deep Learning – Grundlagen
Aktivierungsfunktionen nutzen
Aktivierungsfunktionen sind wichtige Teile in neuronalen Netzen, sie normieren die Ausgabe gewissermaßen. Es gibt sehr viele unterschiedliche Aktivierungsfunktionen, wir sehen uns hier nur mal vier berühmte Beispiele an. Hier ganz links oben Tangens Hyperbolicus oder kurz tanh abgekürzt. Diese Funktion hat die angenehme Eigenschaft, dass sie die Eingabe auf einen Wert zwischen -1 und 1 normiert, hat auch eine S-förmige Kurve, wie man hier sieht. Und wenn unser X sehr groß wären würde, ich bin mal so frech und zeichne das einfach hier drüber, über diesen Textwert, dann würde auch eine sehr große Eingabe trotzdem auf einen Wert von 1 normiert werden und nicht beliebig groß werden. Die nächste Funktion ist Rectified Linear Unit oder ReLU abgekürzt. Die sieht wie folgt aus und hat folgende Definition. Sie ist ganz simple, sie sagt einfach, dass, wenn X größer, gleich 0 ist, wird der Wert 1 zu 1 zurückgeben. Ist er kleiner als 0, wird der Wert auf 0 normiert. Also, als Beispiel ist unser X…
Inhalt
-
-
-
-
-
Aufbau eines einfachen neuronalen Netzes4 Min. 19 Sek.
-
(Gesperrt)
Neuronale Netze -- "Forward Propagation"-Beispiel4 Min. 35 Sek.
-
(Gesperrt)
Neuronale Netze -- Fehler ("Loss") berechnen2 Min. 7 Sek.
-
(Gesperrt)
Aktivierungsfunktionen nutzen1 Min. 44 Sek.
-
(Gesperrt)
Fehlerfunktionen ("Loss Functions") -- Überblick2 Min. 42 Sek.
-
(Gesperrt)
Binary Cross Entropy -- Beispiel1 Min. 1 Sek.
-
(Gesperrt)
Categorial Cross Entropy -- Beispiel2 Min. 41 Sek.
-
(Gesperrt)
Mean Squared Error -- Beispiel58 Sek.
-
(Gesperrt)
Cosine Similarity -- Beispiel1 Min. 18 Sek.
-
-
-