Aus dem Kurs: Neuronale Netze und Deep Learning – Grundlagen
So erhalten Sie Zugriff auf diesen Kurs
Werden Sie noch heute Mitglied und erhalten Sie Zugriff auf mehr als 24.900 Kurse von Branchenfachleuten.
Was ist Momentum?
Aus dem Kurs: Neuronale Netze und Deep Learning – Grundlagen
Was ist Momentum?
Momentum ist eine Methode, um die Suche nach dem Minimum einer Loss Function zu beschleunigen, oder anders gesagt, das neuronale Netz lernt damit schneller. Wie macht man das konkret? Hier ist eine Beispiel Loss Function, die hat diesmal 2 Koeffizienten X1 und X2, und lässt sich daher nicht im zweidimensionalen aber im dreidimensionalen Raum als hyperebene Darstellen und das sieht wie folgt aus. Drehen wir die Ebene ein bisschen noch auf die Seite, damit man gut sehen kann wie sie verläuft, unser Ziel ist es wie immer das Minimum, also den tiefsten Punkt dieser Ebene, dieser Funktion zu finden, ausgehend von einem zufälligen Startpunkt. Wir starten also zum Beispiel hier oben rechts und berechnen den Gradienten, der immer in Richtung des steilsten Abstiegs zeigt. Der Gradient ist umso größer je tiefer oder steiler die Selle ist. Wir berechnen also den Gradienten und passen die Gewichte an, sodass wir dem Minimum immer ein Stück näherkommen, das machen wir mehrmals. Im Grunde gehen wir…
Inhalt
-
-
-
-
-
-
Praxis: Architektur eines neuronalen Netzes mit Keras entwickeln10 Min. 12 Sek.
-
(Gesperrt)
Praxis: Neuronale Netze mit Keras trainieren9 Min. 37 Sek.
-
(Gesperrt)
Praxis: Lernbare Parameter in Keras Layers anzeigen4 Min. 10 Sek.
-
(Gesperrt)
Wie Parameter in neuronalen Netzen initialisiert werden können4 Min. 50 Sek.
-
(Gesperrt)
Metriken: So wird die Genauigkeit in neuronalen Netzen gemessen4 Min. 37 Sek.
-
(Gesperrt)
Modelle evaluieren mit "Accuracy", "Precision", "Recall" und "F1-Score"2 Min. 25 Sek.
-
(Gesperrt)
Neuronale Netze -- Backpropagation Schritt für Schritt7 Min. 16 Sek.
-
(Gesperrt)
Gradient Descent und Mini-Batch3 Min.
-
(Gesperrt)
Learning Rate2 Min. 45 Sek.
-
(Gesperrt)
Was ist Momentum?2 Min. 10 Sek.
-
(Gesperrt)
Optimizers: SGD, AdaGrad, Adam4 Min. 4 Sek.
-
(Gesperrt)
Zusammenfassung: Welche Fehlerfunktion und Metrik bei welchem Problem?2 Min. 15 Sek.
-
-