Woche 11 | Theorie | Optimierung & Wandern mit Gradientenabstieg (PDF)

In diesem Video-Transkript schauen wir uns den Aufbau der Verlustfunktion oder Loss Function genauer an, wiederholen was eigentlich nochmal ein Gradient ist und bekommen eine Intuition dafür, wie die Optimierung eines neuronalen Netzwerkes funktioniert. Außerdem werfen wir einen etwas genaueren Blick auf den Trainingsprozess und lernen Kriterien dafür kennen, wann man ihn am besten stoppt.
- Nutzungsrechte
-
CC BY
- Herkunftsnachweis
- "Woche 11 | Theorie | Optimierung & Wandern mit Gradientenabstieg (PDF)" von , lizenziert unter CC BY 4.0
- Original-URL
- https://moodle.ki-campus.org/course/view.php?id=99
Joana Grah
Lernressource | Kurs, Text |
Lizenz | CC BY 4.0 |
Zusätzliche Lizenzinformationen | Das Material ist Bestandteil vom KI-Campus Kurs "KI für Alle 1 1: Einführung in die Künstliche Intelligenz". Gefördert durch das Bundesministerium für Forschung, Technologie und Raumfahrt sowie durch das Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen. |
Sprache | Deutsch |
Medium melden
verknüpfte Materialien
ähnliche Materialien
Als Anwendung installieren
Installieren Sie HubbS als App für ein besseres Nutzungserlebnis. Mehr erfahren.
Abbrechen