This page in EN

Veranstaltung

Deep Learning für Computer Vision II: Fortgeschrittene Themen [WS222400258]

Typ
Vorlesung (V)
Präsenz
Semester
WS 22/23
SWS
2
Sprache
Deutsch/Englisch
Termine
15
Links
ILIAS

Dozent/en

Einrichtung

  • IAR Stiefelhagen

Bestandteil von

Veranstaltungstermine

  • 24.10.2022 14:00 - 15:30 - Room: 50.34 Raum -102
  • 31.10.2022 14:00 - 15:30 - Room: 50.34 Raum -102
  • 07.11.2022 14:00 - 15:30 - Room: 50.34 Raum -102
  • 14.11.2022 14:00 - 15:30 - Room: 50.34 Raum -102
  • 21.11.2022 14:00 - 15:30 - Room: 50.34 Raum -102
  • 28.11.2022 14:00 - 15:30 - Room: 50.34 Raum -102
  • 05.12.2022 14:00 - 15:30 - Room: 50.34 Raum -102
  • 12.12.2022 14:00 - 15:30 - Room: 50.34 Raum -102
  • 19.12.2022 14:00 - 15:30 - Room: 50.34 Raum -102
  • 09.01.2023 14:00 - 15:30 - Room: 50.34 Raum -102
  • 16.01.2023 14:00 - 15:30 - Room: 50.34 Raum -102
  • 23.01.2023 14:00 - 15:30 - Room: 50.34 Raum -102
  • 30.01.2023 14:00 - 15:30 - Room: 50.34 Raum -102
  • 06.02.2023 14:00 - 15:30 - Room: 50.34 Raum -102
  • 13.02.2023 14:00 - 15:30 - Room: 50.34 Raum -102

Anmerkung

Tiefe faltende neuronale Netze (engl. Convolutional Neural Networks, CNNs) erzielen exzellente Ergebnisse in vielen Bereichen der Computer Vision, haben jedoch bei realen Anwendungen mit Herausforderungen zu kämpfen, wie die Abhängigkeit von kostspielig annotierten Trainingsdaten, hohe Rechenleistung oder schwere Nachvollziehbarkeit der Entscheidungswege. Während die Entwicklung der Erkennungsalgorithmen für lange Zeit primär von hohen Erkennungsraten auf großen und sauber annotierten Datensätzen getrieben waren, gewinnen heute anwendungsrelevante Ziele, wie Lernen mit wenig Trainingsdaten, Erklärbarkeit, Unsicherheitsschätzung oder Domänenadaption zunehmend an Bedeutung. 

 

Die Vorlesung behandelt fortgeschrittene Netzarchitekturen, Lernverfahren und Forschungsgebiete im Bereich Deep Learning für Computer Vision. Es werden unter anderem folgende Themen behandelt: 

 

  • Überblick Deep Learning, Faltende Neuronale Netze (CNN), Probleme moderner Architekturen
  • Interpretierbarkeit und Erklärbarkeit der CNNs
  • Unsicherheit in Deep Learning
  • Lernen mit wenig Trainingsdaten
  • Effiziente Architekturen
  • Fortgeschrittene Architekturen (Transformer, Graph Neural Networks)
  • Synergien von Computer Vision und Sprachmodellen
  • Generative Adversarial Networks (GANs)
  • Kontinuierliches Lernen