Evaluating Uncertainty and Robustness in Vision-Based Models
- Freitag, 24. April 2026, 13:00 Uhr
- Raum F.03.082
- Kim-Celine Kahl
Adresse
Im Neuenheimer Feld 223 (REZ, DKFZ)
69120 Heidelberg
Raum F.03.082Livestream
Veranstaltungstyp
Disputation
Klassische Metriken wie die Accuracy liefern nur einen eingeschränkten Einblick in das Verhalten von Machine-Learning-Modellen. Zwei Modelle können die gleiche Accuracy erreichen und sich dennoch deutlich in ihrer Zuverlässigkeit unterscheiden – etwa bei Veränderungen in der Datendistribution oder wenn sie fehlerhafte Vorhersagen mit geringer Unsicherheit treffen. Da Machine-Learning-Modelle zunehmend in sicherheitskritischen Bereichen wie der medizinischen Bildgebung eingesetzt werden, wird die Bewertung von Robustheit und Unsicherheit zu einer zentralen Herausforderung.
Diese Arbeit stellt zwei Evaluierungsframeworks vor, die eine systematische Analyse des Modellverhaltens ermöglichen. Das erste Framework untersucht die Modellierung von Unsicherheit in der semantischen Segmentierung und analysiert unterschiedliche Unsicherheitsarten, methodische Komponenten sowie deren Nutzung in verschiedenen Anwendungen. Das zweite Framework widmet sich der Analyse von Robustheit von Vision-Language-Modellen für medizinisches Visual Question Answering und berücksichtigt dabei realistische Veränderungen in der Datendistribution sowie aussagekräftige Metriken.
Gemeinsam bieten diese Frameworks strukturierte Methoden zur Beurteilung von Modellzuverlässigkeit über die reine In-Distribution-Performance hinaus und liefern praxisnahe Leitlinien für die Entwicklung robuster und transparenter Modelle in sicherheitskritischen Anwendungsfeldern.