Code
11A3G26N
Looptijd
01-11-2025 → 31-10-2029
Financiering
Fonds voor Wetenschappelijk Onderzoek - Vlaanderen (FWO)
Promotor
Onderzoeksdisciplines
-
Natural sciences
- Computer science
- Statistical data science
- Machine learning and decision making
Trefwoorden
Ensembles
Bayesiaans Deep Learning
Deep Learning Onzekerheid
Projectomschrijving
Deep Learning-systemen zijn onze wereld aan het transformeren. Steeds vaker wordt in veiligheidskritische omgevingen op deze systemen vertrouwd om de efficiëntie te verbeteren. Onjuiste aanbevelingen of voorspellingen in deze context kunnen echter onomkeerbare gevolgen hebben. In real-world toepassingen is het onmogelijk om te garanderen dat modellen zijn getraind met optimale datasets of ontwerpkeuzes, wat leidt tot scenario's waarin modellen onbekende scenario’s tegenkomen of onvoldoende informatie hebben om nauwkeurige voorspellingen te maken. In dergelijke gevallen moeten modellen hun onzekerheid herkennen in plaats van mogelijks verkeerde schattingen te maken. Dit vereist dat modellen zich volledig bewust zijn van de onzekerheid van hun voorspellingen, die kan worden gecategoriseerd in twee typen: aleatorisch (data-inherent) en epistemisch (model onwetendheid). Bestaande manieren om onzekerheid te meten zijn vaak vaag, waardoor ze niet interpreteerbaar en moeilijk te vergelijken zijn vanwege het ontbreken van een goed gedefinieerd technisch kader en hun taak-specifieke aard. Dit voorstel lost deze problemen op door te onderzoeken hoe aleatorische en epistemische onzekerheden effectief kunnen worden gekwantificeerd en geïnterpreteerd voor zowel standaard als Deep Learning-modellen. De voorgestelde methoden introduceren een nieuw mechanisme om types onzekerheden te ontwarren, hun betrouwbaarheid te testen en verschillende lagen van gegevenscomplexiteit te verkennen.