Project

Onderzoek naar uitlegbare machine learning-modellen in bedrijfsanalyse

Code
bof/baf/4y/2024/01/716
Looptijd
01-01-2024 → 31-12-2025
Financiering
Gewestelijke en gemeenschapsmiddelen: Bijzonder Onderzoeksfonds
Onderzoeksdisciplines
  • Natural sciences
    • Data mining
  • Social sciences
    • Mathematical methods, programming models, mathematical and simulation modelling
Trefwoorden
bedrijfsanalyse verklaarbare AI machinaal leren
 
Projectomschrijving

Titel: Het verbeteren van transparantie en vertrouwen in bedrijfsanalyse door middel van verklaarbare AI-modellen

Doelstelling:

Dit onderzoek heeft als doel om verklaarbare AI-modellen te onderzoeken en te ontwikkelen die de transparantie, interpreteerbaarheid en het vertrouwen kunnen verbeteren in machine learning-toepassingen binnen het domein van bedrijfsanalyse. De focus zal liggen op het creëren van modellen die duidelijke inzichten bieden in hun besluitvormingsprocessen, waardoor bedrijven geïnformeerde beslissingen kunnen nemen op basis van modelresultaten.

Achtergrond:

Machine Learning (ML) is steeds meer aanwezig in bedrijfsanalyse en biedt krachtige tools voor data-gedreven besluitvorming. Echter, veel ML-modellen functioneren als "zwarte dozen", waarbij voorspellingen worden gegeven zonder duidelijke uitleg over hoe deze resultaten zijn bereikt. Dit gebrek aan transparantie belemmert het vertrouwen en beperkt de adoptie van dergelijke modellen, vooral bij kritieke zakelijke beslissingen waar verantwoording essentieel is.

Methodologie:

De studie zal een gemengde methodenbenadering gebruiken, waarbij kwantitatieve analyse wordt gecombineerd met kwalitatieve inzichten:

  1. Literatuuronderzoek: Een uitgebreid onderzoek van de huidige literatuur over verklaarbare AI (XAI), met focus op technieken die toepasbaar zijn in bedrijfsanalyse, zal worden uitgevoerd om een theoretisch fundament te leggen.

  2. Modelontwikkeling: Op basis van het literatuuronderzoek zullen verschillende XAI-modellen worden ontwikkeld of aangepast voor toepassing in bedrijfsanalysescenario's. Deze modellen zullen streven naar een balans tussen voorspellende prestaties en interpreteerbaarheid.

  3. Casestudies: Samenwerkingen met industriële partners zullen real-world datasets en bedrijfsproblemen voor casestudies leveren. Deze studies zullen het vermogen van de ontwikkelde modellen testen om nauwkeurige, bruikbare inzichten te leveren terwijl ze duidelijke uitleg geven over hun besluitvormingsprocessen.

  4. Evaluatiekader: Een multidimensionaal evaluatiekader zal worden opgesteld om de modellen te beoordelen op criteria zoals voorspellende nauwkeurigheid, verklaarbaarheid, robuustheid en bruikbaarheid in een zakelijke context.

Verwachte resultaten:

Het onderzoek wordt verwacht om verschillende belangrijke resultaten op te leveren:

  1. Nieuwe XAI-modellen die specifiek zijn afgestemd op bedrijfsanalysetoepassingen.
  2. Een uitgebreide evaluatie van deze modellen op meerdere dimensies die relevant zijn voor zakelijke gebruikers.
  3. Bruikbare inzichten en best practices voor het integreren van XAI in bestaande bedrijfsanalyseworkflows.

Impact:

Deze studie heeft het potentieel om een aanzienlijke impact te hebben op hoe bedrijven AI gebruiken, waardoor ML-modellen toegankelijker, transparanter en betrouwbaarder worden voor besluitvormers. Door de interpreteerbaarheid te verbeteren, kan dit onderzoek de bredere adoptie van AI in zakelijke contexten bevorderen, wat leidt tot meer geïnformeerde en zelfverzekerde besluitvormingsprocessen.