Project

Verklaarbare hybride artificiële intelligentie waarbij gebruikers tegenstrijdige feedback kunnen hebben

Code
1SH2C24N
Looptijd
01-11-2023 → 31-10-2027
Financiering
Fonds voor Wetenschappelijk Onderzoek - Vlaanderen (FWO)
Mandaathouder
Onderzoeksdisciplines
  • Natural sciences
    • Data mining
    • Knowledge representation and reasoning
    • Machine learning and decision making
    • Decision support and group support systems
Trefwoorden
verklaarbaarheid
 
Projectomschrijving

Bedrijven zien AI nog vaak als een oplossing die veel data vraagt. Dit hebben ze veelal niet. Een combinatie van data en expertkennis zorgt ervoor dat er minder data nodig is. Huidige systemen focussen op het toevoegen van objective kennis aan de data. In dit project wordt onderzocht hoe subjectieve kennis gemodelleerd kan worden in een kennisgraaf die rekening houdt met mogelijke conflicten in die kennis. Ontbrekende kennis in de graaf wordt verkregen dankzij feedback van gebruikers op de voorspellingen van het model. Deze feedback zal ongewild tot tegenstrijdigheden leiden. Deze conflicten moeten opgelost worden vooraleer de feedback naar het model gestuurd wordt aan de hand van de kennis neergeschreven in de kennisgraaf. De voorspelling van het model moeten ook interpreteerbaar zijn voor mensen die geen kennis hebben van het model zelf, zodat ze correcte feedback kunnen geven. Dit is niet zo triviaal als het lijkt, aangezien geëncodeerde vectorrepresentaties gebruikt worden om voorspellingen te maken, wat niet interpreteerbaar is voor de mens. In dit onderzoek wordt een generieke oplossing bedacht voor het verklaren van voorspelling van hybride AI, gebruikmakende van recurrent attention models (RAM) voor kennisgrafen.