-
Natural sciences
- Adaptive agents and intelligent robotics
- Machine learning and decision making
- Natural language processing
- Artificial intelligence not elsewhere classified
De vooruitgang van Grote Taalmodellen en generatieve AI is de afgelopen jaren erg versneld, zelfs tot enthousiasme van het grote publiek. Desondanks hebben deze systemen nog belangrijke zwaktes, zoals ondoorzichtige redeneringen, het fabriceren van ongefundeerde informatie, en ethische zorgen over vooroordelen en misbruik. Het gebruik van deze modellen in real-life toepassingen, waar onvoorspelbare of foute output niet acceptabel is, vereist onderzoek naar methoden voor fijnmazige controle. De best presterende modellen zijn vaak closed source en hun gebruik is betalend, terwijl de privacy van gebruikersgegevens niet gegarandeerd is en de architectuur en gewichten van het model niet bekend zijn, waardoor toegang op elk moment ontzegd kan worden. Daarom richt dit onderzoeksproject zich op het verbeteren van lokale modellen. In toepassingen waar precisie belangrijker is dan creativiteit en waar het eigendom van het model niet kan worden vertrouwd aan buitenlandse bedrijven, is er een dringende behoefte aan modellen waarover de makers van de toepassing controle hebben. Dit onderzoeksproject probeert dit op te lossen door methoden toe te passen, te combineren en te bouwen om controle te krijgen over generatieve AI-modellen, om ze op een veilige en betrouwbare manier te gebruiken. Het project evalueert deze modellen in een toepassing voor tweedetaalonderwijs met behulp van sociale robots, een ambitieus gebruiksscenario dat generatieve AI test in een realistische omgeving.