-
Social sciences
- Motivation and emotion
Ons visueel systeem wordt voortdurend geconfronteerd met een overvloed aan stimuli, die onze verwerkingscapaciteiten voor diepgaande analyse ver overschrijden. Het is daarom essentieel om het element of de elementen te selecteren die het meest relevant zijn voor onze doelen en irrelevante elementen te negeren. Een nuttig kenmerk hiervoor is dat de wereld wordt gekenmerkt door talrijke regelmatigheden, waardoor deze gedeeltelijk voorspelbaar is. Ons brein kan deze regelmatigheden uit eerdere ervaringen halen en gebruiken om de doelselectie efficiënt te begeleiden. Recentelijk is er veel wetenschappelijke interesse gericht op twee vormen van leren die zich richten op twee soorten regelmatigheden: bij beloningsgemedieerd leren (RL) leren mensen welke stimuli geassocieerd zijn met beloning, waarbij de elementen die verband houden met hoge (vs. lage) bekrachtiging worden geprioriteerd. Statistisch leren (SL) daarentegen stelt mensen in staat om statistische regelmatigheden uit de omgeving te extraheren, zoals hoe vaak een stimulus op een specifieke locatie voorkomt, waardoor toekomstige acties worden geoptimaliseerd naar de locatie waar het relevante element vaak verschijnt. In het dagelijks leven bestaan RL en SL naast elkaar en gezamenlijk begeleiden ze onze selectie van relevante stimuli. Ze zijn echter voornamelijk afzonderlijk benaderd met behulp van uiteenlopende taken, wat een directe vergelijking van de resultaten bemoeilijkt en het beoordelen van hun gecombineerde invloed belemmert. Dit project streeft ernaar deze kloof te overbruggen door RL en SL systematisch te vergelijken in een systematische en goed gebalanceerde experimentele opzet om te begrijpen hoe mensen impliciet leren van hun eerdere ervaringen. Met behulp van een reeks consistente experimentele taken zullen gedrags-, oog- en elektro-encefalografie metingen worden geregistreerd van gezonde menselijke vrijwilligers om het individuele en gezamenlijke effect van RL en SL op de procesdynamiek van doelselectie tot uitvoering van de respons te beoordelen. Bovendien zullen we met behulp van Markov-beslissingsprocesmodellen de waargenomen prestaties vergelijken met de modelprestaties. Gezamenlijk zullen onze resultaten belangrijke inzichten bieden in leermechanismen in de echte wereld.