Project

Virtuele beschermengelen voor het 'post-truth' informatietijdperk

Acroniem
VIGILIA
Code
41X08924
Looptijd
01-10-2024 → 30-09-2029
Financiering
Europese middelen: kaderprogramma
Principal investigator
Onderzoeksdisciplines
  • Natural sciences
    • Data mining
Trefwoorden
Digitaal maatschappelijk onderzoek cognitieve wetenschappen Grote Taalmodellen (LLMs) kennisgrafen ARTIFICIELE INTELLIGENTIE
Overige informatie
 
Projectomschrijving

Dit project is gemotiveerd door de hypothese dat we een 'post-truth' samenleving naderen, waarin het voor iedereen praktisch onmogelijk wordt om feiten van fictie te onderscheiden in alle vragen behalve de meest triviale. Een belangrijke oorzaak van deze evolutie is de aangeboren afhankelijkheid van mensen van cognitieve heuristieken om informatie te verwerken, wat kan leiden tot vooroordelen en slechte besluitvorming. Deze vooroordelen dreigen versterkt te worden in een netwerkmaatschappij, waar mensen afhankelijk zijn van anderen om hun meningen en oordelen te vormen en hun acties te bepalen. Hedendaagse generatieve technologieën voor kunstmatige intelligentie kunnen dit risico nog vergroten, gezien hun vermogen om valse maar zeer overtuigende informatie op een ongekende schaal te fabriceren en efficiënt te verspreiden. In combinatie met de verwachte vooruitgang in virtuele, augmented, mixed en extended reality technologieën kan dit een epistemische crisis veroorzaken met gevolgen die moeilijk te doorgronden zijn: een post-truth tijdperk op steroïden.

In het VIGILIA-project zullen we een mogelijke verzachtende strategie onderzoeken. We stellen voor om geautomatiseerde technieken te ontwikkelen voor het detecteren van cognitieve vertekeningen en heuristieken bij mensen wanneer ze geconfronteerd worden met informatie, evenals hun effect op interpersoonlijk niveau (hun effect op vertrouwen, reputatie en informatieverspreiding) en op maatschappelijk niveau (in termen van mogelijk irrationeel gedrag en polarisatie). We willen dit bereiken door gebruik te maken van technieken uit de AI zelf, in het bijzonder Large Language Models, en door voort te bouwen op geavanceerde benaderingen van gebruikersmodellering uit de vorige ERC Consolidator Grant FORSIED. Onze resultaten zullen worden geïntegreerd in tools die we VIrtual GuardIan AngeLs (VIGILs) noemen en die gericht zijn op consumenten van nieuws en sociale media, journalisten, wetenschappelijke onderzoekers en politieke besluitvormers. Ethische vragen die zich voordoen zullen worden geïdentificeerd en behandeld als eersteklas vragen binnen het onderzoeksproject.

 
 
 
Disclaimer
Funded by the European Union. Views and opinions expressed are however those of the author(s) only and do not necessarily reflect those of the European Union or the European Research Council Executive Agency (ERCEA). Neither the European Union nor the authority can be held responsible for them.