Project

Hardware-efficient continu leren

Code
BOF/STA/202409/007
Looptijd
01-01-2025 → 31-12-2028
Financiering
Gewestelijke en gemeenschapsmiddelen: Bijzonder Onderzoeksfonds
Promotor
Onderzoeksdisciplines
  • Natural sciences
    • Machine learning and decision making
    • Distributed systems
Trefwoorden
Diep machinaal leren edge AI ongesuperviseerd leren
 
Projectomschrijving

Edge computing en gedistribueerde AI bieden veelbelovende oplossingen om de centralisatie van AI tegen te gaan. Door gebruik te maken van randapparaten zoals smartphones, IoT-sensoren en lokale servers, kunnen AI-algoritmen worden verdeeld over een netwerk van apparaten in plaats van uitsluitend te vertrouwen op gecentraliseerde datacenters. Dit vermindert de latentie en verbetert de efficiëntie en privacy van toepassingen zoals autonome voertuigen, remote sensing en slimme steden. Hoewel Edge AI een populair onderzoeksthema is, richt het meeste huidige onderzoek zich op het optimaliseren van de inferentiestap van het model, waarbij ervan wordt uitgegaan dat het model volledig offline wordt getraind in een cloud-datacenter. Wij stellen voor om af te stappen van de gescheiden train- en deploy-fasen en in plaats daarvan ook randapparaten uit te rusten met de mogelijkheid om het model bij te werken. Het is onwaarschijnlijk dat het model volledig vanaf nul wordt getraind op het randapparaat, maar op zijn minst moet het model in staat zijn zich aan te passen aan de locatie-specifieke dynamiek en kleine veranderingen in de loop van de tijd. Deze aanpak verbetert niet alleen de aanpasbaarheid en efficiëntie van AI-systemen, maar pakt ook privacykwesties aan door de noodzaak van constante gegevensoverdracht naar gecentraliseerde servers te verminderen.

Om deze visie van efficiënte, on-device representatie-leren te realiseren, zullen we onze manier van denken over het trainen van een model moeten veranderen en een deel van deze werklast naar het randapparaat verplaatsen. Om dit mogelijk te maken, zullen we ons richten op:

  • Ongesuperviseerd leren: Het is onwaarschijnlijk dat gelabelde informatie beschikbaar zal zijn op het randapparaat. We zullen daarom nieuwe algoritmen moeten ontwikkelen die in staat zijn om nuttige kenmerken te extraheren uit rijke gegevensstromen zonder labels.
  • Nieuwe hardware platformen: Verschillende bedrijven bieden aangepaste hardwareversnellers die energiezuinige inferentie van diepe neurale netwerken beloven. Meer nieuwe benaderingen maken gebruik van technologieën zoals analoog of benaderend rekenen. Ongeacht de onderliggende technologie, brengen ze allemaal beperkingen met zich mee op het gebied van precisie van de gewichten of de grootte van het model. We zullen nieuwe modelarchitecturen ontwikkelen die vanaf het begin met deze beperkingen rekening houden.
  • Online specialisatie: Hoogstwaarschijnlijk hoeven we geen model vanaf nul te trainen op het randapparaat. Het is realistischer om een model offline te trainen en het vervolgens verder te finetunen op het randapparaat om het te specialiseren voor de omgeving waarin het wordt ingezet. Er zijn veel technieken voorgesteld om dit te bereiken, maar recent wint een meer biologisch geïnspireerde benadering aan populariteit die de moeite waard is om verder te onderzoeken.