Wij, mensen, zijn meesters in het continu vastleggen van tonnen sensorische informatie in een "always-on" mode. Maar toch, cruciaal voor ons vermogen om deze hyperdimensionale stroom van sensorische informatie te verwerken, is dat we niet altijd hetzelfde niveau van mentale inspanning besteden aan alle sensorische inputs. Deze dynamiek schaalbaarheid stelt ons in staat om de relevante informatie uit de sensorische gegevens te extraheren met onze beperkte menselijke computationele bandbreedte. Zou het niet geweldig zijn als elektronica ook zou kunnen profiteren van een dergelijke schaalbare verwerking van een hyperdimensionale stroom van sensorische gegevens? Dit zou robots, drones, auto's of gebouwen mogelijk maken voortdurend bewust zijn van hun volledige omgeving. Momenteel worstelen dergelijke apparaten om te verwerken hyperdimensionale visuele gegevens onder de energie- en verwerkingsbeperkingen van ingesloten apparaten. Dit kan worden ondervangen door vergelijkbare dynamische schaalbaarheid bij het verwerken van de hyperdimensionale gegevens. Met HYPERSCALES kan een dergelijke hyper-dimensionale, schaalbare detectie altijd worden toegepast, met een focus op visuele aspecten sensors. Het doel is om een ring van vele goedkope visuele sensoren te demonstreren, een rijk te vangen datastroom van omnidirectionele informatie. Een nieuw paradigma van online schaalbare neurale gebruiken netwerken, en afgestemd dynamisch schalen van op maat ontworpen hardware, altijd zichtbaar visueel bewustzijn wordt mogelijk met een lager energieverbruik dan de standaard. Uniek is het strakke samenspel tussen algoritmisch (prof. Dambre) en hardware (prof. Verhelst) tunability.