AI-onderzoekers van Meta claimen dat ze een artificiële visuele cortex hebben gebouwd. Die moet robots helpen om aan de hand van camerabeelden te interageren met hun omgeving.
In het menselijk brein is de visuele cortex of schors verantwoordelijk voor de verwerking van beelden. Om robots te bouwen die taken kunnen vervullen in de echte wereld, is een kunstmatig alternatief nodig. Researchers van Meta claimen nu dat ze zo’n kuntmatige visuele cortex hebben gebouwd. Het resultaat heet VC-1 en is gebaseerd op de Edgo4D-dataset.
VC-1 stelt een AI in staat om visuele informatie op een nuttige manier te verwerken. De Ego4D-dataset waarop het model is getraind, bevat daarom duizenden uren van video afkomstig van draagbare camera’s. De beelden zijn in opdracht van onderzoekers door deelnemers gefilmd terwijl ze dagdagelijkse taken uitvoeren. Denk aan koken of poetsen.
Eerst zien, dan vastpakken
VC-1 moet robots dus helpen om te begrijpen wat ze zien. Daar iets mee aanvangen, is een volgende stap. AI moet getraind worden om op basis van visuele informatie ook effectief taken uit te voeren. Ook daarrond kondigt Meta een doorbraak aan. Onderzoekers zouden samen met het Georgia Institute of Technology een systeem hebben ontwikkeld waarbij AI in simulaties wordt getraind, waarna de geleerde ervaringen worden overgedragen naar een robot die wegwijs moet raken in de echte wereld.
Meta testte het systeem met de robothond van Boston Dynamics: Spot. In de simulatie werd Spot digitaal getraind om door virtuele huizen te wandelen en daar bepaalde objecten te vinden en te verplaatsen. Na een tijd leerde Spot hoe ‘huizen’ er in het algemeen uitzien. Gewapend met die kennis kon Spot dezelfde taak in een echt appartement uitvoeren.
Meta zegt dat VC-1 opensource zal worden. Het bedrijf zal nu focussen op de integratie van VC-1 met het gesimuleerd leren.