Google ontwikkelt taalmodel dat robots in staat stelt ons beter te begrijpen

robots en mensen

Zullen we in de toekomst nog beter met robots kunnen communiceren? Google sleutelt aan een AI-taalmodel dat robots de context doen begrijpen.

Interactie tussen mens en robot is vandaag de dag de normaalste zaak geworden. We praten met Google Assistant en Siri over de dingen des levens en steeds meer bedrijven zetten chatbots in om hun klanten te helpen. Wie zich de begindagen van chatbots herinnert, zal beamen dat de communicatie met robots veel natuurlijker is geworden, al blijven er beperkingen aan het taalbegrip van robots bestaan. Google probeert het grootste mankement aan te pakken: het begrijpen van context.

In een blog deelt Google de laatste ontwikkelingen in het onderzoeksproject PaLM-SayCan, een geavanceerd AI-taalmodel ontwikkeld voor hulprobots. Dit taalmodel moet robots niet alleen in staat stellen om tussen de lijnen te lezen en onze vragen niet meer honderd procent letterlijk te interpreteren, en om daar dan op autonome basis de juiste actie(s) aan te koppelen. Google is dit taalmodel al volop in de praktijk aan het uittesten op robots van Everyday Robots.

Een snackje en een drankje

Met enkele dagelijkse voorbeelden maakt Google duidelijk hoe PaLM-SayCan voor een nieuwe doorbraak kan zorgen in mens-robot-interactie. Stel dat je aan een robot zou zeggen dat je zin hebt in een snackje en ‘iets om dat door te spoelen’. Vooral met het tweede gedeelte van de vraag zouden hedendaagse robots het moeilijk hebben omdat je beeldspraak gebruikt. PaLM-SayCan kan er echter wél voor zorgen dat de robot begrijpt dat je een snackje én een bijpassend drankje nodig hebt.

Beeld: Google

Het gaat verder dan dat. Als je zou morsen met het drankje en je vraagt de robot om het op te kuisen, zou die zelf moeten kunnen beslissen om een spons te gaan halen en geen stofzuiger. Ook de combinatie van eerst een drankje halen en nadien het lege blikje in de vuilbak deponeren zou geen probleem mogen vormen.

Veelbelovende resultaten

De eerste experimenten met PaLM-SayCan geven alvast veelbelovende resultaten. Google schrijft dat het taalmodel het planningsvermogen van robots met veertien procent deed toenemen en het slaginspercentage van de acties met dertien procent. Het meest veelbelovende resultaat is dat robots 26 procent beter in staat zijn om complexere taken die uit meerdere acties bestaan tot een goed einde te brengen. Uiteraard zijn meerdere experimenten nodig vooraleer het taalmodel op grotere schaal kan en mag geïmplementeerd worden. Daarbij belooft Google de ethische richtlijnen voor de ontwikkeling van AI te zullen respecteren. Voorlopig lijkt het er dus naar dat het gebruik PaLM-SayCan zich dus nog tot alledaagse toepassingen zal beperken.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.