Amazon heeft een systeem voor spraakondersteuning ontwikkeld waardoor spraakassistent Alexa multistep-aanvragen beter begrijpt. Volgens Sanchit Agarwal, toegepaste wetenschapper in de Alexa AI-organisatie, is het zogeheten Speech-Language Understanding (SLU)-systeem 26 procent nauwkeuriger dan het huidige model.
Dit valt te lezen in de recent gepubliceerde onderzoekspaper ‘Parsing Coordination for Spoken Language Understanding’ en een begeleidende blogpost van de onderzoeker zelf. Het werk wordt deze week gepresenteerd tijdens de EEE Spoken Language Technology-conferenentie in Athene. Het nieuws volgt op een bericht eerder deze week van Amazon-wetenschappers die een AI-gestuurde methode hebben ontwikkeld om het foutenpercentage van Alexa’s vaardigheden met 40 procent te verminderen.
Diep neuraal netwerk
“Nauwe SLU-systemen hebben meestal rigide beperkingen, zoals het toestaan dat slechts één intentie wordt geassocieerd met een uiting. Naast dat er ook slechts één waarde aan een slottype is gekoppeld. Wij hebben een manier gevonden om SLU-systemen in staat te stellen samengestelde entiteiten en intenties te begrijpen”, aldus Agarwal. Het onderzoeksteam van Agarwal heeft daarvoor gebruikgemaakt van een diep neuraal netwerk. Deze kreeg structuren in gesproken taal aangeleerd.
Ook leerde het nieuwste Alexa-model generaliseren, door een techniek genaamd ‘adversarial training’. Agarwal: “In plaats van een computerprogramma, of parser, te bouwen voor verschillende slottypen, zoals ListItem, FoodItem en Appliance, hebben we een parser gebouwd die meerdere typen slots aankan. Onze parser kan bijvoorbeeld met succes items identificeren in de spraakoproep ‘add apples peanut butter and jelly to my list’. Maar ook bij apparaten in de oproep ‘zet het licht in de woonkamer aan en het keukenlicht’.
Gerelateerd: Amazon maakt ‘Alexa for Business’ beschikbaar voor derden