Ook Apple laat mensen luisteren naar je Siri-gesprekken

Apple Siri

Na Google en Amazon krijgt nu ook Apple zijn moment in de schijnwerpers. Medewerkers van het bedrijf luisteren naar gesprekken van klanten met Siri, naar verluidt om de dienstverlening van de spraakassistent te verbeteren.

Apple betaalt werknemers om naar spraakopnames van Siri te luisteren. De medewerkers moeten de spraakcommando’s analyseren op juistheid, of desgevallend aangeven wanneer Siri verkeerdelijk werd geactiveerd. In de praktijk blijkt Siri relatief vaak onterecht wakker te schrikken, met soms gênante opnames tot gevolg. Dat weet The Guardian op het gezag van anonieme bronnen die het luisterwerk uitvoeren voor Apple.

Niet verrassend

Wie verrast is, komt vermoedelijk net terug van een maandenlange excursie naar de Zuidpool zonder smartphone, al signaleert het nieuws nog wel eens dat de gebruiksvriendelijkheid van spraakassistenten voor een stuk betaald wordt met privacy. Eerder kwamen Alexa van Amazon en de Assistent van Google al in opspraak omwille van dezelfde redenen.

De anonieme bronnen getuigen over hoe onopzettelijke activaties van Siri ervoor zorgen dat ze gevoelige informatie te horen krijgen. Denk aan romantische slaapkamergeluiden, informatie over zakendeals of zelfs drugsdeals. De grootste verantwoordelijken voor de valse positieven zijn de Apple Watch en de Homepod. Zij lijken al te vaak onterecht wakker te worden. Het kan bijvoorbeeld al volstaan om je Apple Watch omhoog te bewegen om een Siri-opname te starten. Opnames kunnen tot dertig seconden duren.

Siri-training

Menselijke tussenkomst is essentieel voor de training van spraakassistenten. Mensen verbeteren de algoritmes op vlakken waar ze zelf de mist in gaan. Dat is onvermijdelijk, maar wordt niet altijd even transparant gecommuniceerd. Zo houdt Google het bij vage bewoordingen in zijn privacy-overeenkomst die aangeven dat spraakdata kan gebruikt worden om de service te verbeteren. Dat dat betekent dat mensen naar de opnames zullen luisteren, lijkt voor veel gebruikers nog een verrassing te zijn.

Dat Apple met Siri hetzelfde doet als Amazon en Google is vanzelfsprekend maar ook ietwat ironisch. De Amerikaanse technologiereus gebruikt privacy geregeld als argument om zijn diensten boven die van de twee concurrenten te verkiezen. “What happens on your iPhone, stays on your iPhone” was eerder dit jaar nog een slogan van het bedrijf. “Tenzij we er contractors naar laten luisteren”, stond daar niet bij.

Semi-anoniem

Het werk wordt uitbesteedt aan derden die een vertrouwelijkheidsovereenkomst moeten tekenen. Bovendien wordt data geanonimiseerd en losgekoppeld van je Apple ID. Spraakopnames worden desalniettemin voorzien van data die wel kan misbruikt worden om een gebruiker alsnog te identificeren. Denk aan locatiedata. Die gegevens zijn volgens Apple nodig om de kwaliteit van Siri’s antwoorden beter in kaart te brengen. Apple schat dat ongeveer één procent van alle Siri-gesprekken gebruikt wordt voor kwaliteitsdoeleinden.

Opnieuw: er is niets illegaals aan wat Apple doet en de weliswaar vage gebruikersovereenkomst geeft in theorie aan dat Apple data kan gebruiken om aan zijn diensten te sleutelen. In de praktijk leest nauwelijks iemand dergelijke overeenkomsten en is het begrijpelijk dat mensen de privacy-boodschappen van Apple interpreteren alsof ze aangeven dat het bedrijf op een andere manier omgaat met hun spraakdata.

Wees je met andere woorden bewust van de privacybeperkingen van spraakassistenten, en laat je Apple Watch misschien even thuis wanneer je die ene cruciale businessdeal gaat bespreken.

Gerelateerd: Spraakassistenten spreken geen Vlaams: het gevaar van de digitale taalbarriére

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home