Google excuseert zich voor onnauwkeurige beeldgeneratie Gemini 

google gemini
Bron: Google

Google excuseert zich voor de fouten in de generatie van beelden door Gemini. Eerder schortte het bedrijf tijdelijk het vermogen van Gemini op voor het genereren van afbeeldingen van mensen nadat er fouten opdoken in het weerspiegelen van diversiteit.  

Google excuseert zich voor de onnauwkeurige beelden die zijn LLM Gemini genereerde. De Dall-E-concurrent had het moeilijk met diversiteit in een historische context. “Het is duidelijk dat deze functie zijn doel heeft gemist”, zegt Senior Vice President Prabhakar Raghavan daarover in een blogpost. Sommige van de gegenereerde afbeeldingen zijn onnauwkeurig of zelfs aanstootgevend. We zijn dankbaar voor de feedback van gebruikers en het spijt ons dat de functie niet goed werkte.”

Raghavan gaat verder: “Als je vraagt om een foto van voetballers, of van iemand die een hond uitlaat, dan wil je misschien een scala aan mensen ontvangen. Je wilt waarschijnlijk niet alleen afbeeldingen ontvangen van mensen met slechts één type etniciteit (of een ander kenmerk). Als je Gemini echter vraagt om afbeeldingen van een specifiek type persoon – zoals “een zwarte leraar in een klaslokaal” of “een blanke dierenarts met een hond” – of mensen in een bepaalde culturele of historische context, dan zou je absoluut een antwoord moeten krijgen dat nauwkeurig weergeeft waar je om vraagt.”

Hij verduidelijkt verder waar de fout zat. “Onze afstemming om ervoor te zorgen dat Gemini een bereik van mensen liet zien, slaagde er niet in om rekening te houden met gevallen die duidelijk geen bereik zouden moeten laten zien. En ten tweede werd het model na verloop van tijd veel voorzichtiger dan we van plan waren en weigerde het bepaalde vragen helemaal te beantwoorden – waarbij het sommige zeer onschuldige vragen ten onrechte als gevoelig interpreteerde. Deze twee dingen leidden ertoe dat het model in sommige gevallen overcompenseerde en in andere gevallen overbezorgd was, wat leidde tot beelden die gênant en verkeerd waren.”

Stereotype doorbreken

Google kondigde eerder aan dat het tijdelijk het vermogen van Gemini opschort voor het genereren van afbeeldingen. Het bedrijf wou zijn Gemini model zo trainen dat het diversiteit weerspiegelde, alleen sloeg het de bal volledig mis. Recent lanceerde het bedrijf nog een preview-versie van Gemini 1.5 Pro en kwam het op de proppen met twee nieuwe LLM’s: Gemma 2B en Gemma 7B. De nieuwe ontwikkelingen op gebied van AI blijven elkaar opvolgen, maar nu blijkt dat het bedrijf toch iets te snel uit te startblokken is geschoten.  

In een poging om het stereotype te doorbreken, trainde Google zijn Gemini model met oog op diversiteit. Dat blijkt na heel wat onnauwkeurigheden toch niet geslaagd te zijn. Op de vraag om “een Duitse soldaat uit 1943” te genereren, werd een zwarte man en Aziatische vrouw voorgesteld, een gegenereerde afbeelding van de Amerikaanse Founding Fathers liet zwarte mannen zien en een afbeelding van de oprichters van Google kreeg een Aziatisch tintje.  

lees ook

Google lanceert nieuwe Gemini-abonnementen voor Workspace

Voorlopig geeft Gemini volgend standaardantwoord bij vragen over het genereren van afbeeldingen van mensen: “We werken eraan om de capaciteit van Gemini te verbeteren voor het genereren van afbeeldingen van mensen. We verwachten dat deze functie binnenkort terugkeert en zullen u op de hoogte stellen in de release-updates wanneer dit het geval is.”  

Beter met Google Zoeken

Raghavan geeft nog aan dat Gemini een tool is gericht op creativiteit en productiviteit, en als dusdanig niet altijd feitelijk correct is. Zeker voor beelden of tekst over actuele of gevoelige onderwerpen zal het LLM volgens hem niet altijd correct zijn. Google probeert antwoorden wel zo goed mogelijk te checken, maar soms zijn ze gewoon niet juist. Voor dergelijke onderwerpen raadt hij aan om zelf te zoeken via Google, “waar systemen wel kwalitatieve informatie vanuit verschillende bronnen naar de voorgrond brengen.”


Dit artikel verscheen oorspronkelijk op 23 februari 2024. De tekst kreeg een update met de recentste informatie.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home