Meta zet grote stap in AI-beeldvorming

Er zijn twee nieuwe AI-tools te vinden bij Meta. Beiden zijn gebaseerd op het foundationmodel Emu dat eerder dit jaar is geïntroduceerd.

Als één van de bekendste namen in technologie, kan Meta niet achterblijven in de AI-race (denk maar aan de virtuele trainingsruimtes voor AI-robots). Het bedrijf heeft nu twee tools gelanceerd die zijn gebaseerd op foundationmodel Emu dat in september is voorgesteld. Dat is ook gebruikt in de nieuwe AI-assistent die Meta toen met de wereld deelde.

Emu Video

Hiermee kunnen gebruikers video genereren via tekstprompts, gebaseerd op diffusiemodellen. Deze infrastructuur voor bewegend beeld reageert op verschillende vormen van input:

  • Tekst
  • Beeld
  • Tekst en beeld samen

Het researchteam bij Meta heeft het proces in twee gedeeld. Eerst maak je een beeld via een tekstprompt en vervolgens kan je video genereren door zowel de tekst als het beeld aan te pakken. Op deze manier kunnen de onderzoekers modellen voor het genereren van video beter trainen.

Nu zijn er maar twee diffusiemodellen nodig voor om video te genereren van vier seconden, aan 16 frames per seconde. Dit model heeft bovendien de mogelijkheid om beelden te animeren via een tekstprompt.

lees ook

Meta lanceert AI Studio om chatbots op maat te bouwen

Emu Edit

Deze tool kwam tot stand met de gedachte dat het soms even duurt voor je via tekstprompts exact krijgt wat je in gedachten hebt. Het valt geregeld voor dat je een prompt enkele keren moet aanpassen voor een AI-beeldgenerator je laat zien wat je wil.

Met Emu Edit wil Meta dat proces veel meer stroomlijnen. Je kan een beeld algemeen of net heel precies aanpassen: achtergronden veranderen, geometrische vormen aanpassen of met kleuren spelen.

Het doel bij Meta is om alleen net die pixels aan te passen die relevant zijn voor de opdracht. Emu Edit zou dan ook veel preciezer moeten zijn dan andere modellen. Wanneer je bijvoorbeeld tekst wil toevoegen aan een object, gaat dit model de pixels van dat object zelf volledig ongemoeid laten.

Meta trainde zijn model met meer dan tien miljoen gesynthetiseerde samples met daarin steeds:

  • Een inputbeeld
  • De taak in kwestie
  • Het bedoelde beeld

Verantwoord creatief

De mogelijkheden liggen volgens Meta bij een waaier aan creativiteit. Van persoonlijke geanimeerde stickers tot de beste GIF’s.

Video en afbeeldingen bewerken gaat zonder enige technische kennis en zelfs foto’s animeren behoort tot de mogelijkheden. Meta benadrukt wel dat professionele grafische artiesten niet bang hoeven te zijn, deze technologie moet ook hen bijstaan en niet vervangen.

Het blijft wel de vraag hoe dit onderzoek nu gaat evolueren. Tijdens het weekend dropte het nieuws dat Meta zijn RAI-team (Responsible AI) heeft opgesplitst en verdeeld over andere AI-projecten. Dat team moest zich bezig houden met de negatieve effecten van de technologie te monitoren tijdens de ontwikkeling.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home