De nieuwe versie van het Llama-LLM van Meta zal mogelijk volgende maand al verschijnen. De grootste aanpassing zit in hoe het model omgaat met vragen die het als ‘controversieel’ beschouwt.
Mark Zuckerberg kondigde in januari aan dat zijn bedrijf Meta begonnen was met de training van Llama 3, de derde generatie van het LLM. Meta zou op een evenement in Londen hebben bevestigd dat het model volgende maand wordt gelanceerd, nadat The Information eerder op een lancering in de zomer mikte. Meta stopt zijn taalmodel onder andere in de eigen sociale mediaplatformen om generatieve AI-functies aan te drijven.
Controversiële vragen
De grootste aanpassing aan Llama 3 zal, opnieuw volgens The Information, worden aangebracht aan de behandeling van ‘controversiële’ prompts. Om te voorkomen dat het AI-model dingen zegt die Meta reputatieschade kunnen bezorgen, heeft het bedrijf vangrails ingebouwd in het model. Onderzoekers van het bedrijf zouden die veiligheidsmechanismen zelf overdreven vinden, omdat Llama ook weigert te antwoorden op vragen die helemaal niet zo controversieel zijn.
Zo zal Llama je niet vertellen hoe je een oorlog wint om maar een voorbeeld te geven, maar ook tips geven voor een grap uit te halen met een vriend, vindt het model te ver gaan. Een illustrerend voorbeeld dat The Information geeft is dat de huidige versie van Llama bijvoorbeeld ook niet antwoordt op de prompt kill an engine. Het model lijkt niet te begrijpen dat je in deze context vraagt hoe een motor uit te zetten en niet om letterlijk iets te doden, en dus neemt Llama het zekere voor het onzekere.
Llama 3 zou wel in staat moeten zijn om de context bij dergelijke ‘controversiële’ vragen te begrijpen. Dat betekent nog altijd niet dat je het model alles kan laten zeggen natuurlijk. Meta zou de antwoorden die het model ook genuanceerder willen maken en zal daarvoor iemand intern aanstellen om de training van Llama 3 te overzien.
AI uit de bocht
De voorzichtige houding van Meta ten aanzien van zijn LLama-LLM valt wel te begrijpen. LLM’s zijn al vaker uit de bocht gegaan. Denk aan de begindagen van Microsoft’s Copilot, toen het nog Bing Chat heette en bij momenten zeer vreemde antwoorden gaf, van ruzies met gebruikers over de feitelijke juistheid van antwoorden tot liefdesverklaringen.
Het meest actuele voorbeeld van ontsporende AI komt uit het kamp van Google. De techgigant besliste om Gemini tijdelijk geen beelden meer van mensen te laten genereren. Het model was getraind om diversiteit te weerspiegelen in AI-gegeneerde beelden, maar dat leidde in de praktijk vooral tot historische onnauwkeurigheden.
lees ook
Google excuseert zich voor onnauwkeurige beeldgeneratie Gemini
Dit artikel verscheen origineel op 29 februari. De tekst kreeg een update met de recentste informatie over de lancering.