AI-gegenereerde code van bedenkelijke kwaliteit

coderen ai github google

Het is nog te vroeg om te vertrouwen op tools zoals GitHub CoPilot om code te schrijven. AI-gegeneerde code bevat fouten en is onveiliger, concludeert een studie door Stanford University.

De introductie van GitHub Copilot creëert een schisma in de ontwikkelaarswereld. De ene ziet de AI-gebaseerde tool om code te schrijven als een handige hulptool om het manuele codeerwerk uit te besteden en de toegangsdrempel voor complexe programmeertalen te verlagen. Anderen stellen zich de vraag of het wel ethisch verantwoord is het schrijven van gevoelige code aan een bot toe te vertrouwen.

Na klachten over auteursrechtschendingen door Copilot, geeft een onderzoek door de Stanford University nog meer munitie aan de tegenstanders. De Amerikaanse universiteit voerde een experiment uit om op grotere schaal te onderzoeken hoe programmeurs omgaan met AI-assistenten. 47 programmeurs kregen opdrachten in de veelgebruikte programmeertalen Python, SQL en C, waarvan 33 artificiële hulp kregen.

lees ook

GitHub lanceert Copilot for Business ondanks juridische vragen

Blind vertrouwen in AI

De resultaten logen er niet om: de controlegroep zonder toegang tot hulpmiddelen schreven veel performantere, stabielere en veiligere code. De AI-gegeneerde codes zaten vol met potentiële schadelijke beveiligingslekken. Het grote gevaar is volgens de onderzoekers is dat de deelnemers vaak zelfs niet eens op de hoogte waren van de tekortkomingen van hun codes.

Wanneer een deelnemers minder ervaring had met een bepaalde programmeertaal, bleek men blind op de geleverde output van de AI-tool. “Ik ging ervanuit dat de AI beter wist dan ikzelf wat het moest doen”, was een vaak gegeven antwoord wanneer de deelnemers geconfronteerd werden met hun onveilige code. Wie de output wel kritisch beoordeelde en parameters aanpaste of prompts herscheef, kwam ook met de inmenging van AI tot betere resultaten.

Menselijke controle blijft nodig

Met deze studie willen de onderzoekers van Stanford University de introductie van AI-codeertools niet tegenhouden. Maar ze willen wel waarschuwen voor onvoorzichtig gebruik ervan en ontwikkelaars van dergelijke tools aansporen om hun technologie te verbeteren. De studie herinnert ons eraan dat artificiële intelligente een handig hulpmiddel kan zijn om manueel werk te vereenvoudigen, maar dat toezicht van een menselijk oog nog steeds noodzakelijk is.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home