Voormalig OpenAI-lid lanceert AI-startup: veiligheid boven ‘commerciële druk’

Ilya Sutskever richt een eigen AI-startup op met een focus op veiligheid en ontwikkeling, zonder commerciële druk.

Medeoprichter en voormalig hoofdwetenschapper van OpenAI, Ilya Sutskever, start een eigen AI-bedrijf dat zich focust op veiligheid. “Safe Superintelligence (SSI) is speciaal ontworpen met één doel en één product voor ogen: het creëren van een veilig en krachtig AI-systeem”, aldus Sutskever. Door de commerciële druk, die er op veel AI-bedrijven rust, aan de kant te schuiven, kan het bedrijf naar eigen zeggen in alle rust opschalen.

Focus op veiligheid

Volgens een aankondiging op X door Sutskever, is SSI ene startup die “veiligheid en capaciteiten tegelijkertijd benadert”. Op die manier kan SSI zijn AI-systeem snel verbeteren en tegelijkertijd prioriteit geven aan veiligheid. “Ons bedrijfsmodel betekent dat veiligheid, beveiliging en vooruitgang allemaal geïsoleerd zijn van commerciële druk op de korte termijn”, aldus Sutskever.

Sutskever richt SSI op samen met Daniel Gross, voormalig AI-leider bij Apple en Daniel Levy, die werkte als lid van de technische dienst bij OpenAI. Vorig jaar werd Sam Altman (tijdelijk) afgezet als CEO van OpenAI, en dat werd mede geleid door Sutskever, die in mei het bedrijf zelf verliet.

lees ook

Voormalig bestuurslid OpenAI geeft duiding bij ontslag Sam Altman 

Of SSI net als Microsoft en Apple grote partnerschappen zal aangaan, is eerder onwaarschijnlijk. “de enkelvoudige focus van SSI maakt het mogelijk om afleiding door managementoverhead of productcycli te vermijden”, zo luidt de aankondiging.  

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home