OpenAI-bestuur krijgt meer macht, om onveilige AI-ontwikkeling tegen te houden
OpenAI heeft zijn bestuurders meer macht gegeven om de ontwikkeling van kunstmatige intelligentie (AI) binnen de start-up veiliger te maken. Het bestuur van het bedrijf achter ChatGPT kan de lancering van een nieuw AI-model nu tegenhouden, ook als de top van de ontwikkelaar van kunstmatige intelligentie het model veilig vindt.
De Amerikaanse start-up heeft een set nieuwe richtlijnen gepubliceerd waarin staat hoe OpenAI omgaat met extreme risico's van zijn krachtigste AI-systemen. Een team dat twee maanden geleden is opgericht, gaat van de meest geavanceerde, nog niet gelanceerde AI-modellen van OpenAI beoordelen hoe hoog de risico's zijn, zegt teamleider Aleksander Madry. Ook past dit team modellen aan om mogelijke gevaren te verminderen. Alleen de modellen met een "laag" of een "gemiddeld" risico worden volgens de richtlijnen uitgebracht.
Bestuurscrisis net achter de rug
Onlangs hadden het bestuur van OpenAI en topman Sam Altman nog ruzie over zorgen rond de veiligheid van AI. Vorige maand werd hij ontslagen omdat het bestuur geen vertrouwen meer in hem had als leider van het bedrijf. Nog geen week later keerde hij weer terug als topman en kondigde OpenAI een nieuw bestuur aan.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee