Pauze in AI-ontwikkeling nodig, bepleiten prominente IT'ers in brandbrief
Future of Life is in 2015 opgericht om aandacht te vragen voor het inperken van de risico's van baanbrekende technologie en te zorgen dat de maatschappij vooral de voordelen van die technologie kan benutten. In de brandbrief stelt de organisatie dat het punt nu gekomen is dat het belangrijk is een onafhankelijke beoordeling in te stellen voordat er nieuwe AI-modellen ontwikkeld mogen worden. Ook zouden de ontwikkelaars van de meest geavanceerde computertechnologie die nodig is om dergelijke AI-modellen te creëren, het eens moeten worden om een grens te stellen aan de groei ervan.
Future of Life ziet de ontwikkeling van AI-systemen een verkeerde kant op gaan, nu de ontwikkelaars ervan zich een slag in de rondte werken om maar nieuwe, betere technologie naar de markt te brengen. Daarbij ontstaan serieuze risico's voor de maatschappij en de mensheid. Daarbij haalt het instituut diverse wetenschappelijke onderzoeken aan van onder meer Timnit Gebru, de ethica die door Google werd ontslagen na kritiek op de manier waarop het bedrijf werkte aan het vercommercialiseren van AI-technologie zonder de maatschappelijke impact voldoende mee te wegen.
Future of Life wil dat de voorgestelde pauze wordt gebruikt om een set veiligheidsprotocollen te ontwikkelen en een onafhankelijke organisatie wordt opgericht die gaat toezien op de naleving ervan. Zo'n pauze zouden betrokkenen het liefst vrijwillig instellen, maar lukt dat niet op korte termijn, dan doet de organisatie een oproep aan de Amerikaanse overheid een moratorium af te dwingen.
Prominenten als Steve Wozniak - mede-oprichter van Apple - en Elon Musk - CEO van onder meer Twitter, Tesla en SpaceX behoorden tot de eerste ondertekenaars.
Heeft een pauze zin?
Critici die werden bevraagd bij Standpunt.nl op NPO Radio1 vanochtend, stellen dat zo'n pauze helemaal geen zin heeft. Zo werken niet alleen Amerikaanse bedrijven en universiteiten of hun Europese gelijken, aan dergelijke geavanceerde kunstmatige intelligentie, maar doen ook China en in mindere mate Rusland dat. Die zullen zo'n pauze in het westen alleen maar verwelkomen om hun eigen voorsprong te vestigen en te vergroten, zonder dat zij zich laten hinderen door westerse regels en ethische bespiegelingen. Bovendien is er nog geen enkele fundamentele technologie in zijn ontwikkeling afgeremd door het instellen van regels. Hooguit kunnen achteraf beperkingen worden opgelegd aan de toepassing ervan. Er zijn immers geen regels te bedenken voor iets dat niet bestaat. Ook zijn de voordelen niet goed af te zetten tegen de nadelen ervan.
Ondertekenaars stellen dat het hier om een uitzonderlijke ontwikkeling gaat die zijn gelijke niet kent in de menselijke historie. Kunstmatige intelligentie nadert het punt dat de maatschappij de gevolgen van de toepassing ervan niet meer kan overzien waardoor een existentiële dreiging voor de mensheid ontstaat.
Vraag om regulering komt steeds terug
Het is niet de eerste keer dat een oproep gedaan wordt aan betrokkenen en overheden om een veiligheidsklep in te bouwen in de ontwikkeling van kunstmatige intelligentie. In 2015 werd al een vergelijkbaar initiatief genomen door Future of Life. Ook de Verenigde Naties uitten in 2021 zorgen over het effect dat autonome systemen kunnen krijgen op mensenrechten. Nota bene OpenAI - dat nu aanjager is van een van de meest geavanceerde modellen GPT-4 dat onder meer de basis vormt voor ChatGPT en Dall-E - werd ooit opgericht door Elon Musk om zicht te houden op de gevaren van de AI-ontwikkeling. OpenAI verkoopt nu de technologie aan onder meer Microsoft.
In Nederland pleitte de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) in 2021 voor de oprichting van een AI-coördinatiecentrum om een halt toe te roepen aan de ontwikkeling van kunstmatige intelligentie die de belangen van de burger niet dient en tegelijkertijd de kansen die AI biedt voor het Nederlands bedrijfsleven niet te verkwanselen. De overheid zou daar een "intensieve betrokkenheid" bij moeten tonen.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee