Microsoft: Eerst pijn van AI, dan pas regulering
Schwarz bepleitte tijdens een paneldiscussie over generatieve AI, waar Ars Technica over schrijft, dat er eerst 'betekenisvolle' schade moet zijn van het toepassen van kunstmatige intelligentie voordat er regelgeving kan worden bedacht. "Er moet op zijn minst een klein beetje schade zijn zodat we kunnen zien wat het werkelijke probleem is."
Daar is nu nog geen sprake van, beweert hij. "Heeft er al iemand schade geleden van ten minste duizend dollar ten gevolge van [generatieve AI, red.]? Moeten we ons haasten regulering te maken op een planeet van acht miljard mensen als er nog niet eens duizend dollar schade is geleden? Natuurlijk niet!", zei Schwarz.
Regelgeving beperkt innovatie
Hij refereert daarmee aan de opvatting dat de nadelen van regulering, zoals mogelijke beperking van innovatie, groter zijn dan de voordelen ervan. Hij stelt zich daarbij lijnrecht op tegenover een groot aantal prominenten uit wetenschap en bedrijfsleven die onlangs juist pleitten voor een tijdelijke stop op de ontwikkeling van technologie als natuurlijke taalmodellen (LLM's) waarop bijvoorbeeld ChatGPT, Dall-E en Midjourney zijn gebaseerd. Zij verwachten dat de ontwikkeling zo snel gaat dat er onvoldoende zicht is op de nadelige effecten ervan voor de maatschappij.
"Je stelt geen regulering in om schade ter waarde van duizend dollar te voorkomen, terwijl dezelfde regulering voorkomt dat er miljoenen aan voordelen voor de mensen op de wereld ontstaan."
Schade of geen schade
Schwarz gaat daarbij wel voorbij aan het feit dat er inmiddels diverse rechtszaken lopen van kunstenaars die zien dat hun auteursrechtelijk beschermde werken zijn gebruikt voor het trainen van beeldgenererende modellen als Dall-E, Midjourney en Stability AI. Ook negeert hij de immateriële schade die ontstaat door het verspreiden van nepnieuws en kwetsende taal door tekstbots.
Schwarz benadrukte wel dat Microsoft "er alles aan doet om ervoor te zorgen dat AI veilig is, alleen voor goede dingen kan worden gebruikt en niet voor slechte. We moeten ons zorgen maken over de veiligheid van deze technologie, net als bij alle andere technologie."
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee