Regering VS wil controleren wie cloud gebruikt voor training AI
De Amerikaanse overheid broedt op plannen om AI-ontwikkelingen beter in de gaten te houden. Het wil cloudinfrastructuuraanbieders verplichten om te melden wanneer een klant een hoeveelheid computerkracht inkoopt waarmee een AI-model kan worden getraind.
De overheidsplannen moeten als een soort earlywarningsysteem dienen voor de Amerikaanse overheid om de vinger aan de pols te houden bij AI-ontwikkelingen. Dit hebben anonieme bronnen verteld aan nieuwsplatform Semafor. Het zou de Amerikaanse overheid vooral te doen zijn om vijandige regimes die AI willen gebruiken voor offensieve acties. OpenAI heeft bijvoorbeeld al aangegeven dat AI-modellen binnen twee tot drie jaar criminelen de mogelijkheid bieden tot het ontwerpen van biologische wapens, schrijft The Register.
Controle niet nieuw
The Wall Street Journal meldde in juli al dat de VS broedde op plannen om Chinese organisaties te weren als klant van bedrijven als AWS en Microsoft voor het trainen van neurale netwerken. Deze Amerikaanse techbedrijven zouden moeten melden wanneer er vanuit China een vraag om trainingsfaciliteiten zou komen. Deze maatregelen zijn onderdeel van het escalerende Amerikaans-Chinese handelsconflict.
De huidige beleidsvoornemens waar Semafor over schrijft, gaan nog wat verder. Bedrijven als AWS, Google en Microsoft moeten melden wanneer een willekeurige klant capaciteit vraagt boven een bepaalde drempelwaarde. Semafor maakt een vergelijking met de bankensector waar een verplichting geldt om aan de toezichthouder te melden wanneer er bedragen boven een bepaalde drempel worden overgemaakt. In dat geval is de maatregel om het witwassen van geld tegen te gaan.
Regels kortzichtig
Maar het gevaar is dat met de nieuwe regels voor cloudaanbieders een vergaand controlesysteem wordt opgetuigd. Want het trainen van AI-modellen is lang niet de enige cloudtoepassing die veel computerkracht vereist.
Bovendien, zo stelt een wetenschapper van Princeton in het artikel van Semafor, zijn de overheidsmaatregelen kortzichtig. Het opzetten van een nieuw taalmodel kan wellicht zoveel computerkracht vereisen dat het boven de drempelwaardes uitkomt, maar voor het trainen van andere AI-tools is veel minder capaciteit nodig. Een voorbeeld is gezichtsherkenning, waarmee ook schadelijke toepassingen kunnen worden ontwikkeld. Zulk cloudgebruik voor AI-ontwikkeling zou dan buiten zicht blijven.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee