'Bestrijding schadelijke effecten AI-taalmodellen geen taak techbedrijven'
De manier waarop de modellen nu werken, heeft serieuze nadelige gevolgen voor de maatschappij, die op zijn minst kenbaar gemaakt moeten worden. Liever moeten die echter worden voorkomen door het opstellen van gebruiksregels.
Er is nu een beperkt aantal partijen dat de beschikking heeft over deze geavanceerde technologie. Die voorsprong duurt niet lang, voorspellen de wetenschappers. Het is echter niet aan deze handvol techbedrijven om de normen te bepalen, is een argument dat vaak naar voren komt in de deelnemers aan het onderzoek dat de basis vormt voor het artikel.
Aan het onderzoek werkte een groot aantal wetenschappers mee vanuit verschillende disciplines zoals computerwetenschappen, filosofie en politieke wetenschappen. Het probleem zit in de inherente vooroordelen die in dergelijke grote taalmodellen worden 'ingebakken' als gevolg van training op petabytes aan teksten die zonder veel filtering van het internet worden geschraapt. Zo is aangetoond dat GPT-3 - een model van OpenAI dat exclusief in licentie is gegeven aan Microsoft voor het gebruik in diens clouddiensten - aantoonbaar vooroordelen heeft tegen zwarte mensen en een koppeling maakt tussen moslims en terroristen, stelt Venturebeat.
Meer desinformatie dreigt
Op het moment dat dergelijke modellen beschikbaar komen in toepassingen die iedereen kan inzetten, gaan ze ongetwijfeld bijdragen aan het creëren van nog meer desinformatie. Ze kunnen ook ingezet worden om werknemers te vervangen met alle gevolgen van dien voor bijvoorbeeld het selecteren van kandidaten voor sollicitatieprocedures, om maar een voorbeeld te noemen.
De techbedrijven zijn niet in staat een goede afweging te maken met de economische voordelen van het verkopen van diensten op basis van zulke modellen en de noodzaak tot het bestrijden van de maatschappelijke effecten daarvan, stellen de wetenschappers. Dat werd onlangs weer duidelijk uit het conflict dat Temnit Gebru - voormalig leidinggevende in het ethisch team bij Google - had met haar werkgever en dat uiteindelijk leidde tot haar ontslag.
De onderzoekers geven in het artikel een aantal adviezen:
- Teksten gegenereerd met behulp van AI moet altijd worden voorzien van een wettelijk afgedwongen waarschuwing.
- Dergelijke taalmodellen zouden altijd in duo's moeten worden gebruikt zodat de een de ander kan corrigeren.
- Er moeten bias-tests worden ontwikkeld die voor elk gebruik van een AI-model moeten worden uitgevoerd. Het naar de voorgrond komen van de bias is namelijk sterk afhankelijk van het doel waarvoor het model wordt ingezet.
- Voor sommige toepassingen is het gebruik van dergelijke AI-modellen niet wenselijk en moet dit worden voorkomen.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee