'Nu moet het uit zijn met obscure, vervuilende AI'
De onderzoekers noemen hun framework SECure en hebben de details gepubliceerd op Arxiv.org (pdf), meldt Venturebeat.
Een van de pijlers suggereert het gebruik van gestandaardiseerde rekenmethodes om een goede vergelijking te kunnen maken tussen verschillende hard- en softwareconfiguraties die het best passen bij de taken die door een AI-systeem moeten worden uitgevoerd. Daardoor moet het makkelijker worden het meest efficiënte systeem te kiezen.
De onderzoekers stellen als tweede pijler voor het gebruik van federated learning approaches. Door gebruik te maken van verschillende gedecentraliseerde apparaten en servers kunnen AI-taken - zoals het trainen van een model - plaatsvinden op apparatuur die zoveel mogelijk gebruik maakt van schone energiebronnen. Bovendien, wanneer wordt gezorgd dat de data niet worden uitgewisseld tussen de verschillende systemen die aan hetzelfde model werken, neemt het risico op grootschalige datalekken af.
Meer zeggenschap over data
Met de derde pijler willen de onderzoekers meer aandacht voor data-souvereiniteit. Individuen moeten meer zeggenschap krijgen over de hoe hun gegevens worden gebruikt, voor welke doelen en voor hoe lang. Bovendien moeten mensen de mogelijkheid krijgen op elk moment hun toestemming voor het gebruik in te trekken.
Tenslotte moet er een certificatieproces komen waarmee de status van een AI-project kan worden vergeleken met anderen wat betreft de efficiency in het gebruik van energie voor compute en storage. Dit zou gebruikersorganisaties bewuster moeten maken van de impact die het gebruik van de tools hebben op maatschappij en milieu.
De onderzoekers zijn er van overtuigd dat wanneer dit framework op grote schaal wordt toegepast, gebruikersorganisaties met hun aankoopbeslissingen een drijvende kracht kunnen zijn achter het verantwoord omgaan met kunstmatige intelligentie.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee