Management

Zakelijke software
robots

AI-experts in het geweer tegen gevaren Artificial Intelligence

Hoe borgen we het maatschappelijk nut van robots.

12 januari 2015

Hoe borgen we het maatschappelijk nut van robots.

AI-experts beginnen zich zorgen te maken om te gevolgen van 'Artificial Intelligence'. Een open brief die een agenda stelt voor onderzoek naar het voorkomen van negatieve gevolgen, is al door een lange lijst experts ondertekend. Hopelijk leest men die brief ook in Den Haag.

De initiatiefnemers voor de open brief constateren dat kunstmatige intelligentie de laboratoriumfase achter zich gelaten heeft; ontwikkelingen op het terrein van AI vertegenwoordigen een steeds grotere economische waarde. De potentiële voordelen van toepassing ervan zijn groot. Uitbannen van ziekte en armoede lijken niet onmogelijk, stellen ze.

Tot nog toe lag de nadruk in AI-onderzoek vooral op de ontwikkeling van de onderliggende technieken. Het wordt tijd nu ook aandacht te besteden aan het maximaliseren van het maatschappelijk nut en AI, en aan methoden om te borgen dat kunstmatig intelligente systemen doen wat de mensheid wil dat ze doen, aldus de initiatiefnemers.

Onderzoeksagenda onderstreept zorgen

Die op zich voor de hand liggende wens resulteert in een onderzoeksagenda die onderstreept dat de gevolgen van invoering van AI-systemen niet per definitie gunstig hoeven zijn. De initiatiefnemers voor de open brief maken zich met name zorgen om de economische gevolgen, de juridische en ethische aspecten en de robuustheid van de onderliggende techniek. Ze roepen op tot meer onderzoek naar de gevolgen van invoering van kunstmatige intelligentie voor de arbeidsmarkt en voor bepaalde takken van economische bedrijvigheid, en naar effectieve politieke maatregelen om om te springen met de situatie dat er te weinig werk is voor alle leden van een samenleving.

Op juridisch en ethisch vlak moeten antwoorden geformuleerd worden op vragen als wie verantwoordelijk is voor een auto-ongeluk wanneer de auto zichzelf rijdt, of autonome wapens in overeenstemming zijn en kunnen handelen met het oorlogsrecht en welke privacy-aspecten in het gedrang komen door toepassing van AI-systemen.

Wat robuustheid betreft doen zich vragen voor op het terrein van verificatie (voldoet het systeem aan de gestelde eisen?), validiteit (valt uit te slutien dat het systeem ongewenst gedrag vertoont), beveiliging (het voorkomen van manipulatie door niet-gerechtigde derden) en controle (hoe zorg je ervoor dat de mens controle houdt over een AI-systeem als dat eenmaal in bedrijf is).

Politiek zou zich in de discussie moeten mengen

Wat het Future of Life Institute er niet bij schrijft is, dat deze uitdagingen op het gebied van toepassing van AI ook een maatschappelijk politieke kant hebben. Onderzoek naar de economische, juridische en ethische aspecten is noodzakelijk, maar moet zich ook vertalen in aanpassingen in de wetgeving, en bijvoorbeeld in ons sociaal stelsel, het onderwijs etc. De uitdagingen die de initiatiefnemers schetsen op het gebied van AI zelf, vragen daarbij extra aandacht, ook van de politiek. Om er eentje uit te pikken: als je kijkt naar de krakkemikkige staat van beveiliging van internet en de mogelijkheden die daaruit ontstaan om industriële productiefaciliteiten te saboteren, moet je je serieus afvragen onder welke voorwaarden je AI-systemen op internet wilt laten aansluiten. Het zou te wensen zijn dat politici zich over die vraag buigen voordat zich de eerste grote incidenten hebben voorgedaan.

Bij AI-wetenschappers is de noodzaak om AI serieus de maat te nemen, inmiddels wel doorgedrongen. De open brief van het Future of Life Institute kent een lange lijst ondertekenaars, voornamelijk uit het vakgebied AI. Meest bekende namen op de lijst zijn Stephen Hawking en Tesla oprichter Elon Musk, die eerder al hun zorg uitten over de potentieel negatieve kanten van AI, en  Erik Brynjolfsson, die al jaren de aandacht trekt met onderzoek naar de effecten van IT in het algemeen op economie en arbeidsmarkt.

 

Lees meer over
Lees meer over Management OP AG Intelligence
Reactie toevoegen