Management

Software-ontwikkeling
Kunstmatige intelligentie

Wie is bang voor AI?

Ik ben niet bang voor AI, ik ben bang voor slechte AI

 

© CC BY 2.0 - Flickr.com Gwydion M. Williams
2 augustus 2017

Deze zomer is de bekende discussie weer eens losgebarsten: ‘Zal artificiële intelligentie(AI) een bedreiging worden voor de mensheid?’ Wat zal er gebeuren als AI-systemen zo ver gevorderd zijn dat zij slimmer zijn dan mensen? Zal het systeem zijn conclusies trekken en de mensheid gaan overheersen of zelfs uitroeien? Elon Musk waarschuwt hiervoor, terwijl anderen denken dat AI niet zover is of kan komen.

Maar deze hele discussie gaat over zogenaamde ‘Strong AI’. ‘Strong AI’ behelst het nabootsen van menselijk bewustzijn, denken, creativiteit. Op dit gebied is nog niet zo veel bereikt.

Anders ligt het op het gebied van ‘Narrow AI’ (of ‘Weak AI’). AI wordt hier toegepast op een nauw domein, zoals IBM Watson for Oncology dat alleen toepasbaar is voor diagnoses op het gebied van bepaalde soorten kanker. Ik beperk me zelf tot ‘Narrow AI’, omdat hier al veel bruikbare toepassingen mogelijk zijn.

Foute systemen

Met foute AI-systemen bedoel ik geen systemen die moreel bedenkelijke beslissingen nemen. Met foute AI-systemen bedoel ik systemen die verkeerde beslissingen nemen. Een zelfrijdende auto die opzettelijk het publiek inrijdt, maakt een moreel bedenkelijke beslissing. Een zelfrijdende auto die zomaar de sloot inrijdt, maakt een verkeerde beslissing. (Ik wil hier niet bediscussiëren of iedere computergebaseerde beslissing in wezen opzettelijk is.)

Een berucht voorbeeld van uit de hand gelopen AI was de Microsoft Tay-chatbot, die vorig jaar door het Microsoft AI-team werd gelanceerd. Het duurde minder dan een dag voordat de bot racistisch werd. Dit kan gebeuren met ieder AI-systeem dat slechte dingen is aangeleerd.

Omdat algoritmen bij kunstmatige intelligentie zelfstandig kunnen leren en werken, kunnen ze onvoorspelbaar zijn en onvoorspelbare gevolgen hebben, zegt Tai Wei Lim (National University of Singapore).

Algoritmen die beslissingen moeten nemen kunnen veel gemakkelijker gemanipuleerd worden dan mensen. En we weten vaak niet hoe AI-systemen gebruikt worden, welke beslissingen zij nemen en hoe hun beslissingen ons leven gaan beïnvloeden.

Aangeleerd

Maar als AI-systemen gemanipuleerd kunnen worden, fouten kunnen maken en verkeerde dingen kunnen leren, moeten we wel in staat zijn die fouten te herkennen en te verhelpen. Om daarna het systeem bestendig te maken tegen manipulatie, te leren fouten te herkennen door ze goede dingen te leren. Omdat het om lerende systemen gaat, veranderen de algoritmen tijdens het leerproces. Het opsporen van fouten wordt daardoor ingewikkeld.

Alle lerende systemen maken fouten, ze zijn onderdeel van het leerproces. We kunnen er niet van op aan dat wat eerst goed werkte, later ook nog goed werkt. Dat beslissingen die eerst correct waren, altijd correct zullen blijven. We zullen AI-systemen continu in de gaten moeten houden of zij wel de goede dingen doen: niet-discriminerende, maatschappelijk aanvaardbare en uitlegbare beslissingen.

Als informatie, die aan een computer wordt gevoerd, bevooroordeeld is, (…) zullen AI-systemen ook bevooroordeeld zijn (Jennifer Goforth Gregory, Intel).

Wie aan een AI-project begint zonder te weten wat en hoe AI werkt, krijgt onvermijdelijk te maken met fouten. Op een dag wordt geconstateerd dat het opgeleverde systeem wel veel fouten maakt. Of zijn het juist geen fouten maar correct aangeleerd gedrag?

Waar ik bang voor ben is niet dat ‘menselijke’ AI de boel gaat overnemen, maar voor fout geïmplementeerde AI. AI die niet continu geleerd wordt het goede te doen, die niet in de gaten wordt gehouden of waarvan de gebruikers geen idee hebben wat die doet of kan gaan doen. AI kan etnisch gaan profileren, foute medische diagnoses stellen of onze privacy schenden. Met alle gevolgen van dien.

Reactie toevoegen