OpenAI-CEO: EU-exit mogelijk bij te strenge regels
"Het huidige ontwerp van de AI-wet van de EU zou overregulering zijn, maar we hebben gehoord dat dit zal worden teruggetrokken", verklaarde de topman op een evenement in Londen. "Ze praten er nog steeds over", schrijft persbureau Reuters op uit zijn mond. De door AI-aangedreven chatbot ChatGPT levert logisch klinkende teksten en heeft daarmee in korte tijd systeem veel opzien gebaard. De gecreëerde teksten blijken namelijk lastig te onderscheiden zijn van schrijfwerk dat mensen kunnen doen.
Impact op maatschappij
De EU wil als eerste overheid regels stellen voor de baanbrekende techniek van AI, die veelbelovend is maar die ook grote zorgen baart. Zo zou ChatGPT morele waarden in de maatschappij ondermijnen, blijkt uit onderzoek, omdat mensen de neiging hebben alles wat de bot 'zegt' klakkeloos over te nemen. Geen of gebrekkige bronvermelding, ontbrekende feitencontrole en AI-hallucinaties spelen hierbij mee. Verder wil de EU in de eigen landen geen uitwassen van AI toestaan zoals de Chinese burgervolgsystemen waarmee gedrag wordt beloond en gestraft.
Europarlementariërs bereikten eerder deze maand een overeenstemming over het ontwerp van de nieuwe AI-regelgeving. Maar daarmee is die wetgeving er nog niet. Er moet nog worden gedebatteerd tussen de vertegenwoordigers van het Europees Parlement, de Raad en de Commissie om de laatste details uit te werken. "Er is zoveel dat ze zouden kunnen doen", benadrukt Altman. Hij noemt als voorbeeld dat de definitie nog wat aangepast zou kunnen worden van AI-systemen voor algemene doeleinden. "Er zijn veel dingen die kunnen worden gedaan", aldus de OpenAI-topman.
Vóór regulering VS
Altman heeft eerder deze maand tegenover een Amerikaanse Senaatscommissie juist gepleit vóór AI-regulering door de overheid van de Verenigde Staten. De hoogste baas van het grote, vooroplopende OpenAI ziet heil in regulering die bedrijven verplicht om overheidslicenties te verkrijgen voor geavanceerde AI-modellen die voorbij een bepaalde grens gaan. Daarbij gaf hij voorbeelden van grenzen die in de praktijk eigenlijk al gepasseerd zijn, ook door ChatGPT. "Ik denk dat een model dat kan overtuigen, manipuleren of beïnvloeden van het gedrag of de overtuigingen van een persoon, dat dat een goede grens zou zijn", aldus Altman.
Daarnaast is het probleem met het bepalen van zulke grenzen en definities ook de duale aard van technologie en innovaties. AI die wordt gebruikt voor onderzoek naar vaccins tegen bepaalde virussen valt in theorie ook te gebruiken voor biologische wapens. De OpenAI-CEO noemde dat laatste als voorbeeld van iets dat "een hele goede grens" zou zijn. De speciale Senaatscommissie voor AI heeft nog twee andere AI-experts gehoord, die met andere (praktijk)voorbeelden en redenen neigen naar bepaalde vormen van overheidsregulering voor AI.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonneeDe duale aard van technologie en innovaties komt zeer veel voor. De hoofdverantwoordelijkheid ligt bij de gebruiker. Met een mes kun je een heerlijke maaltijd maken of iemand mee neersteken en met een auto kun je van A naar B rijden of iemand opzettelijk aanrijden. Dat zijn geen redenen om messen en auto's te verbieden. Data is ook duaal. Voor causale verbanden is dataoverdracht noodzakelijk. Data is de grondstof van de natuur en de maatschppij, zie bijvoorbeeld https://photos.app.goo.gl/JB36yr26xwaKvgkQ8 Data heeft ook een sterke duale aard. De gebruiker van data dient zichzelf hiervan bewust te zijn en er naar te handelen.