Makers 'deepfakes' getackeld door AI van UvA
Het doel van DARPA is technieken te ontwikkelen voor het geautomatiseerd herkennen van beeldmateriaal waar aan gesleuteld is. De methoden om foto's en video's zodanig te bewerken dat ze iets tonen dat nooit is gebeurd, worden steeds geavanceerder. Dat leidt onder meer tot 'deepfakes', doorgaans pornografische video's waarbij de hoofden van bekende personen zijn gemonteerd op de acteurs.
Met de geavanceerde videobewerkingstechnieken is het voor het menselijk oog vaak ondoenlijk te onderscheiden of het gaat om nepnieuws of een waargebeurd evenement. Dat levert in het geval van de gemanipuleerde porno problemen voor de persoonlijke levenssfeer van de mensen die schijnbaar in de scenes optreden. Maar de geavanceerde manipulatie maakt ook geavanceerd nepnieuws mogelijk waarmee de publieke opinie er mee kan worden bespeeld. Ook kan de rechtstaat in gevaar komen wanneer nepbeelden als bewijs in een proces terecht komen.
UvA speelt belangrijke rol
DARPA richtte in 2016 een aparte afdeling op genaamd Media Forensics (MediFor) die dit probleem aanpakt. De groep schakelt daarbij externen in om gebruik te kunnen maken van de laatste ontwikkelingen in fundamenteel onderzoek. Gisteren meldde TechCrunch dat MediFor drie contracten heeft gegund aan de non-profit onderzoeksgroep SRI International. Voor de opdrachten van DARPA werkt deze groep nauw samen met de Deep Learning Computer Vision groep van de Universiteit van Amsterdam. Samen brachten zij onlangs al een wetenschappelijk artikel uit genaamd 'Spotting Audio-Visual Inconsistencies (SAVI) in Manipulated Video'. Ook het Idiap Research Institute in het Zwitserse Martigny werkt mee aan het projecten.
Het onderzoek richt zich bijvoorbeeld op afwijkingen in lipsynchronisatie en onregelmatigheden in de samenhang van beelden en geluiden, zoals een akoestiek die niet bij de omvang van de ruimte past. De automatische detectie speurt ook naar verwijderde of juist ingevoegde fragmenten.
De groepen boeken inmiddels veelbelovende resultaten. Zo werd in een test afgelopen jaar al een 75 procent acuratesse bereikt bij het detecteren van inconsistenties in scenes en bij sprekers.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee