Deepfake detectie met AI: een vooruitblik op AAFS 2024

“En toch is het opnieuw ongewoon dat een Europeaan een workshop geeft op de AAFS”

De American Academy of Forensic Science (AAFS) is het grootste congres over forensische wetenschap ter wereld. Dit jaar vindt het van 19 tot en met 24 februari plaats in Denver, Colorado. Forensisch experts vanuit de hele wereld komen er samen om kennis uit te wisselen over hun vakgebied, inspiratie op te doen en te netwerken. Professor Zeno Geradts is een van de gastsprekers dit jaar en zal ook twee online workshops geven over deepfakes. Geradts is forensisch onderzoeker bij de divisie Digitale en Biometrische Sporen (DBS) van het NFI en bijzonder hoogleraar Forensic Datascience aan de Universiteit van Amsterdam. Een nieuwe ontwikkeling die zeker aan bod zal komen: Explainable AI.

Het wetenschappelijk congres van AAFS heeft een lange geschiedenis: in 1948 vond het voor de eerste keer plaats. Ieder jaar staat een ander thema centraal en dit jaar is dat ‘Justice for all’. Vijf dagen lang zijn er lezingen, bijeenkomsten en workshops. Ook worden er ieder jaar awards uitgereikt; een soort Grammy’s van de forensische wetenschap. Geradts is geen onbekende bij de AAFS: van 2019 tot 2020 was hij zelfs de eerste niet-Amerikaanse president van de AAFS ooit, nadat hij in 2018 een jaar president elect was geweest. “En het blijft ongewoon dat een Europeaan een workshop mag geven op het congres. Ik ben daarin een beetje afwijkend”, grinnikt Geradts.

Workshop deepfake

De eerste twee dagen geeft Geradts een online workshop over deepfake detectie, samen met zijn collega Catalin Grigoras, universitair hoofddocent en directeur van het National Center for Media Forensics aan de University of Colorado. Catalin neemt het gedeelte over spraak voor zijn rekening, in de middag is Geradts aan de beurt met het gedeelte over beeld. Het is een workshop voor deskundigen uit allerlei vakgebieden, dat kunnen dus ook forensisch pathologen of juristen zijn. Geradts: “Ik laat ze eerst zelf een deepfake video maken en daarna leer ik ze hoe je die kunt detecteren. Het gaat me niet alleen om de techniek, maar ook om een stuk bewustwording. Op het vlak van het detecteren van deepfakes loopt Nederland op de troepen vooruit”. Ook geeft hij nog twee online presentaties op het congres: ‘AI for forensic labs’ en ‘Steganography for video’. Samen met collega Katrin Franke van de Norwegian University of Science and Technology en het Center for Cyber and Information Security schreef Geradts het boek Artificial Intelligence (AI) in Forensic Sciences. Het handboek is een publicatie van de AAFS en staat vol tips over hoe AI op een verantwoorde wijze kan worden toegepast bij forensisch onderzoek. Het boek wordt ook tijdens de conferentie verkocht. De opbrengsten daarvan gaan naar het Humanitarian and Human Rights Resource Center (HHRRC) van de AAFS.

Hot topic: Explainable AI

Afgelopen jaren ontwikkelde Geradts met het lab AI4forensics van het NFI en met de UvA, al meerdere methoden om deepfakes te detecteren. Explainable AI is daarvan de nieuwste, vertelt Geradts: “Het is een interactieve methode, waarbij de gebruiker als het ware tussen de AI in zit. Zo weet de deskundige wat de AI doet en waarom die bepaalde dingen herkent. Onregelmatigheden of gekke dingen kunnen opgemerkt en daarna nader bekeken worden. Dit is belangrijk voor forensisch onderzoekers, want die moeten in de rechtbank kunnen uitleggen waar een conclusie op gebaseerd is. AI kan een black box zijn, maar dit biedt perspectief.”

Kritisch

Zoals iedere vernieuwing binnen Al moet ook Explainable AI kritisch bekeken worden. Het grootste gevaar is dat mensen een bias krijgen op basis van wat de computer zegt en daaruit verkeerde conclusies trekken, legt Geradts uit: “Een afwijking of onregelmatigheid in de gegevens die AI vindt kan vele oorzaken hebben. Daar moet echt nog goed naar gekeken worden. Je weet alleen nog maar: hé, hier zit iets raars.” Het programma is nog een prototype, maar voor collega’s is het al bruikbaar. Het is vrij toegankelijk en onderzoekers uit alle landen kunnen het gebruiken. “Explainable AI vervangt ook niet de andere methodes; het is een aanvulling. Maar wel een aanvulling met enorme potentie.”

Kat-en-muis

Niet alleen de AI om deepfakes mee te detecteren ontwikkelt zich snel. Ook de deepfake software doet aan self-learning en wordt steeds beter. Het blijft een kat-en-muis-spel tussen de ontwikkelaars en de experts die het detecteren. Des te belangrijker is het om de nieuwste kennis met elkaar uit te wisselen en internationaal en interdisciplinair samen te werken op het hoogste niveau.