NFI-er schrijft internationaal handboek over toepassing kunstmatige intelligentie bij forensisch onderzoek

De politie in de Verenigde Staten arresteerde in het bijzijn van haar twee kinderen een acht maanden zwangere vrouw omdat ze met geweld een auto zou hebben gestolen. Haar gezicht was verkeerd herkend door kunstmatige intelligentie. “Het is een recent voorbeeld van waar het fout ging met het gebruik van kunstmatige intelligentie bij forensische opsporing,” vertelt Zeno Geradts, forensisch onderzoeker van het NFI, bijzonder hoogleraar van de Universiteit van Amsterdam en auteur van het zojuist verschenen internationale boek ‘Artificial Intelligence (AI) in Forensic Sciences’. Juist omdat er rondom het gebruik van AI zoveel controverses zijn, heeft Geradts het boek geschreven. “Wanneer het fout gaat, dan ligt het niet aan de kunstmatige intelligentie, maar gaat het altijd om verkeerd gebruik.”

Geradts schreef het boek samen met zijn Noorse collega Katrin Franke van de Norwegian University of Science and Technology en het Center for Cyber and Information Security (CCIS). Het boek is een gids over hoe kunstmatige intelligentie goed en verantwoord gebruikt kan worden bij forensisch onderzoek. Het boek is geschreven voor studenten, voor forensisch onderzoekers, voor juristen die vragen hebben over AI en de toepassing ervan. Maar het is zeker ook leesbaar voor iedereen met interesse in dit onderwerp.

Vergroot afbeelding
De cover van het boek ‘Artificial Intelligence (AI) in Forensic Sciences’.

Verantwoord gebruik

Veel NFI-collega’s leverden een bijdrage aan het boek, dat de regels en richtlijnen voor verantwoord gebruik beschrijft. Het NFI gebruikt AI bijvoorbeeld bij gezichtsvergelijkingen, sprekervergelijking, bij onderzoek aan kogels en hulzen en voor het herkennen van deepfakes en verborgen boodschappen van criminelen in foto’s of video’s. Onderzoekers moeten volgens Geradts de inzet van kunstmatige intelligentie altijd valideren op de data waarvoor ze het willen gebruiken. “Ze moeten alert zijn op eventuele afwijkingen van het systeem, de beperkingen van de systemen kennen en een mens moet de resultaten altijd controleren.” Het algoritme voor gezichtsherkenningen train je door heel veel voorbeelden te laten zien. “Wanneer een systeem vooral foto’s van witte mannen te zien krijgt, dan kan het minder goed werken bij mannen of vrouwen van kleur. Dat zie je snel genoeg als je het systeem valideert op de dataset waarvoor jij het wil gebruiken.”

Kansen

Wanneer kunstmatige intelligentie verstandig wordt toegepast, hoef je niet bang te zijn, benadrukt Geradts. “Juist niet. Het verantwoord gebruiken van kunstmatige intelligentie biedt kansen voor de forensische wetenschap. Kunstmatige intelligentie is objectiever dan mensen. Kunstmatige intelligentie kent geen mindere of betere dagen, zoals mensen wel eens hebben.” Geradts waarschuwt wel voor verkeerde toepassingen, zoals het bovengenoemde voorbeeld met de zwangere vrouw: “Hierdoor kunnen mensen het vertrouwen in AI verliezen.” Dat zou Geradts heel jammer vinden, want de techniek helpt hier de mens vooruit.

Zwarte doos

Wat mensen eng vinden is vaak de ‘zwarte doos’ van kunstmatige intelligentie, dat je niet weet hoe het model exact werkt. Er wordt veel onderzoek gedaan naar AI uitleggen, ‘explainable AI’, zegt Geradts. Maar voor de echt grote complexe modellen, zoals chatGPT, is een volledig begrip niet haalbaar. Volgens Geradts hoeft dat niet te betekenen dat die AI niet gebruikt kan worden: “Het menselijk brein is ook een black box en dat gebruiken we dagelijks.” We weten ook niet precies hoe een menselijk brein zich een oordeel vormt. “Er zijn bijvoorbeeld eerdere ervaringen, associaties en soms zijn er emoties. Die beïnvloeden je oordeel. Bij kunstmatige intelligentie is niet altijd meer terug te halen hoe een systeem is getraind. Soms zitten daar commerciële redenen achter, soms omdat het echt niet meer terug te halen is. Essentieel is dat je het systeem dat je gebruikt van te oren valideert met betrouwbare data.” 

Eerste niet-Amerikaan die voor AAFS handboek schrijft

Het boek is een uitgave van de American Academy of Forensic Sience (AAFS), een vereniging van duizenden forensische wetenschappers uit meer dan 72 landen. Het is voor het eerst in de geschiedenis van AAFS dat een handboek voor een forensische discipline wordt geschreven door wetenschappers die niet op het Amerikaanse continent wonen. Dat is niet toevallig, denkt Geradts: “Op het gebied van de toepassing van AI in de forensische wetenschap lopen we in Nederland voorop.” Hij heeft daar wel een verklaring voor: “In Amerika heb je te maken met juryleden in het rechtssysteem. Dat zijn gewone burgers. In Nederland kennen we rechters die speciaal opgeleid worden. Zij zijn gewend om met bewijs om te gaan, en hoe dat te interpreteren. Hierdoor kunnen we rechters opleiden, zodat ze begrijpen wat we doen, waarom en welke waarborgen we hanteren. Hierdoor konden wij AI makkelijker implementeren.” 

Ontwikkelingen

Kan het in Nederland zo fout gaan als in het voorbeeld van de zwangere vrouw?“ De grootste fout die je kunt maken, is zeggen dat een systeem niet kan falen. Een mens maakt ook fouten, en dat geldt voor kunstmatige intelligentie ook,” zegt Geradts: “De essentie is dat je je bewust bent van de beperkingen en checks en balances inbouwt om de kans op fouten zo klein mogelijk te maken. Ik denk dat we bij het NFI de juiste checks en balances hebben ingebouwd. We valideren de systemen ende systemen ondersteunen de mens.” De ontwikkelingen op het gebied van AI gaan snel. Geradts verwacht het boek in de toekomst te zullen moeten updaten: “Maar de basisprincipes blijven staan.”