Van deepfakes naar Safe Fakes

31 augustus 2021

Deze AI-onderzoekers gebruiken nepgezichten om beelden van mensen te anonimiseren. Daardoor wordt het mogelijk om algoritmes voor het detecteren van gezichten te trainen met behoud van privacy.

Deepfakes, door kunstmatige intelligentie gegenereerde beelden, hebben een slechte reputatie. Toch zijn er wel degelijk nuttige toepassingen te verzinnen voor dit soort nepbeelden. Denk aan de filmindustrie, de medische wereld en in de kunst. Een nieuwe toepassing, ontwikkeld door onderzoekers van de Technisch Universiteit Eindhoven in samenwerking met de Universiteit van Amsterdam, zou wel eens dé uitkomst kunnen zijn voor AI-onderzoek dat gebruik maakt van privacygevoelig beeldmateriaal om algoritmes te trainen. Door Europese privacyregels staat dat soort onderzoek steeds meer onder druk. “Met safe fakes kun je algoritmes trainen met beelden van mensen zonder dat die herkenbaar zijn.” 

Voor Sander Klomp, onderzoeker aan de TU/e in de VCA Research groep en ook werkzaam bij TU/e-spin-off ViNotion, begon het als een heel praktisch probleem.

“Bij ViNotion maken we slimme algoritmes waarmee bijvoorbeeld gemeenten kruispunten, waar verschillende verkeersstromen samen komen, in de gaten kunnen houden. Om die algoritmes te trainen, zijn ontzettend veel beelden van voertuigen, fietsers en voetgangers nodig. Dat is met de nieuwe privacyregels van de EU een stuk lastiger geworden. De gezichten zijn namelijk terug te voeren op echte personen, wat volgens de EU in principe alleen mag met hun toestemming.”

De oplossing lijkt simpel. Je anonimiseert de beelden, bijvoorbeeld door de gezichten wazig of korrelig te maken, of door een zwarte balk toe te voegen (zie afbeelding  hierboven van Barack Obama). Anders dan bij gezichtsherkenning, is het voor detectie van personen namelijk niet interessant hoe iemand er uit ziet. Het is genoeg dat het algoritme herkent dat het om een mens gaat.

Drie manieren om een menselijk gezicht te anonimiseren: door blurren, door een zwart balkje, en door deepfakes te gebruiken. Merk op dat in dit geval het gezicht ook van geslacht verandert.
Drie manieren om een menselijk gezicht te anonimiseren: door blurren, door een zwart balkje, en door deepfakes te gebruiken. Merk op dat in dit geval het gezicht ook van geslacht verandert.

ImageNet

Dit is ook de weg die gekozen is door bijvoorbeeld ImageNet, met ruim 14 miljoen afbeeldingen de grootste en meest gebruikte databank voor AI-onderzoek. Dat besloot in maart 2021 om alle gezichten te ‘blurren’.

“Maar voor ons ligt dat anders,” zegt Klomp. “Wij gebruiken die beelden juist om algoritmen te trainen hoe mensen eruitzien. Als die altijd een waas voor hun gezicht hebben, denkt het algoritme dat mensen er altijd zo uitzien. Je kunt je voorstellen wat dat doet met de nauwkeurigheid van je AI-systemen. Dat moet beter kunnen!”

Deepfakes

Klomp en zijn collega’s dachten meteen aan deepfakes, kunstmatige afbeeldingen of stemmen die zijn gegenereerd door kunstmatige intelligentie. “Door de gezichten op onze beelden te vervangen door willekeurige nepgezichten, kan je de privacy van de betrokkenen beschermen, en tegelijk je detectoren trainen.”

Die oplossing is niet helemaal nieuw, in 2018 is voor het eerst geprobeerd om gezichten te anonimiseren met behulp van deepfakes. Maar het resultaat viel toen nog tegen. Inmiddels zijn de algoritmen om kunstmatig realistische gezichten te genereren, zogenaamde GANs, een stuk beter geworden.

Generative Adversarial Networks, een vorm van machine learning, bestaan uit twee neurale netwerken, die een spel met elkaar spelen. Aan de ene kant heb je een generator, die willekeurig gezichten ‘genereert’, en aan de andere kant een discriminator, die bepaalt of dat gezicht wel voldoende ‘echt’ is.

Dit proces herhaalt zich talloze keren, tot de generator uiteindelijk zo slim is dat deze gezichten kan maken die in niets meer zijn te onderscheiden van een echt gezicht. De beelden kunnen dan worden gebruikt om een gezichtsdetector te trainen.

Het gezicht van Barack Obama met vijf keypoints.
Het gezicht van Barack Obama met vijf keypoints.

DeepPrivacy

De onderzoekers gebruikten voor hun onderzoek verschillende GAN’s. Uiteindelijk bleek DeepPrivacy, op het moment van het onderzoek het meest geavanceerde algoritme om nepgezichten te genereren, het beste te scoren. Het overtrof niet alleen traditionele manieren om gezichten te anonimiseren (zoals blurren), maar ook andere GAN’s.

“We zien in onze tests dat detectoren die zijn getraind met de nepgezichten van DeepPrivacy een detectiescore halen van rond de 90 procent. Dat is slechts 1 tot 3 procentpunt minder dan detectoren die zijn getraind op niet-geanonimiseerde gegevens. Nog altijd heel goed, zeker als je in aanmerking neemt wat het alternatief is: helemaal geen data meer kunnen gebruiken vanwege de privacyregels.”

De reden dat trainen op DeepPrivacy beelden zoveel beter werkt dan met oudere GAN’s, is dat het minder keypoints nodig heeft (zie afbeelding).

Klomp: “Keypoints zijn punten die kenmerkend zijn voor het gezicht, zoals de positie van de ogen of de oren. De anonimisator detecteert die voor elk gezicht, en maakt dan de rest van het gezicht zwart, zodat het onherkenbaar wordt. Daarna ‘plakt’ de generator er een nieuw fictief gezicht op. DeepPrivacy gebruikt in totaal maar zeven keypoints, waardoor het zelfs gezichten kan anonimiseren van maar 10 pixels groot.”

De praktijk

De onderzoekers zijn heel tevreden over het resultaat, omdat zij als eerste hebben laten zien dat je goede gezichtsdetectoren kan trainen op beelden die zijn geanonimiseerd met deepfakes.

Ze willen DeepPrivacy, of eventuele opvolgers van deze GAN, dan ook gebruiken om de data van ViNotion te anonimiseren.

Klomp: “Het mooie is dat onze methode ook gebruikt kan worden door onderzoekers die helemaal niet zijn geïnteresseerd in gezichtsdetectie. Denk aan een camera op een zelfrijdende auto, die andere auto’s moet kunnen herkennen. Op die beelden staan vaak ook herkenbare mensen. Die kun je natuurlijk anonimiseren door ze te blurren, zoals ImageNet doet, maar dan lever je toch in op precisie. Onze methode werkt dan beter.”

Meer info

Sander Klomp, Matthew van Rijn, Rob Wijnhoven, Cees G.M. Snoek, Peter de With Safe Fakes: Evaluating Face Anonymizers for Face DetectorsHet paper is inmiddels geaccepteerd door IEEE International Conference on Automatic Face and Gesture Recognition 2021 en zal eind 2021 worden gepubliceerd. De preprint is hier te vinden.

Sander Klomp

Sander Klomp is promovendus bij de vakgroep Video Coding and Architectures van professor Peter de With. Hij doet op dit moment onderzoek naar het gebruik van kunstmatige intelligentie om bermbommen op te sporen. Hij hoopt in 2022 te promoveren. Het onderzoek naar bermbommen heeft net als het onderzoek naar privacy-vriendelijke algoritmes een grote maatschappelijke relevantie. “Dat vind ik belangrijk”, zegt Klomp.

Behalve bij de TU/e is Klomp ook werkzaam bij ViNotion, een in Eindhoven gevestigde spin-off van de TU/e die in 2007 werd opgericht door Egbert Jaspers. ViNotion maakt slimme algoritmes die worden gebruikt om automatisch verkeers- of bezoekersstromen in kaart te brengen. Klanten zijn onder meer gemeenten of organisatoren van festivals, zoals Lowlands.

De TU/e heeft een grote staat van dienst als het gaat om het ontwikkelen van slimme beeldherkeningssoftware. Zo heeft de vakgroep van Peter de With onder meer algoritmes ontwikkeld die helpen bij de opsporing van slokdarmkanker, het automatisch laten rijden van auto’s en het ontwerpen van 3D-modellen om calamiteiten op te sporen in een stedelijke omgeving. De onderzoekers werken daarin nauw samen met het AI-instituut van de TU/e, EAISI.

Mediacontact

Henk van Appeven
(Communications Adviser)

Het laatste nieuws

Blijf ons volgen