Waarom kunstmatige intelligentie niet zonder ethiek kan

16 maart 2021

Mykola Pechenizkiy onderzoekt hoe hij met datamining en machine learning ‘bias’ in algoritmen kan voorkomen

Beeld: Shutterstock (metamorworks)
Beeld: Shutterstock (metamorworks)

Kunstmatige intelligentie draait vaak om het vinden van statistische patronen in historische gegevens om waardevolle voorspellingen te doen voor de toekomst. Er zijn echter steeds meer aanwijzingen dat het gebruik van algoritmen, waaronder etnische profilering, kwetsbare groepen in de samenleving ernstig benadeelt, zelfs wanneer er geen expliciete bedoeling is om te discrimineren. We spraken met Mykola Pechenizkiy, hoogleraar Data Mining en een van de pioniers op het gebied van ethische AI, over zijn inspanningen om AI eerlijk en betrouwbaar te maken.

Op 15 januari van dit jaar dienden premier Rutte en zijn kabinet hun ontslag in, slechts twee maanden voor de Tweede Kamerverkiezingen. De aanleiding was niet, zoals je wellicht zou verwachten, de aanpak van de Corona-pandemie, maar het toeslagenschandaal, waarbij duizenden Nederlandse gezinnen, veelal uit etnische minderheden, ten onrechte waren beschuldigd van fraude met kinderbijslag.

De affaire is slechts één voorbeeld van een groeiende aantal incidenten die erop wijzen dat kunstmatige intelligentie en machine learning een minder gunstige invloed hebben op onze samenleving en de mens. Andere voorbeelden zijn gezichtsherkenningssoftware die gezichten met een donkere huidskleur en de gezichten van vrouwen discrimineert, beeldsoftware die bijgesneden afbeeldingen van vrouwen automatisch aanvult met een laag uitgesneden topje of bikini, of een geavanceerd taalmodel (GPT-3) dat moslims in verband brengt met geweld.

"Anders gezegd: AI heeft een bias-probleem", zegt Mykola Pechenizkiy. "De voorspellingen die het doet, weerspiegelen noodzakelijkerwijs de data waarop ze zijn gebaseerd. En we weten dat die vaak vertekend zijn op manieren die bestaande ongelijkheden in de samenleving versterken. Of, zoals data-analisten het graag zeggen: garbage in, garbage out."

Ethiek in het middelpunt

AI heeft een steeds grotere impact op onze dagelijkse wereld - en beïnvloedt miljoenen mensen, niet alleen in de industrie, maar ook in de gezondheidszorg, het onderwijs, de overheid en op vele andere gebieden. Neem voorspellende analyses, bijvoorbeeld, waarmee patiënten kunnen worden gescreend op mogelijke corona-infecties op basis van gegevens van bloedtests, of waarmee heropnames van hartpatiënten in ziekenhuizen kunnen worden voorspeld met behulp van een op aandacht gebaseerd neuraal netwerk.

Vooringenomenheid in data is dus een groot probleem, dat informatici dwingt een standpunt in te nemen. "Ik ben er sterk van overtuigd dat ethiek een integraal onderdeel moet uitmaken van AI. We kunnen het niet langer beschouwen als slechts een bijzaak bij een optimalisatieprobleem, zoals tot voor kort nog vaak het geval was," zegt Pechenizkiy.

"Tegenwoordig zijn AI en machine learning nauw verbonden met eerlijkheid, gelijke behandeling en non-discriminatie. Als je een algoritme maakt dat werkgevers helpt te beslissen wie er uitgenodigd moet worden voor een sollicitatiegesprek, moet dat algoritme niet alleen accuraat zijn, maar ook verschillende aspecten van diversiteit respecteren, en wettelijk en ethisch in orde zijn. Of als je een AI-systeem ontwerpt om huidkanker te diagnosticeren, moet het zowel voor mannen als vrouwen werken, en zowel voor mensen met een lichte als met een donkere huidskleur."

Pioniers

Pechenizkiy en zijn collega's aan de TU/e zijn echt pioniers op het gebied van ethische AI. "Het eerste proefschrift over fairness-aware machine learning werd hier aan de TU/e geschreven, door Faisal Kamiran, onder supervisie van Toon Calders. En in 2010, toen nog weinig mensen er de relevantie van inzagen, schreven we al een aantal baanbrekende papers over dit onderwerp. Een van die papers ging over discrimination aware decision tree learning, een nieuwe classificatietechniek op basis van decision tree learning die nauwkeurige voorspellingen genereert, zonder kwetsbare groepen te discrimineren.”

"De techniek houdt zowel bij de constructie van de beslisboom als bij het labelen van de bladknooppunten rekening met discriminatie, zonder aan nauwkeurigheid in te boeten. Dit werkt beter dan alleen het 'wegpoetsen' van de ‘bias’ voordat traditionele classificatiealgoritmen worden toegepast. Ons model werkt ook in gevallen van indirecte discriminatie. Bijvoorbeeld wanneer de etniciteit van een persoon sterk samenhangt met het gebied waar hij woont, wat leidt tot een classifier die discrimineert op basis van postcode."

Fairmatch

Veel recenter werk, uit 2020, draait om om bias in zogenaamde recommenders. Deze systemen worden gebruikt door bedrijven als Amazon en Spotify om de voorkeuren van gebruikers te voorspellen en hun gepersonaliseerde aanbevelingen te geven.

Onderzoek heeft uitgewezen dat deze systemen weliswaar zeer goed werken, maar ook dat ze behept zijn met een aantal problemen als gevolg van feedback-lussen die stereotiep gedrag introduceren en versterken. Ze hebben daardoor de neiging om een beperkt aantal zeer populaire items een hogere score te geven. Ook kunnen ze bevooroordeeld zijn tegen bepaalde groepen, zoals vrouwen.

Promovendus Masoud Mansoury heeft een graaf-algoritme ontworpen, Fairmatch, dat de diversiteit in aanbevelingen aanzienlijk verbetert. Het werkt als een nabewerkings-tool bovenop bestaande standaard recommenders. "Het idee is om de zichtbaarheid te verbeteren van items van hoge kwaliteit, die een lage zichtbaarheid hebben in de oorspronkelijke set van aanbevelingen", zegt Pechenizkiy.

"Het mooie is dat je Fairmatch ook in andere contexten kan gebruiken, bijvoorbeeld in recommenders die momenteel minder accurate voorspellingen voor vrouwen genereren of om goedbetaalde banen eerlijk te verdelen onder mannen en vrouwen."

Naar een betrouwbare AI 

"Dit is echt een spannende tijd voor computerwetenschappers", zegt Pechenizkiy. "We moeten nadenken over hoe we belangrijke eigenschappen als eerlijkheid en privacy kunnen formaliseren, hoe we ze kunnen integreren in onze onderzoeks- en ontwikkelingscycli, en kunnen opnemen in de pipelines van machine learning. Zeker, gegevens zijn altijd in bepaalde opzichten ‘biased’ en ‘messy’. Maar door modellen zo te ontwerpen dat ze herleidbaar en certificeerbaar zijn, kunnen we ervoor zorgen dat AI betrouwbaar is, en eerlijk over zowel zijn toegevoegde waarde als zijn beperkingen.”

"Tegelijkertijd is het belangrijk dat we samenwerken met onderzoekers uit andere disciplines, zoals juristen en ethici", zegt Pechenizkiy. Hij wijst op enkele interessante paradoxen waarop hij en zijn collega's in hun werk zijn gestuit.

"Neem bijvoorbeeld het feit dat je toegang moet hebben tot gevoelige informatie om onbevooroordeelde modellen te kunnen leren. Of de situatie waarin verschillende opvattingen over eerlijkheid met elkaar botsen, of met elkaar in evenwicht moeten worden gebracht. Hoewel deze problemen gedeeltelijk door computerwetenschappers kunnen worden opgelost, raken zij vaak aan kwesties die de exacte wetenschappen overstijgen en zich begeven op het terrein van filosofie en recht."

Gemeenschappelijke taal

Hoewel er de afgelopen vijf jaar veel vooruitgang is geboekt op dit gebied - ook aan de TU/e, hebben informatici samenwerking gezocht met filosofen en ethici - ziet Pechenizkiy nog steeds een grote kloof tussen de domeinen.

"Computerwetenschappers hebben de neiging om problemen uit de echte wereld te simplificeren, zodat ze ze in hun modellen kunnen optimaliseren, terwijl sociale wetenschappers vaak geen duidelijk beeld hebben van wat er operationeel gemaakt kan worden. Ik hoop wel dat we op dit gebied verder kunnen komen, zodra we in staat zijn een gemeenschappelijke taal te vinden, maar dat gaat niet vanzelf. Het vereist inzet van alle partijen en ook extra financiering."

Tegelijkertijd ziet de onderzoeker bepaalde ethische uitdagingen rond AI die computerwetenschappers niet kunnen oplossen (en ook niet moeten oplossen), zelfs als ze samenwerken met ethici. "Neem bijvoorbeeld het gebruik van gezichts- of spraakherkenning om bepaalde eigenschappen te voorspellen, zoals sekse of seksuele geaardheid. Dat zou ronduit onethisch zijn. Of proberen het IQ te voorspellen op basis van gezichtskenmerken, dat zou niet alleen onethisch zijn, maar ook onwetenschappelijk!"

Gewoon computerwetenschap

In dit verband is het interessant om te zien dat een groeiend aantal AI-congressen (bijv. NeurIPS 2020) van onderzoekers eist dat zij een ethische-impact-verklaring indienen, om er zeker van te zijn dat het onderzoek verantwoord is. "Ik denk dat dit een goede zaak is. In de sociale wetenschappen is het gebruikelijk om een ethische toetsing uit te voeren, dus waarom niet in de informatica?".

Toch vindt Pechenizkiy dat we het niet moeten overdrijven. "Zoals er een hype is in AI, lopen we ook het risico een hype te creëren in AI-ethiek. Veel onderzoek in de informatica is gewoon computerwetenschap, en heeft waarschijnlijk geen enkele ethische impact. Ethiek is belangrijk, maar als je geen AI hebt, heb je ook geen ethiek in AI. Soms zijn mensen geneigd dat te vergeten".

Mykola Pechenizkiy en betrouwbare AI

Mykola Pechenizkiy is voorzitter van de Data Mining Group aan de TU/e. Hij is tevens leider van het Data & AI cluster, waarin drie onderzoeksgroepen binnen de faculteit Mathematics and Computer Science die zich bezighouden met AI-onderzoek samenwerken, en lid van de wetenschappelijke raad van EAISI, het AI-instituut van de TU/e.

Pechenizkiy's werk op het gebied van eerlijke AI maakt deel uit van een veel bredere inspanning aan de TU/e om AI-systemen te creëren die betrouwbaar zijn, nu kunstmatige intellingentie steeds meer doordringt in ons dagelijks leven. We zijn ervan overtuigd dat AI alleen op grote schaal succesvol kan worden ingevoerd en gebruikt als mensen er vertrouwen in kunnen hebben.

Overal aan de TU/e werken onderzoekers hard om dit doel te bereiken: ze zorgen ervoor dat de gegevens die ze gebruiken privacyvriendelijk en gemakkelijk beschikbaar zijn; dat de algoritmen en softwaremodellen die ze ontwerpen eerlijk, robuust en verantwoord zijn; en dat de autonome systemen die ze ontwikkelen veilig en veerkrachtig zijn.

Een leidend principe in al het onderzoek naar betrouwbare AI aan de TU/e is samenwerking, tussen verschillende disciplines en faculteiten. De onderzoekslijn Certifiable, Robust, and Explainable AI binnen EAISI is daarvan een goed voorbeeld.

Een volledig overzicht van alle onderzoeksgroepen aan de TU/e die werken aan betrouwbare AI, vind je hier. Het laatste nieuws over ons AI onderzoek is hier te vinden.

 

Mediacontact

Henk van Appeven
(Communications Adviser)

Meer kunstmatige intelligentie