Waar blijft de mens in een toekomst die geregeerd wordt door AI?

29 september 2022

Vijf vragen en antwoorden over hete hangijzers rond kunstmatige intelligentie

Irene Kuling en Lambèr Royakkers (foto's: Angeline Swinkels)
Irene Kuling en Lambèr Royakkers (foto's: Angeline Swinkels)

Kunstmatige intelligentie is een belangrijk onderzoeksgebied van de TU/e. Honderden onderzoekers zijn dagelijks op zoek naar nieuwe zinvolle toepassingen van AI in bijvoorbeeld de gezondheidszorg of in de robotica. Maar hoe denken onze wetenschappers over een aantal hete hangijzers rond AI, zoals privacy, autonomie en sociale media? We vroegen het aan Irene Kuling, universitair docent en gespecialiseerd in haptische systemen en telerobotica, en Lambèr Royakkers, hoogleraar ethiek van de digitale samenleving. Het leverde een boeiend gesprek op over de kansen en risico’s van AI, en de rol van de mens daarin.

 

ZIJN DE STRENGE EUROPESE PRIVACYREGELS WEL IN HET BELANG VAN DE EUROPESE BURGERS?

  • Ja

    Door de belangen van individuele gebruikers centraal te stellen, wordt die beschermd tegen misbruik van zijn of haar persoonlijke gegevens door bedrijven en de overheid.

  • Nee

    Door de strenge privacyregels ontmoedigt Europa innovatie, en dreigt het de concurrentiestrijd met de VS en China te verliezen.

Irene Kuling: “Het is juist goed dat de EU strenge regels heeft. Je kunt dat niet overlaten aan burgers zelf, omdat je niet kunt verwachten dat iedereen overal verstand van heeft en de gevolgen kan overzien. Nu zijn deze zaken gezamenlijk geregeld vanuit de overheid, in plaats van dat iedereen steeds zelf moet na denken of ze al of niet hun data willen delen.

Ik ben ook erg voor privacy by design. Dat ontwikkelaars en ingenieurs al in een heel vroeg stadium nadenken wat de privacygevolgen zijn van de robots of apps die ze maken.
Dat is iets dat ik ook erg stimuleer bij mijn promovendi. Dat ze zich afvragen: waarom wil ik dit eigenlijk maken: omdat het kan of omdat het iets toevoegt?

Maar het blijft een lastige afweging: denk bijvoorbeeld aan een robot waarmee je op afstand een kopje thee kan inschenken voor je oma in het verpleeghuis. Dat is aan de ene kant handig, maar aan de andere kant brengt het allerlei privacy-vraagstukken met zich mee. Bijvoorbeeld rondom aanrakingen. Veel mensen ervaren aanraking als iets heel intiems, dus daar moet je wel goed over nadenken.”

Lambèr Royakkers: “Volgens mij is de tegensteling tussen privacy en innovatie niet zo zwart-wit. Het is waar, bedrijven als Google en Facebook zijn groot geworden door te profiteren van klantgegevens. Maar inmiddels zijn ze onder druk van de Europese privacywetgeving 180 graden gedraaid. En voor Apple is privacy juist een handelsmerk. Onderschat ook niet de invloed van de miljardenboetes, die bijvoorbeeld Google heeft gekregen. Dat is echt geen lachtertje!

Ik denk dat die Europese regels bedrijven juist dwingen tot innovatie. Neem Self Sovereign Identity (SSI), waarbij je zelf beschikt over je persoonlijke informatie, en waardoor transacties veel sneller verlopen. Dat is zowel in belang van burgers als van bedrijven. Die technologie is ontwikkeld onder druk van de Europese privacybescherming, en is zelfs strenger dan die regels!”

Irene Kuling

Irene Kuling is universitair docent Haptics & Soft robotics aan de Technische Universiteit Eindhoven. Ze studeerde natuurkunde, mens-techniek interactie en promoveerde op een proefschrift  over de vraag ‘Hoe weet je waar je hand is?’ Als onderzoeker combineert ze de perceptuele en biomechanische eigenschappen van de mens met het ontwerpen van techniek om op afstand taken te kunnen uitvoeren en te kunnen waarnemen. Dergelijke haptische systemen vinden toepassingen in verschillende domeinen, uiteenlopend van zorg en revalidatie tot het plukken van fruit.

 

 


ZULLEN ZELFRIJDENDE AUTO’S ONS VERKEER VEILIGER MAKEN?

  • Ja

    Door de slimme algoritmes in de auto’s wordt de factor mens zoveel mogelijk uitgeschakeld, waardoor er duizenden ongelukken worden voorkomen en levens gespaard.

  • Nee

    Het verkeer in onze drukke steden is zo onvoorspelbaar, dat de mens altijd het laatste woord moet hebben, al was het maar vanwege de aansprakelijkheid bij ongelukken.

Lambèr Royakkers: “Ik ben echt een groot voorstander van de zelfrijdende auto, en ook van rijtaak-ondersteunende systemen, zoals we die nu al hebben. Wat mij betreft worden die verplicht. Alleen al het automatisch beperken van de maximumsnelheid scheelt 21 procent verkeersdoden. Meer dan 90 procent van alle ongelukken gebeurt door menselijk falen. Het zou toch geweldig zijn als we die menselijke factor eruit kunnen halen?!

Ik denk wel dat het allemaal minder snel zal gaan dan veel mensen denken. Op snelwegen kan het misschien al over vijf jaar, maar binnen de bebouwde kom gaat dat misschien nog wel tien tot twintig jaar duren. Vooral omdat onze infrastructuur er nog niet op is ingericht. Ik denk dat de zelfrijdende auto pas kan gaan rijden, als hij echt veilig is.

Wat betreft de aansprakelijkheid, dat is natuurlijk helemaal geen issue. We krijgen waarschijnlijk een collectieve aansprakelijkheidsverzekering voor iedereen met een zelfrijdende auto. En omdat er veel minder ongelukken gebeuren door zelfrijdende auto’s, zullen de kosten daarvan stukken lager uitvallen dan je huidige autoverzekering.”

Irene Kuling: “Als je het hebt over autonomie, zijn zelfrijdende auto's  niet het beste voorbeeld. We hebben het over een compleet andere benadering van transport. Dat je automatisch van A naar B wordt gebracht, zonder dat je daar iets voor hoeft te doen. Daar wordt iedereen toch blij van? Bovendien is de huidige autonomie vaak schijn. Wie begrijpt zijn eigen auto nog?

Ik zie wel een psychologisch probleem, vooral in de bebouwde kom. Mensen vinden het heel lastig om fouten te vergeven die ze zelf nooit zouden hebben gemaakt. De fouten van autonome systemen zijn in onze ogen vaak zo dom, dat we het hele systeem niet meer willen vertrouwen.

Uiteindelijk moeten we een keuze maken. Of we houden de mens in de loop, maar dan moet de mens ook écht in de loop blijven. Of we zeggen: die slimme systemen zijn zo ondoorzichtig geworden, die kan je niet meer helemaal begrijpen. Dan moet je de menselijke factor er ook helemaal uithalen. Dat is veel veiliger.”


IS HET MOGELIJK OM ALGORITMES TE ONTWIKKELEN DIE NIET DISCRIMINEREN?

  • Ja

    Door goed na te denken over welke data je gebruikt, deze data zoveel mogelijk te ontdoen van bias, en door algoritmen te ontwerpen die volledig transparant en verklaarbaar zijn.

  • Nee

    Algoritmes en de besluiten die daarop zijn gebaseerd, weerspiegelen noodzakelijkerwijs altijd bestaande machtsverhoudingen. Ze mogen daarom alleen gebruikt worden als ze geen negatieve gevolgen hebben voor de rechten en belangen van individuele burgers.

Irene Kuling: “Mensen hebben moeite om te reflecteren op hun eigen vooroordelen, als ze zich daar al bewust van zijn. Zolang we die biases niet goed begrijpen, is het denk ik  onmogelijk om niet-gekleurde algoritmes te ontwikkelen. Dat hoeft op zich geen probleem te zijn, zolang die algoritmes maar doen wat je wil dat ze doen. Het hangt ook heel erg af waarvoor je het systeem gebruikt. Bij sollicitaties bijvoorbeeld kan het heel goed werken bij een eerste schifting van kandidaten, juist om menselijke bias in deze fase te voorkomen.

Maar bijvoorbeeld in de zorg zou ik er heel voorzichtig mee zijn, zeker als het gaat om vragen van leven en dood. Op het moment dat de computer zegt: nou, je overlevingskansen zijn heel erg klein, dus we gaan je niet behandelen. Ik denk dat dat het nog heel lang zal duren voordat we dat accepteren.”

Lambèr Royakkers: “Eens. De zorg is echt een domein waar je de verantwoordelijkheid bij de mens moet leggen. Dat kun je niet afschuiven op een computer. Hetzelfde geldt bijvoorbeeld voor killer robots, waar ik veel over heb geschreven. Daar wil je ook dat de operator het laatste woord heeft.

Maar over het algemeen ben ik wel hoopvol. Ik denk zelfs dat AI-systemen straks minder bias zullen bezitten dan een mens. Veel zal afhangen van hoe veel we investeren in het ontwikkelen van explainable AI, zodat je als gebruiker weet waarom een systeem bepaalde keuzes maakt. Mensen moeten begrijpen waarom ze er zijn uitgepikt door de Belastingdienst, of waarom ze bepaalde leningen niet krijgen.

Bij bepaalde simpele AI-modellen kan dat nu al, maar bij deep learning en neurale netwerken is dat al een stuk lastiger. Maar echt foutloos wordt zo’n systeem natuurlijk nooit. Het gaat erom hoeveel fouten je wil accepteren.”

Lambèr Royakkers

Lambèr Royakkers is professor Ethics of the Digital Society aan de Technische Universiteit Eindhoven. Hij studeerde wiskunde, wijsbegeerte van de technische maatschappijwetenschappen en rechten, en promoveerde op een proefschrift over normenlogica. Hij is als onderzoeker betrokken bij verschillende nationale als internationale projecten over digitalisering, en is tevens ethisch adviseur van verschillende Europese projecten. Hij is (co)auteur van meer dan tien boeken, waaronder Ethics, Technology, and Engineering (Blackwell, 2011) en Just Ordinary Robots (CRC Press, 2016).

 


DRAGEN AUTOMATISERING EN ROBOTISERING WEL BIJ AAN MEER WELVAART EN MEER VOORSPOED?

  • Ja

    Door vervelend werk te automatiseren kunnen meer mensen werk doen dat echt zinvol is en bijdraagt aan een gelukkiger samenleving.

  • Nee

    Door het toenemend gebruik van robots zullen steeds meer mensen, ook uit de middenklasse, werkloos worden. De overheid moet deze ontwikkeling reguleren, onder meer door ervoor zorgen dat deze mensen een zinvol alternatief wordt geboden.

Lambèr Royakkers: “Dat is echt een moeilijke vraag. Aan de ene kant zijn er wetenschappers die zeggen: automatisering en robotisering leiden in het begin misschien tot meer werkloosheid, maar het creëert ook weer nieuwe banen. Aan de andere kant zijn er mensen die zeggen: die nieuwe banen zullen ook weer door robots worden gedaan. Verder gaat het nu niet alleen om laag geschoolde arbeid, maar ook over cognitief routinewerk. Denk aan je boekhouder of je notaris. Dat raakt ook de middenklasse. Dus daar moet de overheid wel iets mee, bijvoorbeeld door mensen om te scholen.

Van de andere kant: ik ben altijd een voorstander geweest van het basisinkomen. Als  automatisering en robotisering inderdaad een groot deel van het werk gaan overnemen, dan hebben mensen eindelijk de vrijheid om echt te doen waar ze zin in hebben. Misschien heb je dan wel een veel gelukkiger samenleving.”

Irene Kuling: “Ik denk ook dat robots op den duur bepaalde herhalende functies prima kunnen overnemen. Ook allerlei banen waar we nu gewoon geen mensen voor kunnen vinden, omdat niemand het wil doen. En ik geloof ook echt dat dat nuttig kan zijn. Denk aan vies werk, of seizoensarbeid.

Een probleem dat ik wel zie is schaalvergroting. Hoe voorkomen we dat die robots in handen zijn van een paar grote bedrijven met een monopoliepositie in bijvoorbeeld de voedselbranche? Dat kan echt heel ontwrichtend werken, niet alleen voor kleinere bedrijven, maar ook voor de samenleving als geheel.

Of robotisering echt een probleem wordt, hangt af van een bredere schets die we zouden moeten maken van hoe de samenleving er op den duur uitziet en hoe we zouden willen dat hij eruit ziet. Dat is niet alleen een taak van wetenschappers, maar van iedereen.”


ZIJN SOCIALE MEDIA ZOALS FACEBOOK EN TWITTER VERANTWOORDELIJK VOOR DE TOENEMENDE POLARISATIE?

  • Ja

    Door hun algoritmes en verdienmodel dragen sociale media bij aan de verspreiding van fake news en extreme standpunten.

  • Nee

    Sociale media zijn juist een belangrijk platform voor de uitwisseling van nieuwe politieke ideeën, en dragen zo bij aan meer pluriformiteit en inclusie.

Irene Kuling:  “Ja, ik denk zeker dat sociale media een rol spelen in het voeden van twijfels en onrust in de samenleving. Het is helemaal niet gek om ergens vragen bij te stellen. Dat doen we als wetenschappers voortdurend. Maar als je niet een breed palet van antwoorden voorgeschoteld krijgt, omdat je gewoon niet weet waar je op moet zoeken, dan verlies je eigenlijk alle nuances. Dan zuigt het algoritme je mee in een soort tunnel van je eigen gelijk.

Dus ik geloof wel dat sociale media verantwoordelijk zijn. Of dat ook betekent dat ze eigen rechter mogen spelen, en zelf bepalen wie ze blokkeren, is een andere vraag.

Ik zou het heel mooi vinden als sociale media hun best zouden doen om de dialoog te bevorderen. Dat het niet blijft bij dat geschreeuw in 140 tekens. Ik zie daar ook een rol voor docenten; dat we studenten leren communiceren en beargumenteren waarom iets wel of niet zo is. Dat het niet altijd zwart-wit is..”

Lambèr Royakkers: “Ik denk ook dat sociale media hebben bijgedragen aan de toenemende polarisatie in onze samenleving, al zijn er ook onderzoeken die zeggen dat het wel meevalt. Hoe dan ook, het is denk ik cruciaal dat we nadenken over de rol van sociale media in de toekomst.

Zoals Irene al zei, democratie vereist dat mensen in aanraking komen met verschillende visies en standpunten. Maar het is nu vooral kort en krachtig communiceren in een of twee zinnen. En je ziet dat politici als Trump en Baudet daar wel bij varen. Die groeien uit tot sterren. Terwijl politiek bij uitstek gaat over complexe overwegingen en moeilijke compromissen. Die zijn niet te vangen in een beperkt aantal tekens.

De vraag is wel of we het tegengaan van polarisatie kunnen overlaten aan de sociale media zelf. Het gaat uiteindelijk natuurlijk in tegen hun verdienmodel. Ik denk dat we dat echt van buitenaf moeten reguleren. Daar ligt dus een taak voor overheden.”

Ethiek en EAISI

Het nadenken over ethische dilemma’s rond kunstmatige intelligentie en robotica is een belangrijk onderdeel van EAISI, het AI-instituut van de TU/e. Zowel in de opleiding van onze ingenieurs als in het onderzoek speelt ethiek een grote rol. De universiteit wil zo waarborgen dat alle AI-innovaties daadwerkelijk bijdragen aan het oplossen van maatschappelijke problemen, en dat de mensen die deze technologieën gebruiken erop kunnen vertrouwen dat hun belangen voorop staan. Wil je ook onderzoek doen naar AI aan de TU/e? Dit zijn onze actuele vacatures.

Mediacontact

Henk van Appeven
(Communications Adviser)

Het laatste nieuws

Blijf ons volgen