Wim Nuijten pleit voor waakzaamheid bij de ontwikkeling van AI:

'Niemand weet zeker waar we nu zijn en waar we met grote snelheid naartoe gaan'

12 mei 2023
Wetenschappelijk directeur van EAISI Wim Nuijten. Foto: Bart van Overbeeke
Wetenschappelijk directeur van EAISI Wim Nuijten. Foto: Bart van Overbeeke

Hoe zorg je ervoor dat artificial intelligence-technologie de mensheid blijft dienen en dat daarbij de rechten van het individu beschermd blijven? Daarover buigen Europarlementariërs zich bij het ontwikkelen van de AI Act, een wet waarvoor ook de TU/e input levert. Maar de Europese wet is er nog niet en ondertussen blijven systemen als GPT-4 (de motor achter ChatGPT) zich in een noodtempo doorontwikkelen. En dat gebeurt veel te snel, staat in een open brief die door veel tech-prominenten werd ondertekend, waaronder verschillende TU/e’ers. Een interview met Wim Nuijten, wetenschappelijk directeur van het Eindhoven Artificial Intelligence System Institute.

In de open brief die een maand geleden online verscheen wordt opgeroepen tot een ontwikkelpauze voor grote AI-experimenten, omdat de ontwikkelingen te snel zouden gaan en de gevolgen daarvan niet meer te overzien zouden zijn. Meer dan 25 duizend mensen ondertekenden de brief, waaronder veel vooraanstaande figuren binnen de wereld van Artificial Intelligence en ook enkele TU/e’ers. Wie de brief ook ondertekende, is Wim Nuijten, wetenschappelijk directeur van het Eindhoven Artificial Intelligence Systems Institute (EAISI). Hij vindt dat we de risico’s rondom de ontwikkeling van een kunstmatige algemene intelligentie, ook wel Artificial General Intelligence (AGI), serieus moeten nemen, omdat die potentieel het voortbestaan van de mensheid in gevaar kunnen brengen.

AI Act

Iets wat zou kunnen helpen om catastrofale gevolgen te voorkomen is de AI Act. Europarlementariërs werken momenteel hard aan die Europese wet, die moet de rechten van het individu met betrekking tot AI beschermen. De TU/e heeft in dit proces het initiatief genomen om de positie van universitair onderzoek te verwoorden en op basis daarvan amendementen voorgesteld. Nuijten: “In de wet worden een aantal eisen gesteld aan AI-systemen. Zo moeten ontwikkelaars administreren wat de risico’s zijn, uitgebreide technische documentatie bijhouden en bijvoorbeeld zorgen dat menselijk toezicht mogelijk is.” Dat laatste is op dit moment niet mogelijk bij systemen als GPT-4, het taalmodel achter ChatGPT en het systeem waar ook in de open brief aan wordt gerefereerd. Het probleem is volgens Nuijten namelijk dat niemand weet wat er nou precies in dat systeem gebeurt, zelfs de ontwikkelaars zelf niet.

“Je ziet wat erin komt en wat eruit gaat. Voor GPT-4 begrijpen we wel wat eruit komt: sequenties van woorden. Maar die sequenties zijn het resultaat van een netwerk van miljoenen en miljoenen reële getallen met gewichten en functies”, aldus Nuijten. Maar die functies zijn er toch in gebouwd door de ontwikkelaars, zouden die dan niet moeten snappen wat er in het systeem gebeurt? “Ze begrijpen wel wat de architectuur is, maar weten ook niet waaróm het systeem tot bepaalde antwoorden komt, en dat is met de capaciteiten van systemen als GPT-4 en opvolgers verontrustend.”

TU/e en de AI Act

De TU/e heeft amendementen voor de AI Act voorgesteld zodat de doelstellingen van de Europese wet gewaarborgd kunnen blijven zonder dat universitair onderzoek te veel wordt gehinderd. Veel van de eisen die nu worden voorgesteld beschermen de individuele consument maar leggen tegelijkertijd een grote administratieve druk op onderzoek. Daarom kijkt de TU/e samen met Europarlementariërs, maar ook met industriële partners, naar mogelijkheden voor een lichtere administratie die nog steeds de consument beschermt, zodat onderzoek niet onnodig wordt vertraagd.

Geen AGI

Hoe dan ook wordt er volgens Nuijten aan de TU/e geen onderzoek gedaan met de bedoeling om systemen te ontwikkelen die de intentie hebben om kunstmatige algemene intelligentie op te wekken. “GPT-4 komt bijvoorbeeld uit de hoek van natural language processing en dat is geen speerpunt bij ons.” Wel werken onderzoekers aan de TU/e aan neurale netwerken. “Dat gaat om toepassingen als het aan een foto van een oog herkennen dat iemand meer kans heeft om diabetes te ontwikkelen, of beter diagnoses kunnen stellen uit een MRI scan.” Als AI voor dit soort doeleinden wordt gebruikt dan heeft het volgens hem de potentie om het leven op aarde juist beter te maken. “Het kan bijvoorbeeld ziektes genezen of voorkomen en armoede over de hele wereld bestrijden. Daar ben ik absoluut van overtuigd.”

Zou het helpen als er meer transparantie zou komen over hoe deze systemen in elkaar zitten? Absoluut niet, volgens Nuijten. “Ik zeg expliciet dat OpenAI, het bedrijf wat GPT-4 heeft gemaakt, deze architectuur niet openbaar moet maken. Nee, doe maar niet. Want mocht het systeem echt dichtbij een kunstmatige algemene intelligentie zijn, dan heeft het, en zeker zijn opvolgers, de potentie om een einde te maken aan het leven op aarde. Ik denk niet dat dat het geval is voor GPT-4, maar niemand weet zeker waar we nu zijn en waar we met welke snelheid naartoe gaan.” Hij maakt een vergelijking met kernwapens, die in staat zijn om hetzelfde te doen. Een reden dat het volgens hem daarmee nog niet verkeerd is gegaan, is omdat ze moeilijk te maken zijn, je er de juiste materialen voor nodig hebt en er strenge regelgeving is. “Maar stel nou dat je dat allemaal héél veel gemakkelijker zou maken en dat kernwapens in handen zouden komen van veel kleine groepen mensen. Wie denk je dat daar vóór zou stemmen?”

Stopknop

De AI Act zou moeten helpen om zulke grote risico’s te beperken. Maar de wet is nog niet aangenomen en GPT-4 valt niet onder de huidige versie van de wet en voldoet niet aan verschillende eisen die erin staan, zoals dat menselijk toezicht mogelijk moet zijn en dat men volledig moet begrijpen hoe het systeem werkt. Wat ook in het voorstel van de wet staat, is dat er standaard een stopknop moet worden ingebouwd. Het probleem met kunstmatige algemene intelligentie is echter dat het straks misschien slim genoeg is om door te hebben dat die knop bestaat en bijvoorbeeld via een achterdeurtje back-ups van zichzelf creëert op andere locaties. Een druk op die stopknop haalt dan weinig uit.

Laten we hopen dat we over 30 jaar de open brief teruglezen, ons kapot lachen en denken: wat een sukkels, dat ging natuurlijk nooit gebeuren.

WIM NUIJTEN, WETENSCHAPPELIJK DIRECTEUR EAISI

Wim Nuijten. Foto: Bart van Overbeeke
Wim Nuijten. Foto: Bart van Overbeeke

Mocht zo’n AGI zijn eigen gang gaan, dan zou het volgens Nuijten best eens kunnen dat het hele andere dingen wil dan de mensheid wil. “Denk aan oorlog. Moeten we maar eens mee stoppen, denkt het systeem. Het zou de infrastructuur van wapenfabrieken plat kunnen leggen. Of denk aan hoe we met koeien en varkens omgaan: dat kan ècht niet. Zo’n systeem ziet dat en gaat maatregelen nemen. Het zijn allemaal stappen waarbij het tot de conclusie kan komen dat het helemaal niet zo handig is om mensen op deze aarde te hebben.”

AI Alignment

Een belangrijke manier die Nuijten ziet om te zorgen dat AI-systemen niet tot zulke (voor de mensheid) desastreuze acties overgaan, is om vol in te zetten op AI alignment: het zorgen dat systemen zo ontwikkeld worden dat ze overeen komen met menselijke waarden. “Daar is echter weinig werk in verricht en het is ook niet de verwachting dat we het snel gaan oplossen. De ontwikkelingen op technologisch gebied gaan daarentegen super snel.” Of het lukt om die alignment snel genoeg op orde te krijgen is volgens hem dan ook maar de vraag. Daarnaast zijn niet overal op de wereld morele waarden hetzelfde, al zou je er volgens Nuijten toch in ieder geval van uit moeten kunnen gaan dat de gemene deler is dat weinig mensen een einde willen maken aan de mensheid.

Nuijten is zich ervan bewust dat hij een vrij catastrofaal beeld schetst van een toekomst (of het gebrek daaraan) met Artificial Intelligence. “Ik heb goed nagedacht over wat ik zeg. Ik zou me vooral op de potentie van AI om het leven fantastisch te maken kunnen concentreren, maar heb besloten dat niet te doen. Laten we hopen dat we over dertig jaar de open brief teruglezen, ons kapot lachen en denken: wat een sukkels, dat ging natuurlijk nooit gebeuren. Maar het is niet volkomen uit te sluiten dat de brief het bij het juiste eind heeft of de situatie zelfs onderschat. Waar ik voorheen dacht dat we een kunstmatige algemene intelligentie in veertig of vijftig jaar zouden kunnen bereiken, denk ik nu dat het best eens onder de twintig jaar zou kunnen zijn.”

Goede intenties

Zaak is nu dus volgens hem om de risico’s serieus te nemen, te focussen op alignment en te werken aan andere dingen, zoals de AI Act, die catastrofale gevolgen kunnen voorkomen. Nuijten is blij met hoe de besprekingen in Brussel gaan en prijst de openheid en kennis van de Europarlementariërs en hun staf. “De intenties daar zijn helemaal wat je wilt hebben. Ze werken in de luwte en worden niet geregeerd door talkshows of Twitter. Dat maakt dat ze er echt goed over kunnen nadenken. We hebben veel verschillen tussen landen in Europa, maar als je naar de AI Act kijkt zie je dat we veel meer overeenkomsten in normen en waarden met elkaar hebben dan de meeste mensen waarschijnlijk denken.”

Dit artikel is geschreven door Cursor.

Frans Raaijmakers
(Science Information Officer)

Meer over AI

Laatste nieuws

Blijf ons volgen