Laten we anders praten over AI: Voorbij Hallucinaties en de Terminator

Waarom heeft Hollywood ervoor gezorgd dat gesprekken over AI lastig zijn geworden? En waarom is het voor techbedrijven voordelig om een taalmodel dat incorrecte informatie geeft hallucinaties te noemen? Deze week schrijf ik een artikel over hoe de termen die we gebruiken als we het over AI hebben vaak afleiden van waar het eigenlijk om zou moeten gaan: technologie op een manier inzetten die nuttig is voor de samenleving.

Een afbeelding van een T800 Terminator zoals die ook in de Terminator Trilogy voorkomt.

Discussies over kunstmatige intelligentie (AI) kenmerken zich vaak door een algemene benadering, met een focus op AI in brede termen. Opmerkelijk genoeg domineert de neiging van mensen om AI menselijke eigenschappen toe te schrijven, zoals het omschrijven van fouten in generatieve modellen als ‘hallucinaties’. Hoewel dit AI mogelijk herkenbaarder en begrijpelijker maakt, leidt het vaak af van de daadwerkelijke maatschappelijke impact van AI en algoritmes.

Menselijke samenwerking excelleert van nature, gedreven door een brein dat afgestemd is op het herkennen van emoties. Het zien van een huilende baby wekt een verzorgingsinstinct op, terwijl een puppy algemeen als schattig geldt. Dergelijke instinctieve reacties op emoties verankeren zich diep in de menselijke natuur. In de entertainmentwereld wordt AI vaak afgebeeld als een mens met bepaalde gekke karaktereigenschappen. In 1984, deels vanwege de kosten en deels vanwege de beperkingen in de kwaliteit van stop motion animaties, koos men in een film als ‘The Terminator‘ voor acteur Arnold Schwarzenegger om AI uit te beelden.

Zelfs toen animatie goedkoper en van betere kwaliteit werd, bleven filmmakers AI vaak uitgebeeld als robots met menselijke eigenschappen, zoals Wall-E en Eve in de film “Wall-E”. De maker van de film speelt in op onze menselijke drang om emoties te herkennen. Wall-E en Eve maken menselijke geluiden en gezichtsuitdrukkingen, wat ze herkenbaar maakt. Deze weergave van AI stelt ons in staat om ons te verbinden met de karakters door emoties te herkennen.

Wall-E en Eve uit de film Wall-E (2008)

In films wordt er dus vaak voor gekozen om AI af te beelden als robots om zo een emotionele investering te krijgen van de kijker. Ook nu generatieve modellen onderdeel zijn geworden van onze samenleving, hebben mensen die hierover praten in hun achterhoofd nog de menselijke representaties van AI. Als een generatief model een niet bestaand concept afbeeldt, wordt er gesproken over een hallucinatie. Wanneer een taalmodel praat over gevoelens beginnen mensen te praten over zelfbewustzijn.

In de maatschappelijke discussie over AI is het misleidend om te spreken over ‘hallucinaties’ en menselijke concepten als zelfbewustzijn. Dit verdoezelt het feit dat kunstmatige intelligentie fundamenteel verschilt van natuurlijke intelligentie. De hedendaagse vormen van AI zijn in essentie verwerkingen van data, geselecteerd op een heel andere manier dan de wijze waarop we kinderen opvoeden met informatie. Er zijn wel overeenkomsten met hoe mensen en machine leren, maar mensen kunnen bijvoorbeeld niet, zoals machines, op terabytes aan data worden afgestemd, of althans: niet met de snelheid waarbij dat met deep learning wel gebeurt.

Maar wat is dan wel de juiste manier om over AI te praten? Edsger Dijkstra, een computerwetenschapper, zei ooit: “De vraag of een machine kan denken is even irrelevant als de vraag of een onderzeeër kan zwemmen.” Dit is een relevante opmerking in de context van AI. Een onderzeeër is uiterst nuttig om onderwater van A naar B te gaan zonder gezien te worden. Maar of het gaat om varen of zwemmen is eigenlijk niet relevant. Wanneer het gaat over kunstmatige intelligentie neigt het gesprek vaak snel naar vragen als “Wat is intelligentie?” en “Is het al zelfbewust?”. Vragen waarvan het antwoord bij mensen vaak al lastig vast te stellen was. Hoewel de komst van nieuwe vormen van AI kan helpen betere antwoorden te geven op deze vragen dan mogelijk is met natuurlijke taal, vind ik het belangrijker om te spreken over specifieke vormen van AI en hoe deze nu al daadwerkelijk invloed hebben op onze wereld. Denk aan aanbevelingssystemen die geoptimaliseerd zijn voor winstmaximalisatie en die informatiestromen in de samenleving verstoren. Of aan fraudeclassificatie algoritmen bij de overheid die verkeerd zijn ingesteld en discriminatie veroorzaken. Of aan generatieve AI-modellen die materiaal gebruiken dat auteursrechtelijk beschermd is.

Bij de discussie over fraudedetectie-algoritmes die discrimineren binnen overheidsinstanties, leidt het debat over de definitie van AI of algoritmen vaak af van het cruciale onderwerp: discriminatie. Discriminatie is onacceptabel en ongrondwettelijk, ongeacht of het door mensen of machines wordt uitgevoerd. Het is van essentieel belang om ons te concentreren op het voorkomen van vooroordelen in algoritmische besluitvorming en te waarborgen dat de systemen die we inzetten rechtvaardig en onpartijdig zijn. Deze discussie zou zich op ethiek en rechtvaardigheid moeten richten, niet op technische definities. Demissionair minister Dijkgraaf greep bij DUO in toen bekend werd dat het algoritme studenten met een migratieachtergrond vaker liet controleren dan anderen. Naar mijn inzien een goede reactie. Een andere mogelijke reactie was geweest om in gesprek te gaan wie er verantwoordelijk is, en of een algoritme verantwoording kan dragen. Hoewel dat een interessant gesprek is, doet het niet onder aan het feit dat er werd gediscrimineerd. De stekker eruit trekken en opnieuw beginnen was dus beter dan verstrikt raken in abstracte begrippen en ambtelijk jargon.

Ook bij generatieve modellen leidt de manier waarop er over wordt gesproken vaak af van waar het om zou moeten gaan. Het zou momenteel niet gaan over woorden als ‘hallucinaties’ of ‘zelfbewustzijn’, maar om de concrete problemen rondom auteursrechten. Is het toegestaan om een taalmodel te trainen op nieuwsartikelen die achter een paywall zitten? Hebben kunstenaars het recht om te weten welke creaties gebruikt zijn om generatieve modellen te trainen? Het is noodzakelijk om te bespreken welke regels er geschonden worden, of deze regels nog wel passend zijn in de huidige context, en hoe we artiesten kunnen beschermen in dit nieuwe digitale tijdperk. De discussie zou moeten draaien om auteursrechtelijke kwesties en de bescherming van de rechten van creatievelingen, niet om de filosofische aspecten van AI-bewustzijn. Dat is natuurlijk wel een interessante discussie om te voeren, maar niet het meest urgente om de AI-revolutie te laten verlopen op een manier die het meest harmonieus is voor de maatschappij. Het is essentieel om eerst een brandend huis te blussen voordat we een straf bedenken voor de brandstichter: Beide zijn belangrijk, maar alles heeft zijn eigen tijd.

Het is essentieel om eerst een brandend huis te blussen voordat we een straf bedenken voor de brandstichter: Beide zijn belangrijk, maar alles heeft zijn eigen tijd.

Het is tijd om de manier waarop we over AI praten te herzien. Persoonlijk pleit ik ervoor om het woord ‘AI’ zo min mogelijk te gebruiken en ons in plaats daarvan te richten op de specifieke toepassingen en implicaties ervan in onze maatschappij. Door ons te richten op de concrete effecten en uitdagingen kunnen we een meer gefundeerd en realistisch beeld vormen van de rol van AI in onze wereld. Een welbekend gezegde is “Do as I say not as I do”. Ook dat is hier van toepassing, gezien ik vorige week een boek naar buiten heb gebracht dat “De AI Revolutie” heet. Wel een aanrader trouwens, al zeg ik het zelf! Ik leg uit welke vormen van AI er zijn waardoor het makkelijker moet worden om de concretere termen te gebruiken.


Dit artikel maakt deel uit van een serie over mijn boek “De AI-Revolutie: Hoe kunstmatige intelligentie de maatschappij gaat veranderen (en daar nu al mee bezig is)”, het boek is te koop in de betere boekhandel en online te bestellen. In dit boek duik ik dieper in de invloed van AI op onze toekomst en hoe we als samenleving de juiste koers kunnen bepalen in deze nieuwe, spannende tijd.