Clearview AI krijgt megaboete, maar wanneer wordt de overheid gecontroleerd?

Clearview AI kreeg recent een boete van 30,5 miljoen euro voor het overtreden van de privacywetgeving door een database aan te leggen met gegevens van 30 miljard mensen (waarschijnlijk gezichten, aangezien er anders meer mensen in staan dan er op aarde leven).

Veel AI technieken zoals generatieve AI en voorspellende modellen kunnen erg nuttig zijn voor de samenleving. Maar er zijn ook technieken die veel risicovoller zijn. Gezichtsherkenningstechnologie is naar mijn mening een van de meest risicovolle AI-technologieën, vooral wanneer het zonder toestemming wordt gebruikt, zoals bij Clearview AI het geval was.

Machine learning-technieken zijn gevoelig voor fouten en vooringenomenheid, vooral als ze gebaseerd zijn op slechte kwaliteit data, zoals scrapes van social media. Dit kan leiden tot structurele discriminatie en andere ellende.

Het is goed dat bedrijven die de regels overtreden, worden beboet door de Autoriteit Persoonsgegevens (Dutch DPA). De volgende stap zou moeten zijn dat ook overheden die gebruikmaken van deze bedrijven ter verantwoording worden geroepen, misschien is dat nog wel belangrijker. Diverse Europese politiediensten maakten gebruik van de database van Clearview AI aldus Bits of Freedom (zie dit artikel).

Gezichtsherkenning en vergelijkbare technologieën kunnen niet zomaar zonder consequenties worden ingezet. Het is essentieel dat niet alleen bedrijven, maar ook overheden verantwoording afleggen voor het gebruik van dergelijke technieken. Alleen dan kunnen we zorgen voor een toekomst waarin technologie de samenleving dient, zonder de privacy en rechten van burgers te schenden.

Wat betekent dit voor de toekomst van gezichtsherkenningstechnologie? Hoe kunnen we ervoor zorgen dat technologieën op een ethische manier worden gebruikt, terwijl we tegelijkertijd innoveren en vooruitgang boeken? En welke stappen moeten overheden nemen om transparanter te zijn over hun gebruik van gevoelige data en AI-technologieën?

Lees er meer over in mijn boek De AI Revolutie!


Dit artikel is onderdeel van een serie rondom mijn boek “De AI-Revolutie: Hoe kunstmatige intelligentie de maatschappij gaat veranderen (en daar nu al mee bezig is)”, het boek is te koop in de betere boekhandel en online te bestellen. In dit boek duik ik dieper in de invloed van AI op onze toekomst en hoe we als samenleving de juiste koers kunnen bepalen in deze nieuwe, spannende tijd.

Gebruikt de Tweede Kamer ondanks een ‘verbod’ toch generatieve modellen om te schrijven (of reflecteren ze vaker)?

Generatieve AI is als de uitvinding van het toetsenbord of van de pen: weigeren ermee te leren werken is een goede manier om boventallig te worden. Voor rijksambtenaren is er in veel gevallen een verbod op het gebruik van deze tools, maar houden de ambtenaren zich er ook aan? En hoe verandert onze taal door deze nieuwe technologie? Sinds de opkomst van generatieve modellen zoals ChatGPT in november 2022 is het duidelijk dat de manier waarop mensen teksten produceren aanzienlijk is veranderd. Dit zie je niet alleen in de inhoud, maar ook in het gebruik van specifieke woorden. Op het internet is bekend dat woorden zoals ‘delve’ en ‘intricate’ veel populairder zijn geworden. Dit intrigeerde me: zouden we een soortgelijke trend kunnen ontdekken in Nederlandse teksten?

Het viel me laatst op dat generatieve AI vaak woorden gebruikt die te maken hebben met reflectie en ergens in duiken. Denk aan woorden zoals ‘reflecteert’ en ‘duiken’. Om dit verder te onderzoeken, besloot ik een analyse uit te voeren op een grote collectie Nederlandse teksten, met als bron meer dan 160.000 documenten van de Tweede Kamer, geautomatiseerd verzameld vanaf 2019 via opendata.tweedekamer.nl. De beslissing om het gebruik van generatieve AI door rijksambtenaren in veel gevallen te verbieden, maakte het extra interessant om te kijken naar taaltrends sinds de lancering van dergelijke AI-modellen.

Uit de analyse bleek dat het gebruik van de woorden ‘reflectie’ en ‘reflecteren’ niet alleen in absolute termen is toegenomen, maar ook relatief. Er was alleen wel al een toenemende trend zichtbaar, en het tijdsbestek is niet groot genoeg om definitieve conclusies te trekken wat de oorzaak is. Wat wel duidelijk is, is dat ambtenaren meer “reflecteren” en “reflectie” schrijven, zowel relatief als absoluut. In het tweede kwartaal van 2022 (Ruim voor ChatGPT werd gelanceerd) werd het woord ‘reflectie’ ongeveer 1 op 11 keer gebruikt. In het tweede kwartaal van 2024 is dit ongeveer 1 op 7 keer, wat aanzienlijk vaker is.

Aantal keer dat in documenten van de Tweede Kamer de woorden “reflectie” of “reflecteren” worden gebruikt relatief per kwartaal

Dit suggereert dat ambtenaren mogelijk toch gebruik maken van AI om teksten te schrijven (of toevallig meer zijn gaan reflecteren). Interessant genoeg vertonen woorden als ‘duiken’ of ‘duikt’ geen aanzienlijke toename, terwijl het toch een veelgebruikt woord is voor generatieve modellen. Dit suggereert dat niet alle door generatieve AI beïnvloede woorden evenredig zijn doorgedrongen in het ambtelijke taalgebruik.

Aantal keer dat in documenten van de Tweede Kamer de woorden “duik” of “duiken” worden gebruikt relatief per maand

Het doet vermoeden dat rijksambtenaren stiekem toch generatieve modellen gebruiken, maar zo opvallend als de voorbeelden die ik noemden in het Engels is het zeker niet. Ambtenaren lijken dus minder bang dan de bewindslieden en gingen toch aan de slag met de technologie. Het zou een interessant gegeven zijn als ambtenaren meer durven dan bewindslieden, zeker aangezien onze premier binnenkort een ambtenaar is (of was?). Als iemand die veel werkt met AI denk ik overigens niet dat verbieden een oplossing is; dat is teveel de kop in het zand steken. Er zijn natuurlijk redenen om voor een verbod te kiezen, zoals angst voor het uitlekken van gevoelige informatie naar Amerikaanse servers. Echter, de e-mail die het verbod in werking stelde is waarschijnlijk verzonden met Microsoft-software op een Microsoft-server. Het blijft ironisch dat dezelfde overheid al jaren massaal zijn data naar Microsoft aan het overzetten is dit ook een risico vindt. Het is alsof je de voordeur dicht spijkert om dieven buiten te houden, terwijl je in je achtertuin gratis je spullen weggeeft.

Het lijkt mij logisch dat generatieve modellen zoals ChatGPT invloed uitoefenen op het taalgebruik van mensen, zelfs in sectoren waar het gebruik ervan beperkt of verboden is. Of dit nu komt door directe interactie met deze technologieën of door de bredere impact ervan op onze taal, zal nog jaren een punt van discussie zijn. Wat wel zeker is, is dat de manier waarop we communiceren blijvend zal veranderen tijdens de AI-revolutie. Misschien is een mooie volgende stap voor een analyse het sorteren van de data op politieke partijen, om te zien bij wie de manier van schrijven het meest is veranderd. Als iemand suggesties heeft voor woorden om te analyseren, hoor ik het graag. En misschien is het allemaal wel toeval en is dit simpelweg een goede periode voor reflectie, zowel door mens als machine.


Dit artikel is onderdeel van een serie rondom mijn boek “De AI-Revolutie: Hoe kunstmatige intelligentie de maatschappij gaat veranderen (en daar nu al mee bezig is)”, het boek is te koop in de betere boekhandel en online te bestellen. In dit boek duik ik dieper in de invloed van AI op onze toekomst en hoe we als samenleving de juiste koers kunnen bepalen in deze nieuwe, spannende tijd.

Muziek, kunst en (kunst)matige intelligentie

Recentelijk heeft kunstmatige intelligentie (AI) voor opschudding gezorgd in de creatieve wereld, vooral binnen de muziekindustrie. Nieuwe platforms zoals Suno.ai en Udio stellen gebruikers in staat om binnen enkele seconden muziek te genereren in de stijl van bekende artiesten wat vragen oproept over originaliteit en auteursrecht. Herman van Veen, een gerenommeerde Nederlandse artiest, uit zijn bezorgdheid over deze ontwikkeling met de waarschuwing: “Kunstmatige intelligentie is, vrees ik, al slimmer dan wij. Het laat ons denken dat het grillig is. Van dit systeem komen wij niet meer af.”. Een interessante kijk, die mij doet denken aan de uitspraak “Het probleem is niet dat computers slim zijn en overal zijn, het probleem is dat ze zo nog niet slim zijn en overal al zijn”. Kunnen machines creatief zijn, en zo ja, wat betekent dat voor de toekomst van kunst en muziek?
Deze week reflecteer ik op de invloed van kunstmatige intelligentie op muziek.

Waarom het geen goed idee is om camera’s aan duiven te hangen

Slimme camera’s die hangen aan duiven en op het hoofd van paarden worden gezet om drugscriminaliteit tegen te gaan. Dit klinkt misschien als het scenario van een sciencefictionfilm, maar het werd (bijna) werkelijkheid in een van de meest onverwachte telefoongesprekken die ik ooit heb ontvangen.Een gesprek dat niet alleen mijn kijk op technologie heeft veranderd, maar ook een komische maar nuttige les over de relatie tussen mens, natuur en de gereedschappen die we creëren, onthult. Ik zal aan de hand van dit telefoongesprek dat ik jaren geleden ontving, uitleggen waarom we niet vanuit technologie moeten redeneren.

AI-stemreplicatie zal golf van fraude veroorzaken.

Hoewel afgelopen week voornamelijk deepfakes van bekende Nederlanders in het nieuws waren, die gebruikt werden om neppe pornografische inhoud te creëren, een zeer onprettig en verontrustend gebruik van de technologie, bestaat deze technologie al jaren. Sinds kort is ook stemreplicatie mogelijk en wordt het steeds toegankelijker. Dit baart me grote zorgen, en ik vermoed dat het slechts een kwestie van maanden, en niet jaren, zal zijn voordat er in Nederland fraude gepleegd zal worden via stemreplicatie (in India worden de eerste gevallen al gemeld).

Stemreplicatie is door recente technologische doorbraken eenvoudiger dan ooit.

Tijdens de boekpresentatie van “De AI Revolutie” op 23 Januari 2024 liet ik stemmen horen van Koning Willem Alexander, Burgemeester Femke Halsema en historicus Maarten Van Rossem. Deze publieke figuren spraken woorden die zij nooit hadden uitgesproken. Het is met generatieve spraak modellen mogelijk om met ongeveer 20 seconden aan opname van iemands stem ze vervolgens alles te laten zeggen. Deze ontwikkeling roept urgente vragen op. Wat gebeurt er als criminelen deze techniek gaan gebruiken? Kunnen ze dierbaren oplichten door vertrouwde stemmen te imiteren? Wat is de impact op nieuws en informatie? Hoe kunnen we de verspreiding van zeer geloofwaardig nepnieuws nog tegenhouden? En moet de overheid ingrijpen, mogelijk door het gebruik van deze technologie te beperken of zelfs te verbieden, om misbruik te voorkomen?

Hoe werkt stemreplicatie?

Stemreplicatie vindt zijn basis in generatieve modellen, die lijken op de large language models zoals het beroemde GPT van OpenAI. Dankzij recente doorbraken kan een algoritme, getraind op miljoenen uren aan stemgeluid, zich met slechts 3 seconden van een specifieke stem aanleren om de stem te repliceren. Een treffend voorbeeld hiervan is Microsofts model, VALL-E, waarvan de paper begin 2023 werdt gepubliceerd. De makers hielden de broncode geheim uit angst voor misbruik. Echter, vergelijkbare technologie is inmiddels breed toegankelijk geworden en het gebruik daarvan vereist geen technische kennis. Voor een kleine maandelijkse vergoeding stellen online tools iedereen in staat om met deze technologie te experimenteren.

De gerepliceerde stemmen zijn nauwelijks van echt te onderscheiden. Soms zijn er kleine fouten in de uitspraak van bepaalde woorden of klinkt het accent niet helemaal juist. Met enige nabewerking blijkt het echter goed mogelijk om kenmerkende stemmen zoals die van Femke Halsema, Koning Willem-Alexander of historicus Maarten van Rossem nauwkeurig na te bootsen.

Diverse voorbeelden van synthetische stemmen

Ook tijdens een uitzending op Radio 1, waar ik met presentator Benji Heerschop sprak, liet ik een gerepliceerde versie van zijn eigen stem horen.

Bij het horen van hun eigen gerepliceerde stem ervaren mensen vaak eerst verwarring, gevolgd door een mix van bewondering voor de kwaliteit en angst voor het potentieel misbruik ervan. Immers, de technologie stelt iemand in staat om alles te zeggen met hun stem. De reactie op het horen van andermans stem neigt vaak naar het luchtige en lacherige, vooral als de gesproken woorden niet lijken te passen bij de persoon in kwestie. De huidige staat van deze technologie maakt al een diepe indruk en zal ongetwijfeld verder evolueren. De reacties van luisteraars op AI-gegenereerde stemmen roepen associaties op met het ‘uncanny valley‘-fenomeen. Hierbij voelt een bijna menselijke robot of stem ongemakkelijk aan, omdat het net niet helemaal menselijk is.

Wat zijn de mogelijke toepassingen van stemreplicatietechnologie?

Deze indrukwekkende technologische doorbraak, die lijkt op iets uit een sciencefictionfilm, biedt diverse praktische mogelijkheden. Beroemdheden zouden bijvoorbeeld de rechten van hun stem na hun dood kunnen verkopen. Naarmate de technologie zich ontwikkelt, is het zelfs denkbaar dat stemacteurs vervangen worden. De technologie herinnert ook aan een aflevering van ‘Black Mirror’, waarin een dierbare wordt gerecreëerd op basis van oude gegevens. Ongetwijfeld zal stemreplicatie ook hiervoor worden ingezet. Naar mijn mening zijn er meer nuttige toepassingen te bedenken voor generatieve modellen die tekst of afbeeldingen produceren dan voor modellen gericht op spraakreplicatie. De keerzijde van stemreplicatie die breed toegankelijk is voor allerlei soorten gebruik is naar mijn inzien groter dan de mogelijke voordelen die we eruit kunnen halen.

Mag het?

Het ongeautoriseerd gebruik van iemands stem om een boodschap te verkondigen zonder hun medeweten roept juridische vragen op. Bij afbeeldingen bestaat er zoiets als portretrecht, waarmee men onrechtmatig gebruik van eigen portret kan aanvechten. De situatie omtrent stemmen, gegenereerd door deze technologie, lijkt echter nog een grijs gebied. Er is momenteel geen duidelijke wetgeving die het gebruik van AI-gegenereerde stemmen reguleert zoals dat bij afbeeldingen het geval is. Desondanks heb ik ervoor gekozen de voorbeelden in dit artikel te delen. Dit is om duidelijk te maken hoe eenvoudig en realistisch de stemmen zijn die met deze technologie gecreëerd kunnen worden. Het is belangrijk om het publiek bewust te maken van de mogelijkheden en risico’s van deze technologie, zodat er een geïnformeerde discussie kan plaatsvinden over de toekomstige regulering ervan.

Fraude

De snelle ontwikkeling van stemreplicatietechnologie brengt inderdaad een reëel risico voor oplichting met zich mee. Een voorbeeld hiervan is een incident waarbij de stem van Ali Niknam, CEO van Bunq Bank, werd nagemaakt in een poging tot fraude. Gelukkig herkende een oplettende medewerker de fraudepoging op tijd. Het risico wordt echter groter als deze techniek de komende maanden in handen valt van bijvoorbeeld WhatsApp-fraudeurs. Zij zouden de technologie kunnen gebruiken om stemmen van naasten na te maken en paniekerige voicemailberichten te sturen met verzoeken om geld over te maken. Vooral voor ouderen, die mogelijk minder bekend zijn met de mogelijkheden van stemreplicatie, vormt dit een groot gevaar. Dit onderstreept de noodzaak voor bewustwording en educatie over deze technologie, evenals het ontwikkelen van nieuwe beveiligingsmaatregelen en wetgeving om misbruik tegen te gaan.

Nepnieuws

In 2024, wanneer de helft van de wereldbevolking gaat stemmen, is de invloed van nepnieuws op de beslissingen van kiezers gevaarlijker dan ooit. De rol van stemreplicaties in deze context is niet te onderschatten. Op sociale media zullen waarschijnlijk talrijke fragmenten met stemmen van politici circuleren die authentiek lijken, maar in werkelijkheid nooit hebben plaatsgevonden. Het belang van betrouwbare nieuwsbronnen kan in deze tijd niet genoeg benadrukt worden.

De fragmenten die ik hieronder presenteer, zijn voorbeelden van dergelijk nepnieuws, gecreëerd om te demonstreren hoe eenvoudig het is om misleidende informatie te produceren. Ze dienen als een waarschuwing voor de kracht van technologie en de noodzaak van kritisch denken en fact-checking in het digitale tijdperk. Door aandacht te vestigen op deze kwesties, hoop ik bij te dragen aan een groter bewustzijn en een beter geïnformeerde bevolking, vooral in tijden van verkiezingen en politieke besluitvorming.

Een gerepliceerde versie van Femke Halsema kondigt aan dat de maximale snelheid op de A10 wordt verlaagd naar 30 km/u.

Een gerepliceerde versie van Femke Halsema kondigt aan dat de maximale snelheid op de A10 wordt verlaagd naar 30 km/u.

Maarten van Rossem, in een gerepliceerde vorm, biedt zich aan als formateur om de formerende partijen een geschiedenisles te geven.

Maarten van Rossem, in een gerepliceerde vorm, biedt zich aan als formateur om de formerende partijen een geschiedenisles te geven.

Een nagemaakte stem van Koning Willem-Alexander die een aanbeveling uitspreekt voor het boek “De AI Revolutie”.

Een nagemaakte stem van Koning Willem-Alexander die een aanbeveling uitspreekt voor het boek “De AI Revolutie

Mijn dringende advies aan de overheid is om met spoed campagnes klaar te zetten die het publiek bewust maken van de gevaren van stemreplicatietechnologie. Hoewel ik aarzelde om dit artikel te schrijven uit angst dat het misbruik zou kunnen stimuleren, voelde ik toch de noodzaak om dit te doen. Het is een onvermijdelijke realiteit dat deze technologie binnen enkele maanden op grote schaal zal worden ingezet voor criminele doeleinden; het proces is reeds in gang gezet. Het zou ideaal zijn als de bestaande wetgeving kan worden aangepast of toegepast om misbruik van stemreplicatie te voorkomen en aan te pakken. Daarnaast moeten we ons ernstig afvragen of het algemeen beschikbaar maken van deze technologie wel wijs is. Wellicht is een uitgebreider verbod nodig om misbruik te voorkomen en de integriteit van onze informatie en communicatie te waarborgen.

Hoelang hebben we nog?

In Nederland lijkt de impact van fraude en oplichting door middel van stemreplicatie nog beperkt, maar naar verwachting zal het slechts een kwestie van maanden, en niet van jaren, zijn voordat de eerste gevallen zich voordoen. In een recent incident in India werd de gevreesde misbruik van stemreplicatie werkelijkheid, toen een 59-jarige vrouw het slachtoffer werd van een geavanceerde AI-stemfraude. Ze werd gebeld door de stem van haar neefje, wat resulteerde in een verlies van maar liefst 1,4 lakh roepies (bijna 1600 euro). Dit verontrustende voorbeeld onderstreept de urgentie en de potentiële gevaren van stemreplicatietechnologie.

De AI Act: Een pakket aan stokken om mee te slaan, maar wie vangt de klappen?

Afgelopen woensdag was het zover: de AI act werd aangenomen. Hoewel het waarschijnlijk nog enkele jaren duurt voordat toezichthouders deze regels zullen handhaven, staat vast dat er nu een set regelgeving rondom AI is. In mijn boek “De AI Revolutie” behandel ik deze wetgeving al. Sommige aspecten, zoals duidelijke regels voor het gebruik van biometrische identificatie zoals gezichtsherkenning door autoriteiten, vind ik zeer positief. Maar er zijn ook zorgen: regelgeving kan de innovatiekracht van Europa op het gebied van kunstmatige intelligentie ernstig belemmeren, terwijl we al achterlopen. In dit artikel zal ik de aankomende regels bespreken en reflecteren op hun invloed.

De digitale realiteit zijn we kwijt en komt ook niet meer terug

De opkomst van geavanceerde algoritmen, die in staat zijn om teksten, beelden en zelfs audio te genereren die nauwelijks van menselijke creaties te onderscheiden zijn, maakt het ontwikkelen van systemen die deze AI-creaties kunnen identificeren een logische stap. Zo zou het mogelijk worden om echt van nep te onderscheiden. Deze oplossingen kennen twee grote problemen: ze werken niet goed en als ze wel zouden werken, zouden ze ertoe leiden dat de gegenereerde teksten, beelden en stemmen vervolgens weer verbeterd worden. We zijn in de digitale realiteit niet alleen de grip aan het verliezen, we hebben deze voorgoed verloren.

Bron: “Sconehenge” Julian Hamilton/Shutterstock 2004

Van Journalist tot Software Engineer: Welk Beroep Overleeft de AI-Revolutie?

Deze week heb ik nagedacht over de invloed van kunstmatige intelligentie op diverse beroepen. Stel je voor: kunstmatige intelligentie die niet alleen de digitale werkplek transformeert maar ook traditionele kantoorbanen overbodig maakt. Wat gebeurt er met onze samenleving als de kenniseconomie, waar we zo op vertrouwen, op zijn kop wordt gezet door een plotselinge devaluatie van kennis? De race is begonnen: hoe snel zal technologie menselijke intelligentie niet alleen bijbenen, maar mogelijk vervangen? Welke beroepen voelen nu al de hete adem van AI in hun nek?

In dit artikel werp ik licht op journalisten, taxichauffeurs, maaltijdbezorgers en software engineers. Hoe hebben deze beroepen zich al aangepast aan de opkomst van AI? En nog belangrijker, hoe zullen ze transformeren in de niet zo verre toekomst?

Is social media het nieuwe tabak?

In 1930 werd er breed reclame gemaakt voor sigaretten: minder irritatie van de keel, lekker ontspannen en een hulpmiddel tegen hoesten. Nu, bijna 100 jaar later, is het duidelijk: roken veroorzaakt kanker en een breed scala aan gezondheidsrisico’s, en de tabaksindustrie heeft hier jaren over gelogen. Daarnaast heeft de tabaksindustrie nog steeds vergaande invloed op het beleid van de overheid. Stel je eens voor: we kijken in 2124 hetzelfde terug naar social media: hoe was het ooit mogelijk dat dit zo breed werd geaccepteerd in de samenleving? Scrollen door social media, video’s die automatisch afspelen, een constante stroom aan prikkeling voor de hersenen. Hoe beïnvloedt dit ons dagelijks leven? Is het mogelijk dat social media, net als tabak ooit deed, een breed geaccepteerd risico vormen voor onze persoonlijke en maatschappelijke gezondheid?

Bron: DALLE-3, prompt: A teenager smoking a smartphone.

Zitten we met de technologie van de toekomst vast in het verleden?

Wat heeft een eikenprocessierups te maken met hetero normatieve generatieve AI? Waarom lijken algoritmes steeds beter te worden, maar blijven ze toch dezelfde fouten maken? Deze week ga ik in op hoe de output van algoritmes kwalitatief beter lijkt, maar toch vaak dezelfde fouten worden gemaakt als een paar jaar geleden, en daarmee onze cultuur en omgangsvormen mogelijk vastzet in het verleden.

Toen ik eind 2022 afbeeldingen maakte van een koppel dat over het strand liep om in het boek De AI Revolutie te plaatsen, was ik destijds onder de indruk van de kwaliteit van de afbeeldingen. Wie de afbeeldingen van toen legt naast de kwaliteit van generatieve modellen begin 2024, ziet nu hoe snel de technologie zich heeft ontwikkeld.

Bron: Stable diffusion December 2022, prompt: “Een stel dat over het strand loopt”