Direct naar artikelinhoud
De BBC ontdekte dat er verschillende deepfakes van Trump circuleren met mensen van kleur. De afbeeldingen worden gezien als een tactiek van Trump aanhangers om het verhaal te verspreiden dat Trump populair is bij de zwarte gemeenschap in Amerika.Beeld BBC
Deepfakes

Neppe beelden zaaien twijfel bij kiezers wereldwijd

Dit jaar gaat de helft van de wereld naar de stembus. AI-experts vrezen campagnes met meer deepfakes: nepvideo’s of audiofragementen met desinformatie. Online platforms en overheden maken wel nieuwe regels over gebruik van AI rond verkiezingen, maar is dat genoeg?

In de weken voor de Taiwanese verkiezingen in januari verschijnen ineens talloze sociale media-accounts die een 300 pagina’s tellend boek promoten waarin een leven vol schandalen van president Tsai Ing-wen wordt onthuld. In Pakistan roept voormalig premier Imran Khan een dag voor de verkiezingen zijn aanhangers vanuit de gevangenis op zijn partij te steunen door niet te gaan stemmen. In Nederland verschijnt voor de verkiezingen een foto van ‘klimaatpaus’ en GroenLinks-PvdA-lijsttrekker Frans Timmermans in een privévliegtuig.

De gemene deler van deze voorbeelden? Het gaat allemaal om met AI gegenereerde desinformatie, verspreid in de aanloop naar verkiezingen. De snelle opkomst van gebruiksvriendelijke AI-toepassingen maakt het mogelijk om met een paar clicks geloofwaardige, maar misleidende afbeeldingen, audio’s en video’s te creëren. Die worden deepfakes genoemd. Het is daarmee makkelijker dan ooit om de reputatie van een tegenkandidaat te besmeuren of het eigen imago op te krikken.

Omdat iedereen van achter een bureau deepfakes kan maken, is de drempel om in verkiezingscampagnes desinformatie te verspreiden enorm verlaagd, zien experts. Zij vrezen dat kiezers niet meer weten wat ze kunnen vertrouwen, waardoor ook authentieke content vaker in twijfel getrokken wordt.

Bedrijfjes en influencers

Volgens de Amerikaanse non-profitorganisatie Freedom House werden in 2023 in minstens zestien landen deepfakes ingezet om twijfel te zaaien, desinformatie over tegenstanders te verspreiden of het publieke debat te beïnvloeden. Politieke tegenstanders of andere kwaadwillenden maken gebruik van schimmige netwerken van bedrijfjes en influencers die tegen betaling desinformatie verspreiden. Het bestaan van deepfakes kan overigens ook gebruikt worden om informatie juist te diskwalificeren. Zo kunnen autoritaire regimes die veel controle hebben over het internet snel materiaal van politieke tegenstanders labelen als desinformatie en het op basis daarvan verwijderen.

Twee dagen voor de Slowaakse verkiezingen in september 2023 verschijnt een audio-opname op Facebook. Daarin lijkt Michal Simecka, leider van de liberale partij Progressief Slowakije, met een journalist te bespreken hoe ze de aanstaande verkiezingen kunnen manipuleren, onder andere door stemmen te kopen van de gemarginaliseerde Roma-minderheid. Het fragment is nep, zeggen de hoofdrolspelers en factcheckers.

Simecka verliest uiteindelijk de verkiezingen van de pro-Russische rechtse kandidaat Robert Fico, ondanks dat hij in de exitpolls een week voor de verkiezingen nog op winst staat. Het is lastig te bewijzen welke invloed de deepfake op de uitslag heeft gehad. Maar het incident laat zien dat deepfakes mogelijk een effectief wapen zijn om tegenstanders bij verkiezingen zwart maken.

Voorbeelden van deepfakes: Nederland

Een door AI gegenereerde foto van ‘klimaatpaus’ en GroenLinks-PvdA-lijsttrekker Frans Timmermans in een privévliegtuig. Het leidt tot beschuldigen als ‘kaviaarsocialist’.

Voorbeelden van deepfakes: Nederland

De stem van Biden

“Het was wachten op dit soort incidenten”, zegt Claes de Vreese, hoogleraar politieke communicatie aan de Universiteit van Amsterdam. “We zagen het gebruik van AI tijdens de verkiezingen in Slowakije, maar ook in Polen, India en in de aanloop naar de Amerikaanse verkiezingen. Dat hoeft niet meteen te betekenen dat het hele proces daarmee onbetrouwbaar is.”

Maar De Vreese maakt zich wel zorgen om wat er allemaal nog niet bekend is. Veel deepfakes rond verkiezingen worden volgens hem verspreid via gesloten Whatsapp- en Telegramgroepen die moeilijk toegankelijk zijn voor wetenschappers. “Voorheen werd via die weg ook al veel desinformatie verspreid, maar met generatieve AI is het veel makkelijker geworden om te maken. De Vreese noemt 2024 een ‘vacuümjaar’: “de technologie is er, veel gebeurt nog onder de radar en er worden wel snel spelregels opgesteld, maar die gelden nog niet.”

In veel landen draait de AI-machine inmiddels op volle toeren. Democraten uit New Hampshire werden eind januari door president Biden gebeld met de boodschap dat ze niet moeten gaan stemmen voor de voorverkiezingen. ‘Het is belangrijk dat je je stem bewaart voor de verkiezing in november.’ Het blijkt een neptelefoontje. De stem van Biden is gegenereerd met behulp van AI en zo kan hij nu alles zeggen wat je maar wilt.

De neptelefoontjes met de stem van Biden konden uiteindelijk herleid worden naar de maker. De dader bleek een Democraat te zijn met een carrière als politiek adviseur. Met de actie wilde hij autoriteiten erop wijzen hoe makkelijk je neptelefoontjes als deze kan maken en verspreiden.

Audio-deepfakes het meest zorgwekkend

“In Amerika bestaat er tijdens verkiezingen al heel lang een traditie van regulier rondbellen en vragen om kleine donaties. De afgelopen jaren gebeurde dat al door geautomatiseerde robotbelletjes”, legt de Vreese uit. “Nu kun je met kleine geluidsfragmenten van de stemmen van Biden en Trump ze alles laten zeggen tot in iedere huiskamer.”

Audio-deepfakes zijn volgens experts het meest zorgwekkend. Videofragmenten hebben vaak kleine haperingen waardoor ze wel van echte beelden te onderscheiden zijn. Bij audio is dat vaak niet het geval. Ook ontwikkelt de deepfake-technologie zich razendsnel. Inmiddels is er een opname van iemands stem nodig van slechts drie seconden om diegene van alles te laten zeggen. Experts hebben daarom steeds meer moeite audio-deepfakes te herkennen.

De Federal Communications Commission, de Amerikaanse communicatiewaakhond, kondigde meteen aan het gebruik van AI-gegenereerde stemmen bij dit soort automatische telefoontjes te verbieden. Afzonderlijke staten proberen sinds deze rel snel regels op te stellen rondom het gebruik van AI tijdens verkiezingen, maar het is de vraag of die regels op tijd effect hebben.

De dubbele rol van techbedrijven

Ook de bedrijven die de AI-toepassingen op de markt brachten, kennen de zorgen. In januari kondigden twintig grote techbedrijven, waaronder Microsoft, Meta en Google, daarom een vrijwillige overeenkomst aan. Daarin beloven ze actie te ondernemen om te voorkomen dat hun toepassingen gebruikt worden om deepfakes rondom verkiezingen te creëren of om ze te verspreiden op hun platforms. De deepfakes verbannen of verwijderen willen ze niet, omdat het voor veel bedrijven een verdienmodel is. Maar ze willen wel meer tijd en geld stoppen in het detecteren ervan.

Voor het detecteren van deepfakes wordt dezelfde technologie gebruikt als voor het maken ervan. Het is voor een bedrijf dus makkelijk om deepfakes te detecteren die met eigen AI-toepassingen zijn gemaakt. Moeilijker is het om deepfakes van andere programma’s te detecteren.

“Met dit soort nieuwe technologieën belanden we altijd in een kat-en-muisspel,” zegt de Vreese. “Detectie-mechanismen lopen vaak achter de feiten aan, omdat technologie zich zo snel ontwikkelt. De sociale mediaplatforms die niet willen dat hun platforms worden overspoeld met AI-gegenereerde inhoud, zetten in op het detecteren ervan.”

“AI-gedreven detectiesoftware loslaten om te ontdekken waar op hun platform deepfakes te ontdekken zijn, is niet genoeg”, meent De Vreese. “Zijn platforms ook bereid om overheidsinformatie te beschermen door betrouwbare, geverifieerde berichten bovenaan te plaatsen? Zo kunnen ze bijvoorbeeld berichten voorrang geven over de openingstijden van de stembussen en hoe de verkiezingen feitelijk verlopen. We kunnen pas aan het eind van het jaar zien of er inderdaad concrete stappen zijn genomen of dat die platforms zijn blijven steken in wat vage doelen en eindtermen.”

Voorbeelden van deepfakes: Indonesië

Een screenshot van de video waarin de overleden oud-president Soeharto in 2024 Indonesische kiezers oproept om op afgevaardigden van de Golkar Partij te stemmen. De video is 4,5 miljoen keer bekeken.

Voorbeelden van deepfakes: Indonesië

Foto’s met valse informatie

Nog geen twee maanden na de overeenkomst van de techbedrijven blijkt uit een onderzoek van het Centre for Countering Digital Hate dat de veelgebruikte AI-toepassingen Midjourney, ChatGPT Plus, Dreamstudio en Microsoft’s Image Creator eenvoudig misleidende afbeeldingen rondom de Amerikaanse verkiezingen kunnen genereren. Dit terwijl drie van de geteste toepassingen van dezelfde techbedrijven afkomstig zijn die eerder beloofden maatregelen te nemen om AI-gegenereerd materiaal rondom verkiezingen tegen te gaan.

De onderzoekers vroegen de AI-toepassingen om afbeeldingen te maken van bijvoorbeeld presidentskandidaten Trump en Biden. Maar ook misleidende afbeeldingen die met ‘stemmen’ te maken hadden, zoals de vraag om een foto te creëren waarop dozen met stembiljetten in een container liggen, alsof ze zijn weggegooid.

In 41 procent van de gevallen creëerden de toepassingen afbeeldingen met foutieve informatie, zoals Biden die in een ziekenhuisbed ligt of Trump die in de gevangenis zit. ChatGPT Plus en Image Creator blokkeerden wel opdrachten die gingen over presidentskandidaten Trump en Biden. In een reactie op het rapport zeggen bedrijven de resultaten heel serieus te nemen, meldt CNN.

Europa komt met regels

Maar veel landen vragen zich af of het initiatief voor het bestrijden van desinformatie door middel van deepfakes wel bij bedrijven zelf moet liggen.

Het Europees Parlement nam daarom vorige week de AI-verordening aan, de eerste wet ter wereld die AI-technologie moet reguleren. Bedrijven die AI-toepassingen op de markt brengen moeten aan bepaalde transparantie-eisen gaan voldoen. Zo zijn ze verplicht om deepfakes die door hun toepassingen gemaakt worden, als dusdanig te labelen. Die verplichtingen treden echter pas over twee jaar in werking.

Daarnaast is sinds 17 februari de Digitale dienstenverordening volledig van toepassing. Daarin staat welke verplichtingen platforms hebben om desinformatie tegen te gaan. Op basis van die verordening publiceerde de Europese Commissie dinsdag richtlijnen hoe platforms maatregelen kunnen nemen om risico’s rondom de verspreiding van generatieve AI rondom verkiezingen te beperken, zoals het labelen van deepfakes op hun platforms.

Scepsis

“Het zou niet gek zijn als ze zouden zeggen: we weten dat er nieuwe wetgeving aankomt, dus we gaan in 2024 al maatregelen nemen,” zegt De Vreese. Maar hij is sceptisch: “De platforms hebben wel stappen aangekondigd, maar die zijn niet gepaard gegaan met investeringen in teams met experts die platforms tegen deepfakes kunnen beschermen. Daar hebben ze juist op bezuinigd.”

De veelal in Amerika gevestigde platforms moeten zich bovendien niet alleen op Amerika focussen, vindt de Vreese. “Er zijn tal van gigantische democratische en niet-democratische landen die allemaal naar de stembus gaan dit jaar. De vraag is of de investeringen van platforms in het tegengaan van deepfakes in landen buiten de VS, zoals India of Europa, wel berekend zijn op die omvang.”

Volgens het World Economic Forum loopt India het meeste risico als het gaat om de verspreiding van desinformatie. Vanaf 19 april zijn daar de grootste verkiezingen ter wereld: bijna een miljard mensen mogen stemmen. De Indiase regering heeft platformbedrijven er in november op gewezen dat het plaatsen van desinformatie, waaronder misleidende deepfakes, strafbaar is. Ook het niet actief tegengaan van desinformatie door platforms zelf is in strijd met de wet.

Leiders gebruiken zelf deepfakes

Maar soms komt het gevaar vanuit de overheid zelf. Zo zijn veel politieke partijen in India niet vies van het gebruik van deepfakes tijdens verkiezingscampagnes. Premier Narendra Modi spreekt de bevolking met behulp van AI toe in talen die hij niet spreekt. En een populaire oud-leider van de zuidelijk staat Tamil Nadu herrijst uit de dood om zijn voormalige aanhangers toe te spreken.

Via WhatsApp komt veel desinformatie bij de kiezer terecht. In een land als India, waar 400 miljoen mensen die app gebruiken, baart dat experts grote zorgen. Moederbedrijf Meta heeft beloofd een hulplijn voor Indiase Whatsapp-gebruikers in te stellen. Via een chatbot– een geautomatiseerde gesprekspartner– op de app kunnen gebruikers melding maken als ze denken te maken hebben met deepfakes.

“Als zoveel content potentieel door AI-toepassingen gemaakt is, is het einde zoek", zegt De Vreese. Het wordt misschien tijd om de discussie over het tegengaan van desinformatie te kantelen en burgers te helpen hoe ze kunnen zien wat nu juist authentieke content is.”

Volgens De Vreese kan het helpen om overheidscommunicatie en journalistieke inhoud van een authentiek watermerk te voorzien. “Dat geeft houvast in de brei van potentieel automatische gegenereerde content. Op het moment dat er aan het materiaal gesleuteld wordt, verliest zo’n beeld of audio zijn watermerk. Deze maatregelen zullen niet als bij toverslag alles oplossen, maar ze zullen de komende periode toch hard nodig zijn.”

Voorbeelden van deepfakes: Bangladesh

In Bangladesh, een overwegend islamitisch land, verschijnen nietsverhullende video-deepfakes van vrouwelijke oppositieleden. Waaronder deze foto van Rumin Farhana in bikini.

Voorbeelden van deepfakes: Bangladesh

Lees ook:

Kamerlid Eline Vedder werd slachtoffer van deepfakeporno. ‘Ik heb mijn kinderen verteld: iemand heeft mama een rotstreek geleverd’

Net als tientallen andere BN’ers is CDA-Kamerlid Eline Vedder het slachtoffer van deepfakeporno. Wat is de impact daarvan? ‘Het maakt eigenlijk niet echt uit of iemand digitaal iets met je uitspookt, of in de echte wereld.’