Zoek
Sluit dit zoekvak.

‘Desinformatie op steroïden’: is de VS voorbereid op de invloed van AI op de verkiezingen?

Robocalls van president Biden hebben al primaire kiezers in New Hampshire in verwarring gebracht – maar maatregelen om de technologie te beteugelen zouden te weinig en te laat kunnen zijn

De AI-verkiezing is hier.

Al dit jaar richtte een robocall, gegenereerd met behulp van kunstmatige intelligentie, zich op kiezers in New Hampshire tijdens de januari-primaries, waarbij het zich voordeed als president Joe Biden en hen vertelde thuis te blijven in wat functionarissen zeiden de eerste poging zou kunnen zijn om AI te gebruiken om zich te mengen in een Amerikaanse verkiezing. De ‘deepfake’-oproepen werden gekoppeld aan twee Texaanse bedrijven, Life Corporation en Lingo Telecom.

Een collage met een Amerikaanse zeearend en een stembureau met mensen die stemmen en binaire getallen die erboven zijn geplaatst. Een nieuw hulpmiddel richt zich op kiezersfraude in Georgië – maar ontloopt het de wet? Lees meer Het is niet duidelijk of de deepfake-oproepen daadwerkelijk hebben voorkomen dat kiezers kwamen opdagen, maar dat doet er niet echt toe, zei Lisa Gilbert, uitvoerend vicepresident van Public Citizen, een groep die heeft aangedrongen op federale en staatsregulering van het gebruik van AI in de politiek.

“Ik denk niet dat we moeten wachten om te zien hoeveel mensen werden misleid om te begrijpen dat dat het punt was,” zei Gilbert.

Voorbeelden van wat de VS te wachten staat, vinden overal ter wereld plaats. In Slowakije hebben valse geluidsopnames mogelijk een verkiezing beïnvloed in wat dient als een “angstaanjagende voorloper van het soort inmenging dat de Verenigde Staten waarschijnlijk zullen ervaren tijdens de presidentsverkiezingen van 2024”, meldde CNN. In Indonesië heeft een door AI gegenereerde avatar van een militair commandant de minister van Defensie van het land helpen rebranden als een “met bolle wangen” man die “Koreaanse stijl vingerhartjes maakt en zijn geliefde kat, Bobby, wiegt tot genoegen van Gen Z-kiezers”, meldde Reuters. In India zijn AI-versies van overleden politici teruggebracht om verkozen functionarissen aan te vullen, aldus Al Jazeera.

Maar de Amerikaanse voorschriften zijn niet klaar voor de toename van snelle AI-technologie en hoe deze kiezers zou kunnen beïnvloeden. Kort na de valse oproep in New Hampshire kondigde de Federal Communications Commission een verbod aan op robocalls die AI-audio gebruiken. De FEC heeft nog geen regels opgesteld om het gebruik van AI in politieke advertenties te reguleren, hoewel staten snel bewegen om de lacune in de regulering op te vullen.

Het Amerikaanse Huis lanceerde op 20 februari een bipartisan taskforce die onderzoek zal doen naar manieren waarop AI gereguleerd zou kunnen worden en een rapport met aanbevelingen zal uitbrengen. Maar met partijdige patstelling die het Congres regeert, en de Amerikaanse regulering die achterloopt bij het tempo van de snelle vooruitgang van AI, is het onduidelijk wat, als er al iets is, op tijd voor de verkiezingen van dit jaar kan worden ingevoerd.

Zonder duidelijke waarborgen zou de invloed van AI op de verkiezingen kunnen komen op neer op wat kiezers als echt en niet echt kunnen onderscheiden. AI – in de vorm van tekst, bots, audio, foto of video – kan worden gebruikt om het te laten lijken alsof kandidaten dingen zeggen of doen die ze niet hebben gedaan, om hun reputatie te schaden of kiezers te misleiden. Het kan worden gebruikt om desinformatiecampagnes te versterken, waarbij afbeeldingen worden gemaakt die er echt genoeg uitzien om verwarring te creëren voor kiezers.

"De mogelijkheid om te misleiden door AI heeft het probleem van mis- en desinformatie op steroïden gezet"

Audiomateriaal kan met name nog manipulatiever zijn omdat de technologie voor video nog niet zo geavanceerd is en ontvangers van met AI gegenereerde oproepen enkele van de contextuele aanwijzingen missen dat iets nep is die ze mogelijk vinden in een deepfake-video. Deskundigen vrezen ook dat met AI gegenereerde oproepen de stemmen van mensen in het echte leven zullen nabootsen, wat een grotere invloed op de ontvanger zou kunnen hebben omdat de beller overkomt als iemand die ze kennen en vertrouwen. Gewoonlijk de ‘grootouder’-zwendel genoemd, kunnen bellers nu AI gebruiken om de stem van een geliefde te klonen om het doelwit te misleiden om geld te sturen. Dat zou theoretisch kunnen worden toegepast op politiek en verkiezingen.

“Het kan komen van je familielid of je buurman en het zou precies als hen klinken,” zei Gilbert. “De mogelijkheid om te misleiden door AI heeft het probleem van mis- en desinformatie op steroïden gezet.”

Er zijn minder misleidende toepassingen van de technologie om een boodschap te benadrukken, zoals de recente creatie van AI-audiogesprekken met behulp van de stemmen van kinderen die zijn gedood bij schietpartijen met massa’s gericht op wetgevers om actie te ondernemen tegen wapengeweld. Sommige politieke campagnes gebruiken zelfs AI om alternatieve realiteiten te tonen om hun punten te maken, zoals een advertentie van het Republikeinse Nationale Comité die AI gebruikte om een nep-toekomst te creëren als Biden wordt herkozen. Maar sommige met AI gegenereerde beelden kunnen aanvankelijk onschuldig lijken, zoals de talloze vervalste afbeeldingen van mensen naast gesneden houten hondsculpturen die op Facebook verschijnen, maar later worden gebruikt om kwaadwillende inhoud te verspreiden.

Mensen die verkiezingen willen beïnvloeden, hoeven niet langer “ambachtelijke verkiezingsdesinformatie te maken,” zei Chester Wisniewski, een cybersecurity-expert bij Sophos. Nu helpen AI-tools om bots die klinken als echte mensen sneller te verzenden, “met één botmaster achter de bedieningselementen zoals de man in de Wizard of Oz”.

Misschien wel het meest verontrustende is dat de komst van AI mensen kan doen twijfelen of alles wat ze zien echt is of niet, waardoor een flinke dosis twijfel wordt geïntroduceerd op een moment dat de technologieën zelf nog steeds leren hoe ze realiteit het beste kunnen nabootsen.

“Er is een verschil tussen wat AI zou kunnen doen en wat AI eigenlijk doet,” zei Katie Harbath, die vroeger werkte aan beleid bij Facebook en nu schrijft over de intersection tussen technologie en democratie. Mensen zullen zich afvragen, zei ze, “wat als AI dit allemaal zou kunnen doen? Dan vertrouw ik misschien niet alles wat ik zie.”

Zelfs zonder overheidsregulering hebben bedrijven die AI-tools beheren plannen aangekondigd en gelanceerd om de potentiële invloed ervan op verkiezingen te beperken, zoals het hebben van hun chatbots die mensen doorverwijzen naar vertrouwde bronnen over waar te stemmen en het niet toestaan van chatbots die kandidaten imiteren. Een recent pact tussen bedrijven zoals Google, Meta, Microsoft en OpenAI omvat “redelijke voorzorgsmaatregelen” zoals extra labeling en educatie over met AI gegenereerde politieke inhoud, hoewel het de praktijk niet zou verbieden.

Maar kwaadwillende actoren overtreden vaak of omzeilen overheidsregels en beperkingen die door platforms zijn ingesteld. Denk aan de “niet bellen”-lijst: zelfs als je erop staat, krijg je waarschijnlijk nog steeds wat spam-oproepen.

Op nationaal niveau, of met belangrijke publieke figuren, wordt een deepfake redelijk snel ontmaskerd, met externe groepen en journalisten die zich haasten om een nepnieuw te ontdekken en het woord te verspreiden dat het niet echt is. Wanneer de schaal echter kleiner is, zijn er minder mensen die werken om iets te ontmaskeren dat door AI zou kunnen zijn gegenereerd. Narratieven beginnen zich te vormen. In Baltimore bijvoorbeeld, zouden opnames die in januari zijn geplaatst van een lokale directeur die naar verluidt beledigende opmerkingen maakt, door AI kunnen zijn gegenereerd – het staat nog steeds onder onderzoek.

In afwezigheid van reguleringen van de Federal Election Commission (FEC) hebben een handvol staten wetten ingevoerd over het gebruik van AI in politieke advertenties, en tientallen andere staten hebben wetsvoorstellen ingediend over het onderwerp. Op staatsniveau is het reguleren van AI in verkiezingen een bipartij-aangelegenheid, aldus Gilbert. De wetsvoorstellen roepen vaak op tot duidelijke onthullingen of disclaimers in politieke advertenties die ervoor zorgen dat kiezers begrijpen dat de inhoud AI-gegenereerd was; zonder dergelijke onthullingen wordt het gebruik van AI verboden in veel van de wetsvoorstellen, zei ze.

De FEC opende afgelopen zomer een regelgevingsproces voor AI, en de instantie zei dat het verwacht dit ergens deze zomer op te lossen, zo meldde de Washington Post. Tot die tijd moeten politieke advertenties met AI enkele staatsregels volgen, maar worden ze anders niet beperkt door enige AI-specifieke FEC-regels.

“Hopelijk kunnen we op tijd iets voor elkaar krijgen, zodat het niet een soort Wilde Westen wordt,” zei Gilbert. “Maar we naderen dat punt, en we moeten heel snel handelen.”

Halen jullie alles uit de Technologie en is jullie Cyber Security niveau goed genoeg?

Als dit nog niet het geval is of je weet het niet zeker? Maak dan een afspraak voor een gratis consult. Wij laten je zien wat er mogelijk is en leren je wat Cyber Security is.