Verbied AI-verzinsels alleen als ze ook echt schadelijk zijn

JOE ROGAN MAAKTE EEN PODCAST MET AI. FOTO: Jeffrey Swinger-USA TODAY Sports/Sipa USA

De stem van podcastster Joe Rogan klinkt door de speakers: ‘I am not the real Joe Rogan. Let me repeat it once more: I am not Joe Rogan.’ Maar dit is de echte stem van Joe Rogan… Toch? Bart Collard bespreekt op EW Podium de uitdagingen van AI-imitaties.

Het is een bekend deepfake-filmpje met acteur Morgan Freeman (zie onder), gecreëerd op Nederlandse bodem. De kijker ziet zijn karakteristieke gezicht nagenoeg perfect bewegen en hoort zijn warme oude stem. Dan begint hij zijn verhaal: ‘I am not Morgan Freeman. And what you see is not real. Well, at least in contemporary terms it is not.’ Een softwareontwikkelaar heeft deze woorden voor een camera ingesproken, waarna de computer zijn gezicht en stem heeft ingewisseld voor die van de acteur.

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Momenteel worden deepfakes vooral ingezet bij satirische filmpjes en bij pornografisch materiaal, waarbij hoofden van Hollywood-actrices op de lichamen van pornoactrices worden geplakt. Bij deepfakes wordt ook wel gesproken van ‘synthetische realiteit’. Is nep nog wel van echt te onderscheiden? En maakt dat het neppe niet realiteit?

Computers bedenken politieke gesprekken

Het nieuwe project van Joe Rogan, onder de naam AI Experience (AI staat voor artificial intelligence oftewel: kunstmatige intelligentie) gaat nog verder. Ogenschijnlijk gaat Rogan in gesprek met bekende gasten, maar alles is door de computer gefabriceerd en nep: zowel de stemmen als de gevoerde gesprekken.

En toch lijken de gesprekken echt. De chatbot ChatGPT heeft zo’n groot taalvermogen, dat het tekst voor een drie kwartier durende podcasts kan produceren, zonder veel ongeloofwaardigheden. De vragen en antwoorden volgen logisch op elkaar. Andere software van het bedrijf OpenAI imiteert de stemmen van Rogan en zijn gasten.

De tweede aflevering van Rogans AI Experience bevat een AI-gegenereerd gesprek tussen Rogan en Donald Trump (zie onder). Wie de ogen sluit, hoort Rogan en Trump op elkaar reageren en een politiek gesprek voeren. Wel sluipen er wat kleine verdachte dingen in. Zo noemt Trump bijna in elk antwoord Rogans voornaam Joe. Zou Trump dat in het echt ook doen?

Daarnaast zegt Trump op enig moment over de Mexicaanse muur, die hij wil bouwen en wil laten bekostigen door Mexico: ‘We’ve been working on this for a long time and it’s going to be the best wall ever built. Nobody builds walls better than me.’ Hoewel ik het Trump aan de ene kant zo zie zeggen, is die laatste zin wellicht te satirisch om uit zijn mond te kunnen komen.

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Moet het maken van AI-imitaties strafbaar zijn?

Aan het begin van de podcasts waarschuwt nep-Joe Rogan zijn critici om geen fragmenten uit deze serie te knippen en te plakken, omdat elk woord door de computer is gegenereerd. Maar als Rogan deze podcasts had gepresenteerd alsof ze realiteit waren, zouden de luisteraars dan hebben gemerkt dat dit niet zo is? De meesten waarschijnlijk niet. Hoe moeten we omgaan met door software gefabriceerde beeld- en geluidfragmenten die niet van echt zijn te onderscheiden?

De liberale grondgedachte van onze samenleving is dat een burger alles mag doen zolang hij daarmee geen anderen schaadt. Dat betekent dat ik een podcastgesprek tussen niet-bestaande mensen mag maken alsof het werkelijkheid is, en dit mag publiceren. Ik schaad daar in beginsel niemand mee. Rogan kreeg waarschijnlijk geen toestemming van Donald Trump voor hun niet-gevoerde gesprek, maar schaadt Trump niet omdat hij vermeldt dat de podcast nep is. Als Rogan die disclaimer niet had gemaakt, had het schadelijk kunnen zijn voor Trump. Dan werden hem woorden in de mond gelegd die hij niet heeft uitgesproken.

En wat als ik een deepfake maak van mijn irritante collega die zogenaamd een moordplan op een minister uit de doeken doet? Mijn collega kan worden aangehouden en veroordeeld.

Bestaande wetten tegen smaad en laster volstaan

Het is gevaarlijk dat het minder duidelijk wordt wat waar is en wat niet, klinkt het geregeld. Daarom gaan er stemmen op voor nieuwe regelgeving die het optreden tegen zulke desinformatie (bewust verspreide onwaarheden, met schadelijke intentie) moet vergemakkelijken. Maar een belangrijke vraag daarbij is: wie moet bepalen wat de waarheid is, en hoe?

Om onwaarheden te bestrijden, moet immers duidelijk zijn wat de waarheid is. De Brits-Amerikaanse publicist Christopher Hitchens stelde zijn publiek in 2006 de vraag: wie zou u voor u willen laten bepalen wat u wel en niet mag zien, horen of lezen? Aan wie bent u bereid om die macht af te staan? Het bleef akelig stil in de zaal.

Zo bezien leveren deepfakes dan wel nieuwe vragen en dilemma’s op, maar is de kwestie hoe we ermee om moeten gaan minder complex dan die lijkt. Onwaarheden moeten niet worden verboden omdat ze onwaar zijn, maar alleen als ze volgens de geldende wettelijke definities illegaal en schadelijk zijn. Er kan al tegen worden opgetreden als bijvoorbeeld iemand wordt bedreigd, als wordt opgeroepen tot geweld en bij smaad of laster.