Deepfake-regelgeving: Vrijheid van meningsuiting of preventie van maatschappelijke chaos?
Deepfake-regelgeving: Vrijheid van meningsuiting of preventie van maatschappelijke chaos?
Deepfake verwijst naar technologie die gebruikmaakt van kunstmatige intelligentie (AI) om het gezicht, de stem en het gedrag van mensen realistisch na te bootsen. Wat vroeger alleen toegankelijk was voor experts en de filmindustrie, kan nu door iedereen worden gebruikt met gratis tools of apps, waardoor de impact ervan de afgelopen jaren explosief is toegenomen.
Zo worden er steeds vaker video's verspreid waarin het gezicht van beroemde acteurs is gesynthetiseerd, of audio waarin uitspraken van politici zijn gemanipuleerd, wat via online platforms snel verspreid raakt en maatschappelijke onrust veroorzaakt. Tegelijkertijd opent het creatieve mogelijkheden in kunst en entertainment.
1. Technologische ontwikkeling van deepfakes en maatschappelijke impact
Deepfake is een samentrekking van 'deep learning' en 'fake', en verscheen voor het eerst rond 2017. Aanvankelijk was de synthesetechnologie onnatuurlijk en direct herkenbaar, maar nu is de verfijning zo hoog dat zelfs experts moeite hebben met onderscheid maken.
Met name gezichtsherkenning, spraaksynthese en het nabootsen van gezichtsuitdrukkingen en bewegingen zijn snel ontwikkeld, waardoor het potentieel voor gebruik in diverse sectoren zoals onderwijs, reclame, gaming en gezondheidszorg groter wordt.
Positieve toepassingen
- Filmindustrie: Het tot leven brengen van overleden acteurs voor filmproductie.
- Onderwijs: Het recreëren van historische figuren voor meeslepend leermateriaal.
- Gezondheidszorg: Het herstellen van de stem van patiënten met spraakstoornissen.
Negatieve gevolgen
- Nepnieuws: Manipulatie van uitspraken of gedrag van specifieke personen om politieke chaos te veroorzaken.
- Seksuele deepfakes: Het zonder toestemming synthetiseren van iemands gezicht in pornografisch materiaal.
- Financiële fraude: Het synthetiseren van stemmen om CEO-instructies na te bootsen en geldovermakingen te bevelen.
Zo draagt deepfake, net als een tweesnijdend zwaard, zowel positieve als negatieve aspecten en heeft het grote invloed op de hele samenleving.
2. Uitgangspunt van het regelgevingsdebat: Vrijheid van meningsuiting vs maatschappelijke schade
Het deepfake-regelgevingsdebat begint op het punt waar twee belangrijke waarden botsen: 'vrijheid van meningsuiting' en 'preventie van maatschappelijke schade'.
Enerzijds stellen voorstanders dat vrijheid van meningsuiting moet worden gerespecteerd en dat er voorzichtig moet worden omgegaan met regelgeving. Met name de zorg dat satire, parodie en creatieve activiteiten kunnen worden onderdrukt, is groot.
Aan de andere kant stellen tegenstanders dat zonder regelgeving de eer en privacy van individuen kunnen worden geschonden en zelfs de democratie zelf kan wankelen, en dat daarom krachtige regelgeving noodzakelijk is.
"Vrijheid van meningsuiting moet worden gerespecteerd, maar kan alleen worden gegarandeerd binnen de grenzen waarin de rechten van anderen en de maatschappelijke veiligheid niet worden geschonden."
Deepfake-regelgeving is daarom een proces van het vinden van een evenwicht tussen vrijheid van meningsuiting en preventie van maatschappelijke chaos.
3. Regelgevingssituatie in het buitenland
Veel landen hebben de noodzaak van deepfake-regelgeving erkend en zijn begonnen met institutionele maatregelen.
Verenigde Staten
In de VS worden op staatsniveau verschillende regelgevingen geïmplementeerd. Texas en Californië hebben bijvoorbeeld wetten aangenomen die deepfakes verbieden die verkiezingen kunnen beïnvloeden. Ook zijn er wetten ingevoerd die de productie en verspreiding van niet-consensuele seksuele deepfakes bestraffen.
Europese Unie (EU)
De EU probeert hoogrisicovolle AI-technologieën, waaronder deepfakes, te reguleren via de 'AI Act'. Er zijn met name bepalingen opgenomen die verplichten dat wordt aangegeven dat content synthetisch is, waardoor de transparantie wordt versterkt.
Zuid-Korea
Zuid-Korea heeft sinds 2020 ook wetgeving herzien om de productie en verspreiding van seksuele deepfakes te bestraffen. Het is echter nog steeds een punt van discussie in hoeverre algemene synthetische content moet worden gereguleerd.
Zo variëren de intensiteit en methode van regelgeving per land, afhankelijk van de culturele en juridische context.
4. Juridische vraagstukken bij deepfake-regelgeving
Bij het juridisch concretiseren van deepfake-regelgeving bestaan er verschillende vraagstukken.
① Zorgen over schending van de vrijheid van meningsuiting
Wanneer regelgeving te streng is, kunnen satire, parodie en artistieke creatie worden onderdrukt. Als bijvoorbeeld politieke satirevideo's als deepfake worden geclassificeerd en verboden, kan dit de vrijheid van democratisch debat schaden.
② Moeilijkheden bij slachtofferhulp
Omdat deepfakes zich snel online verspreiden, is het moeilijk voor slachtoffers om er direct tegen op te treden. Zelfs als om verwijdering wordt verzocht, is de effectiviteit laag omdat er al talloze kopieën zijn verspreid.
③ Onduidelijkheid over wettelijke aansprakelijkheid
Er is controverse over wie juridisch verantwoordelijk moet zijn: de maker van de deepfake, de verspreider of de platformbeheerder. Vooral bij verspreiding via buitenlandse servers is het moeilijk om nationale wetgeving toe te passen.
④ Het probleem van bijhouden van technologische ontwikkeling
Wetgeving kan de snelheid van technologische ontwikkeling moeilijk bijhouden. Zelfs als regelgeving wordt vastgesteld, kunnen nieuwe ontwijkingstechnieken verschijnen die de effectiviteit verminderen.
5. Technologische tegenmaatregelen
Naast juridische regelgeving moet ook technologische respons parallel plaatsvinden.
① Deepfake-detectietechnologie
Technologie wordt ontwikkeld die AI gebruikt om te detecteren of iets is gesynthetiseerd. Naarmate de synthesetechnologie verfijnder wordt, moet echter ook de detectietechnologie tegelijkertijd ontwikkelen, wat een 'kat-en-muis-spel' creëert.
② Digitale watermerken
Een methode waarbij digitale handtekeningen in originele content worden ingevoegd om te verifiëren of iets is gesynthetiseerd. Echter, omdat technologie om watermerken te verwijderen of te vervalsen zich ook ontwikkelt, is dit geen volledige oplossing.
③ Blockchain-gebaseerde authenticatie
Er worden ook pogingen gedaan om het productie- en distributietraject van content op blockchain vast te leggen om vervalsing te kunnen verifiëren.
6. Ethische kwesties en maatschappelijk debat
Deepfakes brengen niet alleen juridische problemen met zich mee, maar ook kwesties van sociale waarden en ethiek.
① Seksuele deepfakes zonder toestemming
Deze schenden ernstig de mensenrechten en waardigheid van slachtoffers. Met name wanneer vrouwen en kinderen vaak de hoofdslachtoffers zijn, is de maatschappelijke impact groot.
② Politieke manipulatie
Ze kunnen worden misbruikt als middel om verkiezingen te beïnvloeden of specifieke politici aan te vallen. Dit is een ernstige bedreiging die de fundamenten van de democratie kan ondermijnen.
③ Ineenstorting van een vertrouwensmaatschappij
Wanneer mensen video's en audio niet meer kunnen vertrouwen, wankelt het hele informatie-ecosysteem van de samenleving. Een situatie waarin je "niet kunt geloven wat je ziet" verzwakt de vertrouwensbasis van de gemeenschap.
"Deepfake is niet slechts een technisch probleem, maar een uitdaging die het vertrouwen van de hele samenleving op de proef stelt."
7. Vergelijking van nationale en internationale gevallen
Door daadwerkelijk voorgevallen gevallen in verschillende landen te bekijken, wordt de noodzaak van regelgeving en maatregelen duidelijker.
Zuid-Korea: Gesynthetiseerd pornografisch materiaal van beroemdheden
Illegaal pornografisch materiaal met gesynthetiseerde gezichten van beroemde entertainers werd massaal geproduceerd en verspreid, wat voor maatschappelijke schok zorgde. Slachtoffers klaagden over psychisch leed, maar verwijdering en juridische maatregelen werden vertraagd.
Verenigde Staten: Politieke audiofraude
Er vonden incidenten plaats waarbij kiezers werden misleid met gesynthetiseerde stemmen van politici. Deze audio, verspreid tijdens het verkiezingsproces, veroorzaakte grote verwarring.
Verenigd Koninkrijk: CEO voice phishing
Er werden gevallen gemeld waarbij met gesynthetiseerde stemmen CEO-instructies werden nagebootst om miljoenen dollars over te maken.
8. Toekomstige regelgevingsrichting en uitdagingen
Deepfake-regelgeving moet ook in de toekomst blijven worden besproken in een evoluerende technologische omgeving.
① Internationale samenwerking
Om deepfakes die zich over grenzen verspreiden aan te pakken, is samenwerking tussen landen essentieel. Er zijn inspanningen nodig om gemeenschappelijke normen en standaarden vast te stellen.
② Zelfregulering
Platformbedrijven moeten technologie en beleid versterken om deepfake-content zelfstandig te detecteren en te blokkeren.
③ Onderwijs en bewustwording
Het is belangrijk dat burgers deepfakes kritisch kunnen bekijken en zelf kunnen onderscheiden. Mediageletterdheidsonderwijs is de sleutel.
④ Evenwichtige regelgeving
Er moet een evenwicht worden gevonden tussen het niet overdreven schenden van de vrijheid van meningsuiting en het minimaliseren van maatschappelijke schade.
9. Conclusie
Deepfake is een nieuwe technologische en maatschappelijke uitdaging waarmee de mensheid wordt geconfronteerd. Het brengt tegelijkertijd positieve mogelijkheden en negatieve risico's met zich mee, en hoe we dit reguleren en gebruiken hangt af van de wijsheid van onze samenleving.
Terwijl we de vrijheid van meningsuiting respecteren, is minimale regelgeving onvermijdelijk om individuele rechten en maatschappelijk vertrouwen te beschermen. Wanneer internationale samenwerking, technologische respons en burgerlijk bewustzijn samen worden gerealiseerd, kunnen we de dreigingen van deepfakes beheersen en kansen benutten.
Hoe we in de toekomst omgaan met nieuwe technologieën zoals deepfake is direct verbonden met hoe onze samenleving democratie en mensenrechten zal beschermen. Daarom moet het regelgevingsdebat niet alleen een juridisch-technische dimensie zijn, maar een proces van maatschappelijke consensus en waardeoordeel.
FAQ: Veelgestelde vragen over deepfake-regelgeving
Q1. Wat is het verschil tussen deepfake en parodie?
Deepfake is het synthetiseren van scènes of audio die niet echt bestaan met behulp van kunstmatige intelligentie. Parodie daarentegen is een artistieke expressie die het origineel satiriseert of transformeert om nieuwe betekenis te creëren. In regelgeving is het belangrijk om deze twee duidelijk te onderscheiden.
Q2. Schendt deepfake-regelgeving niet de vrijheid van meningsuiting?
Als regelgeving overdreven is, kan de vrijheid van meningsuiting worden onderdrukt. In gevallen waarbij sociale schade duidelijk is, zoals niet-consensuele seksuele deepfakes of verkiezingsmanipulatie, is er echter een meerderheid die vindt dat regelgeving noodzakelijk is.
Q3. Is technologie voor het detecteren van deepfakes perfect?
Nog niet. Naarmate synthesetechnologie zich ontwikkelt, moet detectietechnologie zich ook ontwikkelen, en momenteel is het een 'kat-en-muis-spel'.
Q4. Hoe kan een individu reageren wanneer hij of zij slachtoffer wordt?
Juridisch zijn verwijderingsverzoeken en schadevergoedingsclaims mogelijk, maar praktische hulpverlening is moeilijk omdat online verspreiding zo snel gaat. Daarom zijn preventie en actieve respons van platforms belangrijk.
Q5. Welke rol moeten bedrijven spelen?
Platformbedrijven moeten deepfake-detectietechnologie introduceren en illegale content beleidmatig snel blokkeren. Tegelijkertijd moeten ze een evenwicht vinden zodat creatieve activiteiten niet worden onderdrukt.
Deepfake-regelgeving gerelateerde zoekwoorden
- Deepfake
- Regelgeving
- Vrijheid van meningsuiting
- Maatschappelijke chaos
- Nepnieuws
- AI-ethiek
- Privacy
- Juridische kwesties
- Technologische respons
- Internationale samenwerking
Tijdlijn: Belangrijke gebeurtenissen in deepfake-regelgeving
- 2017: Opkomst van deepfake-technologie
- 2019: Californië (VS) stelt wet in die verkiezingsgerelateerde deepfakes verbiedt
- 2020: Zuid-Korea versterkt straffen voor seksuele deepfakes
- 2023: EU neemt deepfake-regelgeving op in AI-wet
- 2024: Internationale gemeenschap breidt discussie uit over samenwerking bij deepfake-aanpak
Conclusie samenvatting
Deepfake is een product van technologische ontwikkeling en een maatschappelijke uitdaging. We moeten de wijsheid tonen om het creatieve potentieel van deze technologie te benutten en tegelijkertijd schade te minimaliseren.
Regelgeving moet een proces zijn van het vinden van een evenwicht tussen vrijheid van meningsuiting en maatschappelijke veiligheid, en kan effectief zijn wanneer internationale samenwerking, technologische ontwikkeling en burgereducatie samen worden gerealiseerd.
Aanvullend referentiemateriaal
- EU AI-wet
- Amerikaanse Congres wetgeving
- Wetgevingsbureau van de Republiek Korea
- Officiële website van de Verenigde Naties
Bijlage: Diepgaande uitleg over deepfake-regelgeving
1. Filosofische achtergrond van deepfake-regelgeving
De discussie over deepfake-regelgeving gaat verder dan de technologische dimensie en bevat een botsing van filosofische waarden. Op het kruispunt van individuele vrijheid en maatschappelijke verantwoordelijkheid, technologische innovatie en ethiek, nationale soevereiniteit en internationale samenwerking worden complexe vragen gesteld.
Bijvoorbeeld: tot hoever moet vrijheid van meningsuiting worden toegestaan, en waar komt de legitimiteit vandaan voor staatsinterventie wanneer die vrijheid de rechten van anderen schendt?
2. De grens tussen vrijheid van meningsuiting en regelgeving
Vrijheid van meningsuiting is een van de kernwaarden van democratie. Maar ook in grondwetten en internationale mensenrechtennormen is vrijheid van meningsuiting geen absoluut recht, maar wordt gegarandeerd binnen grenzen die de rechten van anderen en de maatschappelijke veiligheid niet schaden.
Daarom vereist deepfake-regelgeving een delicaat evenwicht tussen vrijheid en regelgeving. Overdadige regelgeving onderdrukt creatie en discussie, terwijl onvoldoende regelgeving maatschappelijke schade vergroot.
3. Grenzen en aanvullingen van juridische regelgeving
Wetgeving heeft altijd de eigenschap dat ze de technologische ontwikkeling achtervolgt. Net zoals er in het begin van internet onvoldoende juridische middelen waren om cybercriminaliteit te reguleren, heeft deepfake ook een nieuw normatief kader nodig.
Juridische regelgeving alleen heeft echter zijn grenzen en moet gepaard gaan met technologische respons, verhoging van sociaal bewustzijn en internationale samenwerking.
4. Mogelijkheden en grenzen van technologische respons
AI-detectietechnologie, watermerken, blockchain-authenticatie zijn belangrijke middelen, maar technologie kan altijd worden omzeild. Technologische respons is dus een noodzakelijke maar geen voldoende voorwaarde.
Uiteindelijk moet er een consensus zijn over hoe de samenleving technologie accepteert en gebruikt.
5. Noodzaak van ethische educatie
Om negatief gebruik van deepfakes te voorkomen, is niet alleen wet- en regelgeving en technologie nodig, maar ook ethische educatie essentieel. Het is vooral belangrijk om jongeren en makers digitale ethiek en mediageletterdheid te leren.
6. Model voor internationale samenwerking
De internationale gemeenschap heeft ervaring met gezamenlijke aanpak van grensoverschrijdende problemen zoals cybercriminaliteit, terrorisme en klimaatverandering. Ook voor deepfake moet een internationaal samenwerkingsmodel worden gebouwd om gemeenschappelijke normen en systemen te creëren.
De AI-wet van de Europese Unie (EU) heeft bijvoorbeeld de potentie om een internationale standaard te worden.
7. Maatschappelijke verantwoordelijkheid van bedrijven
Platformbedrijven moeten grotere verantwoordelijkheid dragen omdat ze een belangrijke route kunnen zijn voor deepfake-verspreiding. Zelfregulering is nodig, zoals introductie van detectietechnologie, blokkering van illegale content en opzetten van slachtofferondersteuningssystemen.
8. Rol van individuen
Individuele gebruikers zijn niet alleen maar consumenten, maar hebben ook verantwoordelijkheid als lid van het informatie-ecosysteem. Er wordt een houding gevraagd waarbij verdachte content niet wordt gedeeld en kritisch denken wordt behouden.
9. Toekomstperspectief
Deepfakes zullen in de toekomst nog verfijnder worden en zich verder verspreiden. In combinatie met metaverse, virtual reality en augmented reality kan er een tijdperk komen waarin het moeilijk is om werkelijkheid en virtueel te onderscheiden.
Daarom moet regelgeving worden ontworpen binnen een langetermijnvisie, niet als kortetermijnoplossing.
Case studies
Case 1: Verkiezingsinterventie
In een land verspreidden zich deepfake-video's die de uitspraken van een specifieke kandidaat manipuleerden vlak voor de presidentsverkiezingen, wat maatschappelijke chaos veroorzaakte. Het beïnvloedde ook de verkiezingsresultaten, waarna het land in kwestie spoedig relevante wetgeving instelde.
Case 2: Bedrijfsimago-schade
Er was een incident waarbij een deepfake-video verspreid werd die deed alsof de CEO van een wereldwijd bedrijf bepaalde uitspraken deed, waardoor de aandelenkoers instortte. Later bleek het een synthetisch te zijn, maar de schade was al groot.
Case 3: Persoonlijke eerroof
Er was een geval waarbij het gezicht van een gewone burger werd gesynthetiseerd op een plaats delict en online verspreid, waardoor de persoon ernstige sociale veroordeling ondervond. Uiteindelijk werd de onschuld bewezen, maar het slachtoffer leed onder moeilijk te herstellen schade.
Beleidsvoorstellen
1) Meerlagige regelgeving
Juridische regelgeving, technologische respons en verhoging van sociaal bewustzijn moeten gelijktijdig plaatsvinden. Een alleen is niet voldoende.
2) Mondiale governance
Met internationale organisaties zoals de VN, G20 en OESO als centrum moet mondiale governance worden opgebouwd om gemeenschappelijke normen te creëren.
3) Slachtofferondersteuningssysteem
Er moeten institutionele voorzieningen worden getroffen zodat slachtoffers snel melding kunnen maken en hulp kunnen krijgen. Dit omvat juridische ondersteuning, psychologische counseling en hulp bij het verwijderen van content.
4) Ondersteuning voor onderzoek en ontwikkeling
Overheid en particuliere sector moeten samenwerken om deepfake-detectietechnologie, ethische educatieprogramma's en internationale samenwerkingsplatforms te onderzoeken en ontwikkelen.
5) Transparantie verbeteren
Er moet een verplichting zijn om duidelijk aan te geven dat content is gesynthetiseerd, zodat het recht op informatie van gebruikers wordt gewaarborgd.
Slotwoord
Deepfake is niet zomaar een technologisch fenomeen, maar een uitdaging die de vraag stelt naar wat voor samenleving we willen creëren. We moeten oplossingen vinden waarin vrijheid en verantwoordelijkheid, innovatie en regelgeving, individu en gemeenschap harmoniëren.
Deze discussie zal in de toekomst voortduren en is een taak waaraan landen en de internationale gemeenschap, bedrijven en individuen samen moeten deelnemen.
De rol en participatie van het maatschappelijk middenveld
Deepfake-regelgeving is niet alleen de verantwoordelijkheid van overheden en bedrijven. Ook het maatschappelijk middenveld moet als belangrijke actor participeren. NGO's, academische wereld, media en gewone burgers moeten allemaal samen responsstrategieën zoeken.
1. Rol van NGO's
Non-profitorganisaties spelen een belangrijke rol in slachtofferhulp, mensenrechtenbescherming en beleidsvoorstellen. Met name activiteiten die juridische consultatie en psychologische ondersteuning bieden aan slachtoffers van seksuele deepfakes zijn noodzakelijk.
2. Bijdrage van de academische wereld
De academische wereld kan niet alleen deepfake-technologie onderzoeken, maar ook multidimensionale bijdragen leveren zoals analyse van sociale impact en opstellen van ethische richtlijnen. Ook speelt zij een rol in het leveren van wetenschappelijk bewijs voor overheidsbeleid.
3. Verantwoordelijkheid van de media
Media moeten bij het rapporteren over deepfake-gerelateerde incidenten sensationele berichtgeving vermijden en bijdragen aan nauwkeurige informatieverstrekking en verhoging van sociaal bewustzijn. Ook kunnen zij educatief materiaal over deepfake-detectietechnologie verstrekken.
4. Burgerparticipatie
Gewone burgers kunnen reageren door verdachte content niet lukraak te delen en gebruik te maken van meldsystemen. Ook is het belangrijk om een gezonde discussiecultuur te creëren in online gemeenschappen.
Economische gevolgen
Deepfakes veroorzaken niet alleen maatschappelijke schade maar ook economisch verlies.
- Aandelenkoersdaling door beschadiging van bedrijfsimago
- Financiële fraudeschade
- Toename van juridische en opsporingskosten
- Afname van vertrouwen in de hele contentindustrie
Omgekeerd kan positief gebruik nieuwe industriële kansen creëren. Bijvoorbeeld, legaal en ethisch gebruik van deepfakes kan innovatie leiden in onderwijs, gezondheidszorg en entertainment.
Politieke gevolgen
Deepfakes zijn bijzonder gevaarlijk op politiek gebied. Ze kunnen een ernstige bedreiging vormen voor de democratie, zoals verkiezingsinterventie, eerroof van politici en het aanwakkeren van sociale verdeeldheid.
Daarom is regelgeving die politieke neutraliteit en transparantie waarborgt belangrijk. Verkiezingscommissies van elk land en internationale verkiezingstoezichthoudende organisaties moeten deepfake-responsstrategieën opstellen.
Deepfake en toekomstige samenleving
Deepfake kan niet alleen kortetermijnbedreigingen vormen maar ook op lange termijn maatschappelijke structuren veranderen. De ineenstorting van informatiebetrouwbaarheid kan fundamentele invloed hebben op sociale contracten en institutionele werking.
Ook kan het in combinatie met metaverse, augmented reality en virtual reality nieuwe vormen van sociale ervaringen creëren. In dit proces zullen de grenzen tussen realiteit en virtueel vervagen, en zullen identiteits- en vertrouwenskwesties als nieuwe uitdagingen naar voren komen.
Toekomst van regelgeving
Deepfake-regelgeving moet niet alleen verbod en straf zijn, maar ook technologische innovatie en sociale waardecreatie tegelijkertijd nastreven. Hiervoor worden de volgende richtingen voorgesteld.
1. Flexibele regelgeving
Regelgeving moet voortdurend worden bijgewerkt om de snelheid van technologische ontwikkeling te weerspiegelen. In plaats van rigide wetgeving is flexibele regelgeving op basis van principes nodig.
2. Multilaterale samenwerking
Er moet multilaterale governance worden opgebouwd waarin overheid, bedrijven, academische wereld en maatschappelijk middenveld samen participeren.
3. Mondiale standaarden
Er moeten normen en standaarden worden opgesteld die de internationale gemeenschap gemeenschappelijk kan erkennen. Dit is essentieel in een digitale omgeving die grenzen overschrijdt.
4. Duurzaam onderwijs
Om op deepfakes te reageren is burgereducatie essentieel. Mediageletterdheid moet worden versterkt in zowel schoolonderwijs als sociaal onderwijs.
Eindconclusie
Deepfake is een belangrijke uitdaging van onze tijd. Er is wijsheid nodig om een evenwicht te vinden tussen de twee waarden van vrijheid van meningsuiting en preventie van maatschappelijke schade.
Alleen wanneer juridische en technologische regelgeving, ethische educatie, internationale samenwerking en burgerparticipatie in harmonie zijn, kunnen we de negatieve effecten van deepfakes minimaliseren en positieve mogelijkheden realiseren.
Toekomstige regelgevingsdiscussies moeten verder gaan dan alleen juridische bepalingen en een proces van collectieve reflectie worden over wat voor samenleving we willen creëren.
Referenties
- Citron, D. K., & Chesney, R. (2019). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review.
- Westerlund, M. (2019). The Emergence of Deepfake Technology: A Review. Technology Innovation Management Review.
- European Commission. (2023). The Artificial Intelligence Act.
- Wetgevingsbureau van de Republiek Korea. (2020). Herziening van de wet met betrekking tot seksuele deepfakes.
- United Nations. (2024). Report on AI and Human Rights.