Sydney Sweeney, je nieuwe AI-wiskundeleraar?

Een digitale kloon van Sydney Sweeney die wiskunde uitlegt, is viraal gegaan en heeft een debat over de grenzen van AI aangewakkerd. Is het een onschuldige educatieve toepassing of een gevaarlijke schending van de identiteit? We leggen de technologie en de gevolgen ervan uit.
Sociale media, met name TikTok, worden de laatste tijd overspoeld met een reeks video's met de populaire actrice Sydney Sweeney in een onverwachte rol: als wiskundelerares. In de clips, verspreid via het account @onclocklearning, legt een digitale kloon van de actrice wiskundige concepten op een leuke en toegankelijke manier uit. Het realisme van deze video's is zo opvallend dat veel gebruikers het moeilijk vinden om te onderscheiden of de content authentiek is of kunstmatig gecreëerd.
De technologie achter dit fenomeen is 'deepfake', een kunstmatige intelligentietechniek die deep learning gebruikt om bestaande afbeeldingen en video's over andere te leggen. Met behulp van machine learning-modellen worden niet alleen iemands uiterlijk, maar ook zijn of haar stem, stemgeluid en gezichtsuitdrukkingen nagebootst, wat een buitengewoon geloofwaardig resultaat oplevert.
In dit specifieke geval wordt de content gepresenteerd met een ogenschijnlijk educatief en onschuldig doel, wat tot een heftig debat heeft geleid. Terwijl sommige kijkers beweren eindelijk concepten te hebben begrepen waar ze al lang mee worstelden, stellen anderen de ethiek van het gebruik van de afbeelding van een beroemdheid zonder diens toestemming ter discussie, zelfs voor een "vriendelijk" doel. Deze casus is een perfect voorbeeld van hoe een technologie radicaal anders kan worden opgevat, wat een cruciaal gesprek over de grenzen ervan op gang brengt.
De Sydney Sweeney-zaak, met zijn educatieve façade, lijkt misschien een recreatief gebruik van technologie, maar het is slechts het topje van de ijsberg. Dezelfde technologie wordt gebruikt voor veel duisterdere doeleinden en zonder toestemming van de betrokkenen, wat leidt tot juridische stappen en publieke veroordelingen.
Een treffend voorbeeld is dat van actrice Scarlett Johansson, die juridische stappen ondernam nadat haar afbeelding zonder haar toestemming voor ideologische doeleinden in een deepfakevideo was gebruikt. In een verklaring aan Vanity Fair waarschuwde Johansson: "We moeten het misbruik van AI aan de kaak stellen, ongeacht de boodschap ervan, anders lopen we het risico de realiteit te verliezen."
Zangeres Céline Dion veroordeelde publiekelijk de door AI gecreëerde imitaties van haar stem. Ze noemde de opnames "nep en niet goedgekeurd". Deze gevallen tonen het groeiende probleem aan van het onvrijwillige gebruik van de identiteit van publieke figuren.
Het schadelijke potentieel van deze technologie is nog alarmerender in gevallen zoals die in Almendralejo, Spanje, waar een app werd gebruikt om nepnaaktfoto's van minderjarige meisjes te maken. Dit laat zien hoe deepfakes gebruikt kunnen worden voor seksueel geweld.
Het conflict heeft ook de arbeidssfeer bereikt. De acteursvakbond van Hollywood, SAG-AFTRA, heeft Epic Games, het bedrijf achter de populaire videogame Fortnite, aangeklaagd omdat het de stem van het iconische personage Darth Vader met behulp van AI heeft nagebootst zonder de juiste onderhandeling met de stemacteurs. Dit schept een precedent voor de bescherming van arbeidsrechten in het digitale tijdperk.
De snelle evolutie van deepfake-technologie heeft de wetgeving ver achter zich gelaten. Momenteel is er in de meeste landen een aanzienlijk juridisch vacuüm, waardoor het moeilijk is om slachtoffers te beschermen en de verantwoordelijken te straffen.
In de Verenigde Staten is actie ondernomen. Wetten zoals de TAKE IT DOWN Act, aangenomen in 2025, beogen het verwijderen van intieme content en deepfakes zonder wederzijdse toestemming te vergemakkelijken. Bovendien hebben staten zoals Californië en Texas wetgeving aangenomen die het maken van deepfakes voor kwaadaardige doeleinden, zoals inmenging in verkiezingen of pornografie zonder wederzijdse toestemming, strafbaar stelt.
Buiten deze rechtsgebieden is er echter onvoldoende bescherming. In Latijns-Amerika en veel andere delen van de wereld bestaan geen specifieke wettelijke kaders om dit probleem aan te pakken, waardoor burgers zeer kwetsbaar zijn voor manipulatie van hun digitale identiteit.
"Deepfakes […] kunnen leed en negatieve effecten veroorzaken bij de ontvangers, desinformatie en haatzaaierij vergroten en zelfs politieke spanningen, publieke ophef, geweld of oorlog aanwakkeren."
Terwijl zaken van beroemdheden de krantenkoppen halen, hebben de risico's van deepfake-technologie gevolgen voor iedereen. Kwaadaardig gebruik van AI kan leiden tot ernstige privacyschendingen, lastercampagnes, intimidatie en grootschalige oplichting.
Generatieve AI-tools kunnen worden gebruikt om nepnaaktfoto's te creëren en "sextortion"-misdrijven te plegen, waarbij slachtoffers worden bedreigd met het publiceren van gemanipuleerde afbeeldingen als ze niet aan bepaalde eisen voldoen. Ze kunnen ook worden gebruikt voor identiteitsdiefstal bij financiële fraude of om vals bewijs te creëren in juridische geschillen.
Het fundamentele probleem dat het deepfake-fenomeen blootlegt, is de ineenstorting van contextueel vertrouwen. Tot nu toe werd een video of audiobestand beschouwd als relatief betrouwbaar bewijs dat iets gebeurd was. We betreden echter een tijdperk van "falsifieerbare realiteit", waarin we niet langer kunnen vertrouwen op wat we zien en horen zonder rigoureuze externe verificatie. Dit heeft niet alleen gevolgen voor nieuws en politiek, maar ook voor persoonlijke relaties, zakelijke overeenkomsten en de rechtszekerheid in het algemeen. De dreiging is niet alleen "nepnieuws", maar ook de erosie van de realiteit zelf als verifieerbaar concept.
Sociale media, met name TikTok, worden de laatste tijd overspoeld met een reeks video's met de populaire actrice Sydney Sweeney in een onverwachte rol: als wiskundelerares. In de clips, verspreid via het account @onclocklearning, legt een digitale kloon van de actrice wiskundige concepten op een leuke en toegankelijke manier uit. Het realisme van deze video's is zo opvallend dat veel gebruikers het moeilijk vinden om te onderscheiden of de content authentiek is of kunstmatig gecreëerd.
De technologie achter dit fenomeen is 'deepfake', een kunstmatige intelligentietechniek die deep learning gebruikt om bestaande afbeeldingen en video's over andere te leggen. Met behulp van machine learning-modellen worden niet alleen iemands uiterlijk, maar ook zijn of haar stem, stemgeluid en gezichtsuitdrukkingen nagebootst, wat een buitengewoon geloofwaardig resultaat oplevert.
In dit specifieke geval wordt de content gepresenteerd met een ogenschijnlijk educatief en onschuldig doel, wat tot een heftig debat heeft geleid. Terwijl sommige kijkers beweren eindelijk concepten te hebben begrepen waar ze al lang mee worstelden, stellen anderen de ethiek van het gebruik van de afbeelding van een beroemdheid zonder diens toestemming ter discussie, zelfs voor een "vriendelijk" doel. Deze casus is een perfect voorbeeld van hoe een technologie radicaal anders kan worden opgevat, wat een cruciaal gesprek over de grenzen ervan op gang brengt.
De Sydney Sweeney-zaak, met zijn educatieve façade, lijkt misschien een recreatief gebruik van technologie, maar het is slechts het topje van de ijsberg. Dezelfde technologie wordt gebruikt voor veel duisterdere doeleinden en zonder toestemming van de betrokkenen, wat leidt tot juridische stappen en publieke veroordelingen.
Een treffend voorbeeld is dat van actrice Scarlett Johansson, die juridische stappen ondernam nadat haar afbeelding zonder haar toestemming voor ideologische doeleinden in een deepfakevideo was gebruikt. In een verklaring aan Vanity Fair waarschuwde Johansson: "We moeten het misbruik van AI aan de kaak stellen, ongeacht de boodschap ervan, anders lopen we het risico de realiteit te verliezen."
Zangeres Céline Dion veroordeelde publiekelijk de door AI gecreëerde imitaties van haar stem. Ze noemde de opnames "nep en niet goedgekeurd". Deze gevallen tonen het groeiende probleem aan van het onvrijwillige gebruik van de identiteit van publieke figuren.
Het schadelijke potentieel van deze technologie is nog alarmerender in gevallen zoals die in Almendralejo, Spanje, waar een app werd gebruikt om nepnaaktfoto's van minderjarige meisjes te maken. Dit laat zien hoe deepfakes gebruikt kunnen worden voor seksueel geweld.
Het conflict heeft ook de arbeidssfeer bereikt. De acteursvakbond van Hollywood, SAG-AFTRA, heeft Epic Games, het bedrijf achter de populaire videogame Fortnite, aangeklaagd omdat het de stem van het iconische personage Darth Vader met behulp van AI heeft nagebootst zonder de juiste onderhandeling met de stemacteurs. Dit schept een precedent voor de bescherming van arbeidsrechten in het digitale tijdperk.
De snelle evolutie van deepfake-technologie heeft de wetgeving ver achter zich gelaten. Momenteel is er in de meeste landen een aanzienlijk juridisch vacuüm, waardoor het moeilijk is om slachtoffers te beschermen en de verantwoordelijken te straffen.
In de Verenigde Staten is actie ondernomen. Wetten zoals de TAKE IT DOWN Act, aangenomen in 2025, beogen het verwijderen van intieme content en deepfakes zonder wederzijdse toestemming te vergemakkelijken. Bovendien hebben staten zoals Californië en Texas wetgeving aangenomen die het maken van deepfakes voor kwaadaardige doeleinden, zoals inmenging in verkiezingen of pornografie zonder wederzijdse toestemming, strafbaar stelt.
Buiten deze rechtsgebieden is er echter onvoldoende bescherming. In Latijns-Amerika en veel andere delen van de wereld bestaan geen specifieke wettelijke kaders om dit probleem aan te pakken, waardoor burgers zeer kwetsbaar zijn voor manipulatie van hun digitale identiteit.
"Deepfakes […] kunnen leed en negatieve effecten veroorzaken bij de ontvangers, desinformatie en haatzaaierij vergroten en zelfs politieke spanningen, publieke ophef, geweld of oorlog aanwakkeren."
Terwijl zaken van beroemdheden de krantenkoppen halen, hebben de risico's van deepfake-technologie gevolgen voor iedereen. Kwaadaardig gebruik van AI kan leiden tot ernstige privacyschendingen, lastercampagnes, intimidatie en grootschalige oplichting.
Generatieve AI-tools kunnen worden gebruikt om nepnaaktfoto's te creëren en "sextortion"-misdrijven te plegen, waarbij slachtoffers worden bedreigd met het publiceren van gemanipuleerde afbeeldingen als ze niet aan bepaalde eisen voldoen. Ze kunnen ook worden gebruikt voor identiteitsdiefstal bij financiële fraude of om vals bewijs te creëren in juridische geschillen.
Het fundamentele probleem dat het deepfake-fenomeen blootlegt, is de ineenstorting van contextueel vertrouwen. Tot nu toe werd een video of audiobestand beschouwd als relatief betrouwbaar bewijs dat iets gebeurd was. We betreden echter een tijdperk van "falsifieerbare realiteit", waarin we niet langer kunnen vertrouwen op wat we zien en horen zonder rigoureuze externe verificatie. Dit heeft niet alleen gevolgen voor nieuws en politiek, maar ook voor persoonlijke relaties, commerciële overeenkomsten en de rechtszekerheid in het algemeen. De dreiging is niet alleen "nepnieuws", maar ook de erosie van de realiteit zelf als verifieerbaar concept.
La Verdad Yucatán