Hoe voorkom je dat je slachtoffer wordt van AI-fraude?

Kunstmatige intelligentie (AI) heeft zich de afgelopen jaren exponentieel ontwikkeld en is een hulpmiddel geworden waarmee we direct toegang hebben tot kennis en antwoorden, maar ook tot afbeeldingen, video's en audio die volledig door een computer zijn gemaakt.
Een groot deel van deze media is geëvolueerd van duidelijk onjuist materiaal naar volkomen geloofwaardige video's, afbeeldingen en audio, die worden gebruikt om nepnieuws te verspreiden of om mensen die niet bekend zijn met het onderwerp op te lichten.
Een van de vormen van oplichting die dit soort technologie kan veroorzaken, is de productie van video's door prominente figuren die gebruikers uitnodigen om te investeren in een product of een product te kopen. Arturo Elías Ayub ontkende onlangs zijn betrokkenheid bij een dergelijke opzet, en ook video's met presentatrice Adela Micha en zelfs president Claudia Sheinbaum zijn viraal gegaan.
Bij audio-opnamen kunnen criminelen met behulp van AI gesprekken creëren en zich voordoen als een familielid, een bankmedewerker of een autoriteitsfiguur.
Het kan erg moeilijk zijn om te bepalen of de video die je bekijkt door AI is gegenereerd of dat het gesprek dat je voert echt is. Onlangs betaalde een medewerker van een multinational in Hongkong meer dan 25 miljoen dollar na een door AI gegenereerd gesprek, waarbij hij zich voordeed als een leidinggevende. Hoewel het in het dagelijks leven moeilijk is om zoveel geld te verliezen, is het belangrijk om te weten wanneer het om oplichting gaat.
Hoe werken ze? dit soort oplichting?
Dit type video, afbeelding of audio staat bekend als deepfake. Het gaat hierbij om extreem realistische materialen met zeer gedetailleerde graphics, die iedereen op het eerste gezicht zou kunnen geloven dat ze echt zijn.
Jhenner Trigueros is AI-softwareontwikkelaar aan de Platzi Academy of Technology and Artificial Intelligence. Hij legde uit dat naarmate de technologie vordert, dit soort materialen ook moeilijker te detecteren worden en met verschillende platforms kunnen worden gecreëerd.
"Enkele van de AI's die dit soort audio- of videobestanden kunnen maken, zijn OpenAI, Eleven Labs, Google DeepMind en Sesame Lab. Hun functies omvatten onder andere het klonen van spraak, video en gesprekken", legt Trigueros uit. Hij voegt toe dat er 3.067 modellen zijn die audio uit tekst kunnen genereren en 546 die video kunnen genereren.
Daarnaast is het belangrijk om te weten dat dit soort oplichtingspraktijken plaatsvinden via promotiefilmpjes op sociale media (in het geval van video's) en via telefoongesprekken of spraakberichten (in het geval van audio's).
Identificeer de nep
Omdat audio- en video-opnames bijna perfect realistisch zijn, kan het identificeren van oplichting complex en in sommige gevallen bijna onmogelijk zijn. Het zijn echter de details die ons kunnen helpen bepalen of we slachtoffer zijn van cybercriminelen.
"Bij video's is een van de meest voorkomende fouten het aantal vingers van de persoon dat haakvormig lijkt, evenals onnatuurlijke bewegingen van de armen, ogen en lippen, en zelfs fouten in de belichting", waarschuwde de Platzi AI-softwareontwikkelaar.
Naast deze kenmerken moet u letten op de coördinatie van de lippen met de audio, en moet u zich concentreren op de gebruikte woordenschat. Denk ook na of dit overeenkomt met de manier waarop de persoon spreekt.
"Het identificeren van audio die met AI is gemaakt, is veel moeilijker. Hierbij moeten we letten op de toon, emotie, uitspraak en samenhang van wat er gezegd wordt", aldus Trigueros, eraan toevoegend dat de audiokwaliteit ook fraudeurs kan verraden.
Als je valt, handel dan
Als u bent opgelicht door cybercriminelen, raden deskundigen u als eerste aan om te bepalen of u uw privacy, bankgegevens of geld bent kwijtgeraakt. Neem vervolgens onmiddellijk contact op met uw bank of wijzig uw wachtwoorden en inloggegevens.
Het is ook belangrijk dat u contact opneemt met de cybersecurityautoriteit om de fraude te melden. U ontvangt dan nadere instructies over hoe u in deze situatie moet reageren.
Eleconomista