OpenAI blocca 10 operazioni di intelligenza artificiale dannose collegate a Cina, Russia, Iran e Corea del Nord

Seleziona la lingua

Italian

Down Icon

Seleziona Paese

England

Down Icon

OpenAI blocca 10 operazioni di intelligenza artificiale dannose collegate a Cina, Russia, Iran e Corea del Nord

OpenAI blocca 10 operazioni di intelligenza artificiale dannose collegate a Cina, Russia, Iran e Corea del Nord

OpenAI , azienda leader nel settore dell'intelligenza artificiale, ha dichiarato di stare combattendo attivamente l'uso improprio e diffuso dei suoi strumenti di intelligenza artificiale da parte di gruppi malintenzionati provenienti da paesi come Cina, Russia, Corea del Nord e Iran.

In un nuovo rapporto pubblicato all'inizio di questa settimana, OpenAI ha annunciato di essere riuscita a chiudere dieci importanti reti in soli tre mesi, dimostrando il suo impegno nella lotta alle minacce online.

Il rapporto evidenzia come i malintenzionati utilizzino l'intelligenza artificiale per creare inganni online convincenti. Ad esempio, gruppi legati alla Cina hanno utilizzato l'intelligenza artificiale per pubblicare commenti e articoli falsi in massa su piattaforme come TikTok e X, fingendosi utenti reali in una campagna chiamata "Sneer Review".

Tra queste, un falso video che accusava l'attivista pakistano Mahrang Baloch di essere apparso in un film pornografico. Hanno anche utilizzato l'intelligenza artificiale per generare contenuti volti a polarizzare le discussioni negli Stati Uniti, creando falsi profili di veterani statunitensi per influenzare dibattiti su argomenti come i dazi, in un'operazione chiamata "Uncle Spam".

Gli attori nordcoreani, d'altra parte, hanno creato falsi curriculum e candidature di lavoro utilizzando l'intelligenza artificiale. Hanno cercato lavoro da remoto nel settore IT in tutto il mondo, probabilmente per rubare dati. Nel frattempo, i gruppi russi hanno utilizzato l'intelligenza artificiale per sviluppare software pericolosi e pianificare attacchi informatici, con un'operazione, ScopeCreep, concentrata sulla creazione di malware progettati per rubare informazioni e nascondersi dai rilevamenti.

Un gruppo iraniano, STORM-2035 (noto anche come APT42, Imperial Kitten e TA456 ), ha ripetutamente utilizzato l'intelligenza artificiale per generare tweet in spagnolo e inglese sull'immigrazione negli Stati Uniti, l'indipendenza scozzese e altre questioni politiche delicate. Hanno creato falsi account sui social media, spesso con foto del profilo oscurate, per apparire come residenti locali.

L'intelligenza artificiale viene utilizzata anche in truffe diffuse. In un caso degno di nota, un'operazione probabilmente con sede in Cambogia, denominata "Wrong Number", ha utilizzato l'intelligenza artificiale per tradurre i messaggi per una truffa a scopo di lucro. Questo schema prometteva compensi elevati per semplici attività online, come mettere "mi piace" ai post sui social media.

La truffa seguiva uno schema chiaro: un "ping" (contatto a freddo) che offriva stipendi elevati, uno "zing" (creare fiducia ed entusiasmo con guadagni fittizi) e, infine, uno "sting" (richiedere denaro alle vittime in cambio di presunte ricompense più consistenti). Queste truffe operavano in diverse lingue, tra cui inglese, spagnolo e tedesco, indirizzando le vittime ad app come WhatsApp e Telegram .

OpenAI rileva e blocca attivamente gli account coinvolti in queste attività, utilizzando l'intelligenza artificiale come "moltiplicatore di forza" per i suoi team investigativi, afferma l'azienda. Questo approccio proattivo spesso implica che molte di queste campagne dannose abbiano ottenuto scarso coinvolgimento autentico o un impatto limitato nel mondo reale prima di essere chiuse.

Oltre alla sua lotta contro l'uso improprio dell'intelligenza artificiale , OpenAI sta anche affrontando una significativa sfida legale in materia di privacy degli utenti. Il 13 maggio, un tribunale statunitense, presieduto dal giudice Ona T. Wang, ha ordinato a OpenAI di conservare le conversazioni di ChatGPT.

Questa ordinanza deriva da una causa per violazione del copyright intentata dal New York Times e da altri editori, che sostengono che OpenAI abbia utilizzato illegalmente milioni dei loro articoli protetti da copyright per addestrare i propri modelli di intelligenza artificiale. Sostengono che la capacità di ChatGPT di riprodurre, riassumere o imitare i loro contenuti senza autorizzazione o compenso minacci il loro modello di business.

OpenAI ha contestato quest'ordinanza, sostenendo che la costringe a violare il suo impegno a tutelare la privacy e il controllo degli utenti. L'azienda ha sottolineato che gli utenti spesso condividono informazioni personali sensibili nelle chat, aspettandosi che vengano eliminate o rimangano private. Questa richiesta legale pone una sfida complessa per OpenAI.

HackRead

HackRead

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow