Un aumento significativo dei servizi di deepfake di nudo basati sull’intelligenza artificiale, come riportato da Graphika, evidenzia una tendenza inquietante nell’uso dell’intelligenza artificiale per generare immagini intime non consensuali, sollevando gravi preoccupazioni etiche e legali.
Crescente popolarità degli strumenti di svestizione basati sull’intelligenza artificiale
Graphika, una società di analisi dei social media, lo ha fatto riportato un preoccupante aumento nell’uso degli strumenti di “AI undressing”. Questi strumenti di intelligenza artificiale generativa vengono calibrati con precisione per rimuovere gli indumenti dalle immagini inviate dagli utenti, con uno sconcertante aumento del 2,408% dei riferimenti online a questi servizi.
Le immagini intime sintetiche non consensuali (NCII) implicano in genere la generazione di contenuti espliciti senza il consenso degli individui raffigurati. Questi strumenti rappresentano minacce di molestie mirate, sextortion e produzione di materiale pedopornografico (CSAM).
Lo ha fatto la Internet Watch Foundation (IWF), una società di controllo di Internet con sede nel Regno Unito evidenziato la sfida nel distinguere tra pornografia generata dall’intelligenza artificiale e immagini autentiche, complicando gli sforzi per combattere gli abusi online.
Risposta internazionale
Le Nazioni Unite lo hanno fatto descritto I media generati dall’intelligenza artificiale come una minaccia “seria e urgente” all’integrità delle informazioni. In risposta, il Parlamento europeo e il Consiglio hanno recentemente concordato norme che disciplinano l’uso dell’IA nell’UE.
Source: L’aumento dei servizi di deepfake nude generati dall’intelligenza artificiale suscita allarme