Rose Villain, in Rete spuntano foto di lei nuda fatte con l’IA. La cantante denuncia: sono fake, è una violenza
Rose Villain turbata almeno quanto indignata, non ci sta e non ci vuole assolutamente stare: in Rete sono apparse foto che la ritraggono nuda – scatti creati con l’Intelligenza artificiale – e la cantante ha deciso di denunciare subito la cosa attraverso una storia Instagram. «Stanno girando foto di me nuda che ovviamente sono dei fake. Ma comunque la cosa mi mette un grande disagio. E mi fa sentire violata», ha rivelato la cantante milanese, al secolo Rosa Luini, che ha denunciato e condiviso sul suo profilo social l’ultimo oltraggio messo a segno col deepfake. Un fenomeno in forte ascesa che si basa sulla manipolazione di foto e video hard con il volto di personaggi famosi (e non solo peraltro). E su cui, sottolinea la cantautrice di Click Boom! – il suo ultimo successo presentato alla scorsa edizione del Festival di Sanremo – «ho già sporto denuncia, ma vorrei ricordare che è illegale ed è punibile chi crea, chi diffonde e chi condivide, materiale di questo tipo».
Rose Villain vittima di deepfake: in Rete appaiono foto che la ritraggono nuda
Non solo. Come puntualizza tra gli altri un servizio del Tgcom24 sulla vicenda, «le foto false di Rose Villain senza veli sono tanto più pericolose e violente tanto più appaiono credibili grazie all’uso dell’Intelligenza artificiale. Che, qualitativamente, riesce ad andare oltre qualsiasi fotomontaggio anche ben fatto». «È una violenza a tutti gli effetti. E il problema è che queste cose succedono anche a persone molto fragili che magari non sanno proteggersi, tutelarsi e difendersi come invece possono e devono fare», conclude lo sfogo dell’artista che punta l’indice contro un fenomeno odioso e pericoloso. Oltre che in crescente aumento.
E lei denuncia: sono fake, è una violenza
Rose Villain, infatti, purtroppo non è la prima vip – e certamente non sarà l’ultima – a finire vittima della deepfake pornography, una tecnica insidiosissima che comprende anche il deepnude e deepfake porn, e che mette insieme materiale pornografico reale a immagini o video di personaggi famosi o sconosciuti, tramite l’Intelligenza artificiale, con l’unico scopo di creare e divulgare contenuti sessuali falsi: fake per l’appunto. Un fenomeno che studi, analisi e indagini mirate, danno in forte aumento. Registrando per esempio, nel caso di un report di Home Security Heroes citato da Il Giornale, una crescita esponenziale del 464% dal 2022 a oggi. Numeri che comprendono volti e nomi noti. Ma anche i casi di persone comuni coinvolte loro malgrado. Tutti accomunati dall’essere finiti nelle maglie della Rete di questa odiosa pratica illecita, fortemente offensiva e lesiva.