L'accordo nella notte
Deep nude e immagini false con l’IA, l’Europa dice basta: nuove regole contro gli abusi
Parlamento e Commissione Ue raggiungono l'accordo. Esulta FdI-Ecr, tra le forze politiche più attive per chiedere risposte all'Ue sul tema e trovare una soluzione. Plauso dell'Associazione Giornaliste Italiane, promotrice di una campagna di sensibilizzazione contro i deepfake
Basta app deep nude. Parlamento e Consiglio europeo hanno trovato l’accordo nella notte sulla semplificazione di alcune parti dell’Ai Act, la legge europea sull’intelligenza artificiale, vietando l’uso di app che creano immagini pedopornografiche o nudi di una persona senza il consenso di quest’ultima. Lo annuncia il Parlamento Europeo.
E parte del merito di questa presa di posizione netta dell’Europa se lo prendono i Conservatori e riformisti europei di FdI-Ecr, per aver portato il caso all’attenzione delle istituzioni di Bruxelles, tornate di stretta attualità anche dopo gli ultimi gravi episodi di immagini manipolate che hanno visto come vittima la premier italiana Giorgia Meloni.
FdI-Ecr: Una vittoria importante
«Anche grazie all’importante lavoro di Fratelli d’Italia e del gruppo ECR al Parlamento Europeo è stato introdotto il divieto dei deepfake sessual nella norma sull’intelligenza artificiale l’AI Omnibus» spiega l’eurodeputato Stefano Cavedagna, vicepresidente della commissione scudo democratico.
L’esponente di FdI spiega che si tratta di «Una vittoria importante, che non riguarda solo il caso Meloni, ma anche i tanti cittadini colpiti da questo fenomeno. È accaduto ad esempio anche a numerose giornaliste italiane, vittime della diffusione di immagini oscene e di campagne di odio sui social», riferendosi anche alla mobilitazione dell’associazione Giornaliste Italiane che nei mesi scorsi aveva avviato una campagna di sensibilizzazione per denunciare il problema, grazie anche al sostegno della Ministra Eugenia Roccella
«Continueremo a portare avanti questo impegno per tutelare la dignità delle persone e contrastare gli abusi legati all’intelligenza artificiale, per limitare al massimo contenuti che possano ingannare e confondere i cittadini. L’intelligenza artificiale è funzionale ma deve mantenere una sua eticità, governata saldamente dall’uomo secondo norme di buonsenso», conclude Cavedagna.
Giornaliste Italiane: passo importante per tutelare la dignità
E anche l’associazione Giornaliste italiane ha commentato favorevolmente la notizia: «Accogliamo con soddisfazione l’accordo raggiunto tra Parlamento e Consiglio Ue sull’AI Act, che introduce il divieto delle applicazioni di intelligenza artificiale utilizzate per creare “deep nude” e contenuti sessualmente espliciti senza consenso. È un passo importante per tutelare la dignità delle persone e contrastare nuove forme di violenza digitale, che colpiscono soprattutto donne e minori».
L’associazione ricorda come «ci siamo mobilitate da tempo su questi temi, promuovendo iniziative pubbliche dedicate ai rischi dei deepfake e agli abusi dell’intelligenza artificiale. Consideriamo quindi questo risultato un ulteriore segnale concreto verso la regolamentazione di un fenomeno dalle conseguenze potenzialmente gravissime, ancora troppo sottovalutate. Da parte nostra, come donne e come giornaliste, continueremo a denunciare senza esitazioni queste violenze e a sostenere chi ne è vittima, affinché nessuna persona venga lasciata sola davanti agli abusi digitali».
I contenuti del testo
L’accordo Ue mira a semplificare l’adempimento da parte dei fornitori dell’obbligo di conformarsi alla legge sull’intelligenza artificiale, mantenendone le disposizioni principali e l’approccio basato sul rischio. La nuova normativa rinvia l’applicazione di alcune parti della legge sull’intelligenza artificiale per garantire che siano predisposti gli standard e le misure di supporto necessari a chiarire l’applicazione delle norme.
Entreranno in vigore alcuni obblighi per i sistemi di intelligenza artificiale ad alto rischio: dal 2 dicembre 2027 per i sistemi di intelligenza artificiale con un uso ad alto rischio (inclusi quelli che coinvolgono la biometria e quelli utilizzati in infrastrutture critiche, istruzione, occupazione, forze dell’ordine e gestione delle frontiere); dal 2 agosto 2028 per i sistemi di intelligenza artificiale utilizzati come componenti di sicurezza e soggetti alla legislazione settoriale dell’Ue in materia di sicurezza e sorveglianza del mercato.
La legge anticipa inoltre l’applicazione degli obblighi di ‘watermarking’ sui contenuti generati dall’Ia al 2 dicembre 2026 (anziché al 2 febbraio 2027 come proposto dalla Commissione Europea). Le tecniche di ‘watermarking’ consentono di individuare e tracciare i contenuti generati dall’Ia.
Il consenso diventa necessario
Il Parlamento e il Consiglio hanno concordato di vietare i sistemi di intelligenza artificiale che creano materiale pedopornografico o che raffigurano le parti intime di una persona identificabile, o che la ritraggono impegnata in attività sessualmente esplicite, senza il consenso della persona stessa.
Il divieto si applica all’immissione sul mercato dell’Ue di sistemi di intelligenza artificiale con lo scopo di creare questi contenuti; all’immissione di questi sistemi sul mercato Ue senza adeguate misure di sicurezza per impedirne la creazione; all’utilizzo di questi sistemi allo scopo di creare contenuti di questo genere. I contenuti in questione possono essere immagini, video o audio. Le aziende avranno tempo fino al 2 dicembre 2026 per adeguare i propri sistemi.
Sono state inoltre concordate altre modifiche alla legge sull’Ia, come l’eliminazione dei requisiti per i macchinari, chiarendo che questi devono essere conformi solo alle norme di sicurezza settoriali (anziché sia alla legge sull’Ia che alle norme settoriali), con garanzie che assicurino un livello equivalente di salute e sicurezza.
È stata precisata la definizione di “componente di sicurezza”, il che significa che i prodotti con funzioni di intelligenza artificiale che si limitano ad assistere gli utenti o a ottimizzare le prestazioni non saranno automaticamente soggetti a obblighi ad alto rischio, se il loro guasto o malfunzionamento non crea rischi per la salute o la sicurezza. E viene introdotta la possibilità di trattare i dati personali ove strettamente necessario per individuare e correggere pregiudizi, con adeguate garanzie, sia nei sistemi di Ia ad alto rischio che in quelli a basso rischio. Sono state estese le esenzioni per le Pmi da alcune norme anche alle imprese a media capitalizzazione, per favorirne la crescita.
Ultima notizia
La finale il 16 maggio
Eurovision 2026, boom social per Sal Da Vinci: “Per sempre sì” fa ballare tutta Vienna
Cronaca - di Marcello Di Vito