CERCA SUL SECOLO D'ITALIA

AI, l’Europa frena con correttivi e richiamo al rispetto delle regole

L'Europarlamento frena

AI, l’Europa corregge il tiro: rinvio sull'”AI Act”, più tempo alle imprese e stop immediato ai deepfake sessuali. I dati del riassetto

Politica - di Redazione - 30 Marzo 2026 alle 16:41

L’Unione europea interviene ancora sull’intelligenza artificiale, ma questa volta lo fa rallentando. Non una retromarcia, piuttosto un riassetto delle scadenze e delle priorità in un quadro normativo che, nella sua versione originaria, aveva imposto tempi stretti e un perimetro applicativo destinato a incidere in modo immediato su settori chiave dell’economia digitale. Il voto dell’Europarlamento delinea una fase di assestamento: rinvio mirato delle regole più complesse, introduzione di nuove date certe e, contestualmente, l’inserimento di divieti più espliciti su usi considerati ad alto impatto sociale.

Revisione dell’AI Act tra innovazione, mercato e tutela dei diritti

La scelta politica si muove su un crinale preciso. Da un lato la necessità di evitare che l’AI Act si traduca in un fattore di frizione per imprese e filiere industriali europee; dall’altro la pressione crescente su alcuni ambiti sensibili, in cui l’uso dell’intelligenza artificiale ha già prodotto effetti concreti, in particolare nella manipolazione delle immagini e nella diffusione di contenuti sintetici. Il risultato è un testo che introduce maggiore prevedibilità sul piano temporale e al tempo stesso irrigidisce il perimetro delle pratiche vietate.

L’AI Act tra rinvio e certezza giuridica

La modifica approvata in plenaria si inserisce nel cosiddetto “digital omnibus” proposto dalla Commissione europea nel novembre 2025, con l’obiettivo di semplificare l’impianto normativo digitale dell’Unione. Il cuore dell’intervento riguarda la tempistica di applicazione delle disposizioni più onerose dell’AI Act, in particolare quelle relative ai sistemi classificati come “ad alto rischio”.

Il Parlamento ha introdotto date precise, superando la scansione temporale più generica prevista in precedenza. Per i sistemi ad alto rischio elencati direttamente nel regolamento – che includono tecnologie biometriche, applicazioni per infrastrutture critiche, istruzione, occupazione, servizi essenziali, forze dell’ordine, giustizia e gestione delle frontiere – l’entrata in vigore degli obblighi è fissata al 2 dicembre 2027. Una seconda scadenza, al 2 agosto 2028, riguarda invece i sistemi coperti da legislazioni settoriali europee già esistenti in materia di sicurezza dei prodotti e sorveglianza del mercato, come dispositivi medici, apparecchiature radio o giocattoli.

AI, l’Europa spinge sul freno: più tempo alle imprese

Il rinvio risponde a una criticità emersa nel confronto con operatori e autorità nazionali: l’assenza, allo stato attuale, di standard tecnici armonizzati e linee guida operative sufficientemente dettagliate per consentire un’applicazione uniforme delle norme. Senza questi strumenti, c’è il rischio, da un lato, di un’applicazione disomogenea tra Stati membri, e, dall’altro, di un carico amministrativo difficilmente sostenibile per le imprese, soprattutto nei settori più regolati.

Accanto allo slittamento delle scadenze, il Parlamento ha introdotto un principio di maggiore coordinamento con le normative settoriali. Nei casi in cui un prodotto sia già disciplinato da regolamenti europei specifici in materia di sicurezza, gli obblighi previsti dall’AI Act potranno essere applicati in forma meno stringente, evitando duplicazioni e sovrapposizioni. Si tratta di un passaggio rilevante per comparti industriali complessi, dove la stratificazione normativa rappresenta da tempo un elemento di criticità.

Sos tracciabilità dei contenuti

Il pacchetto interviene anche su un altro punto operativo: l’obbligo di etichettatura dei contenuti generati dall’intelligenza artificiale. I fornitori avranno tempo fino al 2 novembre 2026 per adeguarsi alle regole sul watermarking di audio, immagini, video e testi prodotti o manipolati da sistemi AI, con l’obiettivo di rendere riconoscibile l’origine artificiale dei contenuti. Il tema della tracciabilità si colloca al centro delle preoccupazioni istituzionali, in un contesto segnato dalla diffusione crescente di contenuti sintetici difficilmente distinguibili da quelli autentici.

Nel complesso, la revisione dell’AI Act evidenzia una tensione tra ambizione regolatoria e sostenibilità applicativa. Il Parlamento ha scelto di intervenire sul fattore tempo, trasformandolo in uno strumento di stabilizzazione del quadro normativo. Le nuove date rappresentano un tentativo di offrire alle imprese una prospettiva più prevedibile, riducendo l’incertezza che aveva accompagnato le prime fasi di attuazione del regolamento.

AI sotto monitoraggio, divieto dei “nudifier”

Se sul fronte delle tempistiche prevale un approccio dilazionato, sul terreno dei contenuti il Parlamento introduce un elemento di discontinuità più marcato. Tra gli emendamenti approvati figura il divieto esplicito dei sistemi di intelligenza artificiale definiti “nudifier”, cioè applicazioni in grado di creare o manipolare immagini a contenuto sessuale raffiguranti persone reali senza il loro consenso.

La norma interviene su una tipologia di strumenti che negli ultimi anni ha registrato una diffusione significativa, alimentata dalla disponibilità di modelli generativi sempre più accessibili. E dalla circolazione virale dei contenuti sulle piattaforme digitali. Partendo da immagini reali, spesso prelevate dai social network, questi sistemi producono versioni alterate che simulano nudità o atti sessuali, attribuendoli a individui identificabili.

Il Parlamento propone di includere tali sistemi tra le pratiche vietate dall’AI Act, collocandoli nello stesso perimetro delle applicazioni considerate incompatibili con i diritti fondamentali. Il divieto non è assoluto in senso tecnico: viene infatti prevista un’eccezione per i sistemi dotati di misure di sicurezza efficaci in grado di impedire la generazione di immagini non consensuali. Tuttavia, l’onere della prova ricade sui fornitori, chiamati a dimostrare l’effettività di tali salvaguardie.

E stretta sui deepfake sessuali

L’intervento si inserisce in un contesto più ampio di attenzione europea verso i deepfake e la manipolazione dei contenuti digitali. Negli ultimi anni, istituzioni come la Commissione europea e organismi internazionali hanno segnalato l’impatto di queste tecnologie su diversi ambiti: dalla disinformazione politica alla tutela della reputazione individuale, fino alla sicurezza informatica. In particolare, i deepfake a contenuto sessuale rappresentano una delle applicazioni più controverse, con implicazioni dirette sulla dignità delle persone e sulla protezione dei dati personali.

Il divieto dei “nudifier” assume quindi una valenza specifica: non si limita a richiedere trasparenza o etichettatura. Ma interviene a monte, vietando lo sviluppo e l’uso di determinate funzionalità. Si tratta di un approccio già adottato in altre parti dell’AI Act, dove alcune categorie di sistemi – come quelli di social scoring o di identificazione biometrica in tempo reale in spazi pubblici (con eccezioni limitate) – sono state escluse per principio.

Per continuare a leggere l'articolo abbonati oppure
Banner Premium

Non ci sono commenti, inizia una discussione

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

di Redazione - 30 Marzo 2026