Parla il sottosegretario
“Non subire l’Ai ma governarla”: Butti annuncia i paletti del governo e lo stanziamento miliardario per le imprese
Deepfake puniti fino a cinque anni, stop a manipolazione e social scoring. Il sottosegretario Butti: “Certe forme di manipolazione o sfruttamento delle vulnerabilità e specifiche applicazioni che portano a sorveglianza o controllo sociale incompatibili con i valori europei”
“Questa volta non stiamo solo automatizzando una macchina o un processo fisico, ma una parte dei compiti cognitivi, cioè attività di analisi, scrittura, pianificazione, assistenza decisionale e questo rende la trasformazione più trasversale e più veloce, con un impatto su imprese, pubbliche amministrazioni, sanità, lavoro e informazione”. Con queste parole il sottosegretario all’Innovazione tecnologica Alessio Butti indica il cambio di passo che l’esecutivo intende imprimere alla strategia sull’intelligenza artificiale. Nelle ultime ore il governo ha ribadito l’impostazione già sostenuta in sede europea, ma con un accento più marcato sugli strumenti nazionali di controllo e sugli investimenti destinati al sistema produttivo.
La linea dell’esecutivo
In un’intervista a La Verità, Butti chiarisce che l’orientamento è quello di “non subire l’Ai, ma di governarla con regole, responsabilità e investimenti”. La dichiarazione arriva mentre a Bruxelles prosegue il confronto sull’attuazione del regolamento europeo e in Parlamento si moltiplicano le audizioni sulle ricadute occupazionali delle nuove tecnologie. Rispetto ai mesi scorsi, l’accento non è più soltanto sulla cornice normativa comunitaria ma sulla capacità italiana di anticipare i rischi, soprattutto sul piano penale e su quello del mercato del lavoro.
Il sottosegretario ricorda che l’Italia ha sostenuto con forza un’impostazione europea che non lasciasse la tutela dei cittadini ai codici di condotta dei privati, poiché “ci devono essere norme, limiti e sanzioni in caso di mancato rispetto degli stessi”. Un riferimento diretto al negoziato che ha portato a fissare paletti stringenti per le applicazioni considerate più invasive. Le cosiddette “linee rosse”, spiega, non possono essere superate quando entrano in gioco diritti e libertà fondamentali, come “certe forme di manipolazione o sfruttamento delle vulnerabilità, il social scoring, e specifiche applicazioni che portano a sorveglianza o controllo sociale incompatibili con i valori europei”.
Reati e sanzioni
Sul terreno della sicurezza, Butti richiama una delle novità già operative. “Grazie alla nostra legge sull’Ai, in Italia diffondere un deepfake realistico senza consenso e con danno alla persona è diventato un reato punito con la reclusione fino a 5 anni”. La norma, inserita nel pacchetto nazionale dedicato all’intelligenza artificiale, introduce una fattispecie penale specifica e affida alla magistratura strumenti più chiari per intervenire contro la diffusione di contenuti manipolati. Un passaggio che ha trovato un consenso esteso ma che apre ora il tema dell’applicazione concreta e delle risorse per le procure.
Lavoro e investimenti
Il capitolo più sensibile resta quello occupazionale. “Nella maggior parte dei casi non vedremo sparire un mestiere, ma cambiare il contenuto del lavoro e in questo senso vince chi integra l’Ia, non chi la subisce”, afferma il sottosegretario. Per prevenire la disoccupazione tecnologica, il governo punta su strumenti operativi già previsti dalla legge: “nella legge italiana è previsto un Osservatorio sull’adozione di sistemi di Ia nel mondo del lavoro e abbiamo previsto un programma di investimento a favore di startup e pmi da 1 miliardo, per far nascere lavoro nuovo dove l’innovazione produce valore”. La cifra indicata, un miliardo di euro, rappresenta uno degli impegni finanziari più consistenti annunciati sul fronte dell’innovazione negli ultimi anni e sarà oggetto di monitoraggio parlamentare nella fase attuativa.
Professioni e formazione
Secondo Butti “saranno fondamentali le professioni legate al controllo dell’Ai, alla sua governance, gestione dei rischi, qualità dei dati e compliance” perché il timbro umano resta la garanzia per il futuro. Il riferimento è a figure specializzate chiamate a certificare processi, verificare algoritmi e assicurare il rispetto delle norme. In conclusione, il sottosegretario osserva che il rischio di una crisi del sistema si evita “se continuiamo a gestire e governare questa tecnologia e ci impegniamo nella formazione dei lavoratori” avvertendo che “rimanere indietro non è più un’opzione poiché chi non investe in competenze rischia di vedere intere categorie professionali sostituite o marginalizzate”. Nelle prossime settimane il Parlamento dovrà esaminare i decreti attuativi e verificare la copertura delle misure annunciate, passaggio che misurerà la tenuta politica di una strategia ancora in fase di consolidamento.