CERCA SUL SECOLO D'ITALIA

Letizia Giorgianni

L'intervista

Giorgianni: “Ecco cosa accadrà se Meta consegna i nostri dati alla Ai, i nostri figli tra i soggetti più a rischio”

Politica - di Penelope Corrado - 16 Maggio 2025 alle 18:35

Desta inevitabile preoccupazione l’annuncio che Meta userà i nostri post su Facebook e Instagram e i messaggi nelle chat pubbliche di WhatsApp per addestrare la propria Intelligenza artificiale: una notizia che ha portato Letizia Giorgianni, deputato di Fratelli d’Italia, componente della Commissione Finanze e da anni impegnata nelle battaglie per la tutela dei consumatori, a presentare un’ interpellanza al governo.

Onorevole Giorgianni, perché la decisione di Meta di utilizzare i dati degli utenti europei per addestrare la propria intelligenza artificiale deve preoccuparci?

«Emergono due aspetti in particolare, da un lato, la mancanza di trasparenza nel modo in cui questa decisione è stata comunicata da Meta. Dall’altro, il rischio concreto che i cittadini italiani ed europei perdano il controllo sui propri dati personali. Non si può pensare che un semplice avviso via app o una mail generica siano strumenti sufficienti a garantire un consenso davvero informato».

Meta sostiene di utilizzare solo contenuti pubblici e offre un modulo per opporsi. Non è sufficiente?

«No, non è sufficiente. Il diritto di opposizione è sacrosanto, ma deve essere reale, semplice e accessibile a tutti. Nella pratica, invece, il modulo è poco visibile e poco comprensibile. Inoltre, molti utenti non sanno nemmeno che i loro dati saranno usati per l’addestramento di sistemi di IA, e questo è un problema gravissimo di informazione e consapevolezza».

Lei ha parlato anche di rischi per i minorenni e per chi non è utente delle piattaforme. In che senso?

«Pensiamo a una foto pubblica in cui compare un minore, o a un post che racconta qualcosa su una persona che non è iscritta a Facebook o Instagram. Anche quei dati possono finire nel sistema di addestramento, pur non essendo stati “autorizzati” da chi ne è direttamente interessato. C’è un serio rischio di trattamento indiretto di dati sensibili, fuori da ogni controllo. Sulla stessa linea anche le riflessioni del Professor Stefano Cherti (docente di diritto privato nell’Università di Cassino) il quale fa notare che i social sono pieni di dati personali di terze parti (amici, conoscenti, terze parti) che “entrano” all’interno di un post, di una foto, di un commento o di una didascalia, e non v’è dubbio che il consenso non può riguardare anche tutti gli altri soggetti che si trovano, più o meno consapevolmente, coinvolti».

Quali richieste ha rivolto al Governo con la sua interpellanza?

«Chiedo che il Governo si attivi con urgenza per informare adeguatamente i cittadini sul diritto di opposizione; verificare la reale efficacia del modulo predisposto da Meta; tutelare i soggetti più vulnerabili, come minori e non utenti. E, se necessario, valutare una sospensione cautelativa di questo trattamento dati fino a che non ci siano garanzie chiare da parte dell’azienda».

Lei propone anche un cambio di paradigma: dal modello “opt-out” a quello “opt-in”. Perché?

«Perché nel modello opt-out il consenso è presunto: i tuoi dati vengono usati automaticamente, a meno che tu non dica di no. Questo rovescia la logica della privacy. Con il sistema opt-in, invece, è l’utente a dover autorizzare esplicitamente l’uso dei propri dati. È una scelta di civiltà digitale e un modo per difendere l’autodeterminazione informativa, che è un diritto fondamentale. Come sottolinea sempre il Prof. Cherti, l’intelligenza artificiale rappresenta una rivoluzione epocale che non può essere banalizzata con un semplice “opt-out”; se voglio addestrare l’intelligenza artificiale devo manifestare un nuovo e più consapevole consenso».

Come pensa che l’Europa debba rispondere?

«Serve un confronto urgente in sede europea per aggiornare le norme alla sfida dell’intelligenza artificiale. La regolazione non può restare indietro rispetto alle Big Tech. Dobbiamo rafforzare gli strumenti di garanzia, il controllo sull’uso dei dati e il diritto alla trasparenza. L’innovazione è un valore, ma non può diventare una zona franca in cui i diritti fondamentali vengono compressi».

Ma in fin dei conti, questi dati non verranno usati “solo” per addestrare l’intelligenza artificiale e renderla più vicina alla nostra lingua e cultura? Non è un obiettivo condivisibile?

«In linea di principio sì, ma nessuno può garantirci che quei dati saranno utilizzati solo a tale scopo. Una volta raccolti e inseriti nei sistemi, è molto difficile tracciarne l’uso reale nel tempo. E se domani venissero impiegati anche per fini di profilazione commerciale, pubblicitaria o persino politica?
Siamo davvero disposti a cedere la nostra privacy e i nostri contenuti – spesso raccolti in modo inconsapevole – in nome dell’interesse economico dei grandi colossi del web?
È una domanda che dobbiamo porci come cittadini e come istituzioni. L’innovazione non può trasformarsi in una scorciatoia per legittimare operazioni di raccolta dati opache e invasive».

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

di Penelope Corrado - 16 Maggio 2025