Intelligenza artificiale, FdI: “Giusto lo stop del Garante a ChatGpt, i nostri dati sono a rischio”

31 Mar 2023 13:44 - di Penelope Corrado
ChatGpt

L’Autorità garante per la protezione dei dati personali ha deliberato lo «stop all’intelligenza artificiale del software ChatGPT finché non rispetterà la disciplina privacy».  Una decisione che registra il plauso del presidente della commissione Cultura della Camera, Federico Mollicone di Fratelli d’Italia. «In commissione, con il sottosegretario Barachini avevo chiesto a ChatGpt cosa pensasse del diritto d’autore. La domanda è stata: «Pensi di essere una minaccia per la creatività e il diritto d’autore?”. La risposta che sintetizzo: ‘Non sono in grado di creare niente di nuovo da solo», racconta Mollicone.

«Inoltre, rispetto al diritto d’autore sono programmato per non violarlo. Tuttavia – continua il presidente della commissione Cultura della Camera -, la tecnologia  artificiale che mi ha creato potrebbe essere utilizzata in modo improprio da alcuni utenti per violare i diritti d’autore per creare contenuti che imitano strettamente il lavoro di altre persone». «Parole inquietanti – sottolinea il deputato di Fratelli d’Italia – a cui dobbiamo dare risposte di sovranità sui nostri dati», per questo «chiederò l’audizione nell’ambito dell’indagine conoscitiva sull’innovazione avviata in commissione di OpenAi e del Garante della Privacy per chiarire l’impatto di ChatGpt sulla creatività, evitando violazioni del diritto d’autore».

La decisione del Garante della privacy su ChatGpt

«Il Garante – si legge nel comunicato che impone lo stop a ChatGpt – ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria». «ChatGPT – prosegue la nota – il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento».

Intelligenza artificiale, OpenAi rischia una sanzione di 20 milioni di euro

«Nel provvedimento – si spiega – il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di ‘addestrare’ gli algoritmi sottesi al funzionamento della piattaforma. Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto». «Da ultimo – precisa la nota del Garante – nonostante, secondo i termini pubblicati da OpenAI, il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza». «OpenAI – conclude l’Autorità – che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo».

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *