Meloni: “Dall’intelligenza artificiale grandi possibilità ed enormi rischi. Va governata”

2 Nov 2023 16:35 - di Federica Parbuoni
meloni intelligenza artificiale

La sfida è fare in modo di cogliere le “grandi possibilità” dell’intelligenza artificiale, ponendo un argine agli “enormi rischi” che porta con sé. Intervenendo alla prima sessione di lavoro dell’Ai Safety summit di Londra, Giorgia Meloni è tornata a ribadire la centralità che il suo governo attribuisce al tema, confermando che sarà fra quelli maggiormente attenzionati dalla presidenza italiana del G7. Il premier ha quindi annunciato che Roma ospiterà una Conferenza internazionale su Intelligenza Artificiale e Lavoro, alla quale saranno invitati studiosi, manager ed esperti di tutto il mondo che “avranno l’opportunità di discutere metodi, iniziative e linee guida per garantire che l’IA aiuti e non sostituisca chi lavora, migliorandone invece le condizioni e le prospettive”.

Il bilaterale con il premier britannico Rishi Sunak

La questione è stata anche al centro di un bilaterale che il presidente del Consiglio ha tenuto con il premier britannico Rishi Sunak, durante il quale “hanno discusso – ha reso noto Palazzo Chigi – delle principali tematiche bilaterali e internazionali”. I due leader, prosegue la nota, hanno inoltre “condiviso l’impegno su come superare la grave crisi in Medio Oriente e l’urgenza di una gestione ordinata della questione migratoria”.

Meloni: “L’intelligenza artificiale tra le priorità strategiche del governo”

Nel corso dei lavori del Summit di Londra Meloni ha ricordato che l’intelligenza artificiale è tra le “priorità strategiche” dell’agenda del governo italiano, che l’esecutivo sta completando il Piano strategico nazionale per l’IA ed è al lavoro per costituire un Fondo specifico per sostenere le start-up italiane che operano nel settore e che c’è l’impegno a collaborare con l’Unione europea per l’approvazione dell’Artificial Intelligence Act. Le applicazioni dell’IA possono portare “grandi opportunità” in molti campi, ma anche “enormi rischi” come “meccanismi decisionali opachi, discriminazioni, intrusioni nella nostra vita privata”, fino ad arrivare “ad atti criminali”, ha ricordato il premier, avvertendo che “gli Llm-Large language model potrebbero essere utilizzati per produrre armi, danni biologici a bassa tecnologia, attacchi informatici, facilitare la personalizzazione del phishing”.

Una “nuova frontiera del progresso”, che mette a rischio la “centralità dell’uomo”

Per Meloni “siamo di fronte a una nuova frontiera del progresso, che per la prima volta rischia seriamente di mettere a repentaglio il principio stesso della centralità dell’uomo”. L’intelligenza artificiale, ha aggiunto il premier, “prefigura un mondo in cui il progresso non ottimizza più le capacità umane, ma rischia di sostituirle” ed “è destinata ad incidere marcatamente sugli scenari geopolitici e sugli equilibri attuali, banalmente perché è una tecnologia che può garantire a chi la gestisce e la utilizza un vantaggio competitivo”. “Credo che correremmo dei rischi enormi se considerassimo questi ambiti come zone franche senza regole”, ha avvertito Meloni, lanciando un monito sul fatto che l’intelligenza artificiale deve essere “incentrata sull’uomo e controllata dall’uomo”.

I rischi per il mercato del lavoro e la  classe media

Il premier, quindi, ha posto l’accento sulla necessità di evitare che l’intelligenza artificiale “crei un divario ancora più grande tra i ricchi e i poveri”, colpendo in particolare la classe media. “La verità è che nell’ampliarsi del divario tra ricchezza e povertà la classe media, già oggi in difficoltà, rischia di essere cancellata”, ha avvertito Meloni, sottolineando che il rischio di uno sviluppo non governato dell’intelligenza artificiale è che “sempre più persone non siano necessarie nel mercato del lavoro, con conseguenze pesantissime sulla equa distribuzione della ricchezza”. L’obiettivo quindi, ha chiarito il premier, è “garantire un’IA che promuova lo sviluppo e l’inclusione invece che la disoccupazione e l’emarginazione”.

La conferenza di Roma per costruire una “governance condivisa” e “guardrail etici”

Per conseguirlo è necessaria una “governance condivisa”, quell’alleanza tra pubblico e privato che sarà anche al centro della conferenza di Roma, nella quale, ha spiegato il premier, “intendiamo sviluppare dei ‘guardrail etici’, un insieme di principi etici da porre alla base del governo dell’IA generativa e le tecnologie correlate”. Servono, ha aggiunto, “meccanismi di governance multilaterali per garantire barriere etiche all’IA. È questo lo spirito della ‘Rome Call per l’etica dell’IA’ ospitato in Vaticano nel 2020, durante il quale è nato il concetto di ‘algoretica’. Ovvero dare un’etica agli algoritmi”. “Siamo chiamati a definire un quadro normativo adeguato se vogliamo sfruttare le opportunità che l’IA può offrirci. Ci vorranno molti passi e aggiustamenti negli anni a venire, collaborazione con i privati, ma innovazione e regolamentazione – ha detto ancora il premier – devono andare di pari passo. Significa che la cosa che deve preoccuparci di più è la nostra lentezza decisionale in rapporto alla velocità di sviluppo delle nuove tecnologie”.

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *