“IA come le armi nucleari, c’è il rischio estinzione”: il Time rivela un dossier del governo Usa

12 Mar 2024 14:37 - di Laura Ferrari
Ia, Time

Gli Stati Uniti devono muoversi “decisamente” per scongiurare la minaccia “a livello di estinzione della specie umana” derivante dall’intelligenza artificiale. Lo riporta un dossier commissionato dal governo Usa, di cui il Time è venuto in possesso.

Il Time, considerato uno dei più autorevoli e prestigiosi organi d’informazione al mondo, ha ottenuto un rapporto commissionato dal governo degli Stati Uniti e pubblicato lunedì.

Ia: il rischio della macchina che chiede l’autopprendimento

«L’attuale sviluppo dell’intelligenza artificiale di frontiera pone rischi urgenti e crescenti per la sicurezza nazionale”, afferma il rapporto, ottenuto dal Time prima della sua pubblicazione. „L’ascesa dell’intelligenza artificiale avanzata e dell’AGI [intelligenza artificiale generale] ha il potenziale per destabilizzare la sicurezza globale in modi che ricordano l’introduzione delle armi nucleari».

L’intelligenza artificiale generale (AGI) è un campo di ricerca teorica sull’intelligenza artificiale che tenta di creare software dotato di un’intelligenza simile a quella umana e della capacità di autoapprendimento. L’obiettivo è sviluppare software che sia capace di eseguire attività per le quali non è stato specificamente addestrato o sviluppato.

Per il dossier, «i principali laboratori di intelligenza artificiale stanno lavorando per realizzarli e molti si aspettano che l’AGI arrivi entro i prossimi cinque anni o meno».

IA, il Time cita il rapporto governativo

«I tre autori del rapporto governativo» sulla IA, scrive il Time, «hanno lavorato per più di un anno, parlando con più di 200 dipendenti governativi, esperti e lavoratori di aziende di intelligenza artificiale di frontiera, come OpenAI , Google DeepMind , Anthropic e Meta, come parte della loro ricerca. I resoconti di alcune di queste conversazioni dipingono un quadro inquietante , suggerendo che molti addetti alla sicurezza dell’intelligenza artificiale all’interno di laboratori all’avanguardia sono preoccupati per gli incentivi perversi che guidano il processo decisionale da parte dei dirigenti che controllano le loro aziende».

Un allarme lanciato in passato anche da Elon Musk. «I sistemi di intelligenza artificiale – ha detto nel marzo dell’anno scorso il patron di Tesla – possono comportare gravi rischi per la società e l’umanità» e quindi «invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno sei mesi l’addestramento».

Proprio Elon Musk è stato tra i fondatori di quella OpenAI che ha dato vita a ChatGpt, l’intelligenza artificiale che per prima ci ha fatto sperimentare la potenza del pensiero «pseudoumano».

 

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *