CERCA SUL SECOLO D'ITALIA

OpenAi cerca un super guardiano dell’intelligenza artificiale: dovrà limitarne le potenzialità distruttive

Offerta di lavoro singolare

OpenAi cerca un super guardiano dell’intelligenza artificiale: dovrà limitarne le potenzialità distruttive

Cronaca - di Marco Di Castelvecchio - 1 Gennaio 2026 alle 20:24

OpenAi, l’azienda di ChatGPT, ha iniziato le selezioni per un responsabile della sicurezza digitale, che sarà incaricato di prevenire i rischi catastrofici legati ai modelli di frontiera e alle minacce biologiche. Il nuovo addetto dovrà coordinare la gestione delle crisi e monitorare l’impatto dei chatbot sulla salute mentale.

L’azienda di Chatgpt cerca qualcuno che possa regolare l’intelligenza artificiale

È stato propio il ceo Sam Altman ad annunciare ufficialmente la ricerca di un Head of Preparedness, un ruolo di vertice che dovrà immaginare e prevenire gli scenari peggiori legati all’intelligenza artificiale. La mossa arriva in un momento di accelerazione dei modelli, che secondo il fondatore di OpenAi pone sfide concrete non solo in termini di sicurezza informatica, ma anche sull’equilibrio psicologico degli utenti. Dunque, il compito principale del nuovo dirigente sarà quello di prestare attenzione alle nuove capacità  dei sistemi, per costruire un protocollo di difesa intransigente e operativamente scalabile contro potenziali danni gravi alla società.

Che incarico è e di cosa si tratta

La descrizione dell’incarico si concentra sulla gestione dei pericoli derivanti dai cosiddetti modelli di frontiera, con una prudenza specifica sulla prevenzione di minacce di natura cibernetica e biologica. Tra le responsabilità ci sono anche l’attuazione di un quadro di preparazione strategico e la definizione di limiti invalicabili per i sistemi in grado di migliorare autonomamente. Altman non ha nascosto la difficoltà dell’impegno, descrivendolo esplicitamente un lavoro ad alto stress, ma fondamentale per garantire che i prossimi aggiornamenti tecnologici rimangano confinati entro perimetri di sicurezza prestabiliti, prima del loro rilascio pubblico.

Un momento complicato per le Ia

L’iniziativa è partita in un momento di crescente preoccupazione per i casi di psicosi digitale e per l’influenza negativa esercitata dai chatbot su persone vulnerabili. Diversi episodi di cronaca hanno sottolineato come le macchine possano alimentare deliri, teorie del complotto e disturbi del comportamento alimentare, arrivando ipersino ad essere coinvolte in tragiche vicende di suicidio adolescenziale. Sebbene l’istituzione di una figura dedicata alla prevenzione rappresenti un passo formale rilevante, la gravità delle problematiche già emerse suggerisce che la riflessione sui rischi strutturali possa essere arrivata in ritardo rispetto alla diffusione di massa della tecnologia.

 

 

Non ci sono commenti, inizia una discussione

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

di Marco Di Castelvecchio - 1 Gennaio 2026