Il dinosauro che beffò l’intelligenza artificiale: segreti e sfide per giornalisti nel corso del Sugc
“Chat Gpt, quanto ci mette un dinosauro a vomitare?”. Mister IA sembra colto di sorpresa, qualche istante di troppo nell’attesa della risposta denota una strana incertezza, non degna della fama di quel sistema di saputelli informatici che ci dà ogni giorno lezioni di neurovelocità d’azione umiliando i nostri cervelli rallentati, anche prima delle pastiere pasquali.
La sfida all’intelligenza artificiale col paradosso del dinosauro
Attendere, prego. Poi, all’improvviso, la risposta arriva. E’ furbetta, però, più che intelligente: “Devo sapere quanto è alto il dinosauro”. L’essere umano, pur consapevole dei propri limiti intellettivi, osserva la tastiera del cellulare con uno sguardo di sfida e trova, come sempre, il modo di cavarsela: nel dubbio, si sa, la palla va ributtata nell’alto campo. “Due metri e mezzo, Chat Gpt!”. A quel punto il sistema più raffinato che sia mai stato concepito per fornire risposte, traduzioni, articoli, enciclopedie, ricette, numeri al lotto e localizzazione degli ombrelloni migliori sulla spiaggia, svela in un attimo tutta la propria ottusità. Vacilla. Sa di non sapere ma non lo ammette, si rifugia nella “non risposta”, ipotesi contemplata dai sistemi di IA ma non certo edificanti per i cervelloni che vorrebbero darci lezioni di scienza, giornalismo e forse, in futuro, chissà, suggerirci pure per chi votare.
Esperimento riuscito: giornalista batte Chat Gpt uno a zero, in casa, nella sede del sindacato campano.
“Chat Gpt non sa rispondere su quanto tempo serva a un dinosauro per vomitare”, annuncia, non senza un pizzico di soddisfazione, Fabrizio Cappella, giornalista responsabile della Formazione per conto del Sugc. IA non sa che quella è una domanda trabocchetto, non lo capisce, e non risponde perché non sa, non perché non vuole. Ma lo ammetterà mai? No, perché se è vero che una “Chat Gpt” – quella doc o qualsiasi altra IA sistemica – è intelligentissima, è anche vero che è ottusangola. “E neanche pericolosa, nel senso che rispetto ai problemi della comunicazione è solo la punta di un iceberg che trappole e insidie che hanno ben altra origine”, spiega Maria Pia Di Buono, docente di Traduttologia Informatica e Informatica umanistica all’Università Orientale di Napoli, che ha organizzato nella sede del sindacato campano un corso di formazione deontologica sul tema “Intelligenza artificiale e giornalismo: sfide e opportunità“.
Quattro ore di cervelli, veri o finti, fumanti.
IA, un pericolo o un’opportunità per i giornalisti?
Geppina Landolfo, segretaria del Sugc, rompe il ghiaccio con la domanda più semplice, che tutti avrebbero voluto fare: “Dobbiamo avere paura della IA?”, chiede, anche e soprattutto rispetto alle conseguenze occupazionali. “No, ma dovete conoscere il sistema, per poterlo controllare e utilizzare nel vostro lavoro, non serve demonizzare qualcosa che di suo è inevitabile”, risponde la professoressa Di Buono, che non usa la parola “nemico”, rispetto a entità come Chat Gpt, che già da tempo scrivono in nome e per conto dei giornalisti.
Ma cosa scrivono le IA? Compendi di cose scritte da altri, quindi senza creazione di nulla ex novo, senza capacità di selezionare, di distinguere, di garantite la veridicità delle informazioni propalare, e in più, confondendo fonti vere con fonti fake, perché nell’insalatona degli articoli targati “IA” puoi trovarci le pere con le mele, senza che nessuno obietti. O, come nel caso del dinosauro, una “IA” può autocensurarsi rispetto alla sua stessa incapacità di rispondere a una domanda idiota, assurda, paradossale, perché non sa e non può semplicemente sorriderne e rispedirla al mittente.
Le fake news e le patenti di “credibilità” date da IA
E se invece una Chat Gpt, sintetizzando le notizie più credibili, potesse distribuire pagelle di “credibilità” agli articoli e ai giornalisti stessi? “Sarebbe un grave problema: chi controlla i poteri che gestiscono i sistemi, se raccolgono notizie? E se gli deleghiamo anche la patente della veridicità, se li facciamo diventare i giudici del vero e del falso, ci consegniamo alle multinazionali?”, sentenzia il professor Federico Gaspari, della Federico II, mentre la professoressa Johanna Monti, de “L’Orientale”, aveva riportato al centro il tema delle traduzioni, che oggi creano le notizie utilizzando materiale internazionale ma che nel sistema “ottuso” della IA rischiano di riportare termini, con una radice linguistica prevalente, per esempio quella inglese, in modo paradossale in una lingua diversa.
Tutto questo ha un nome: giornalismo automatizzato. E fa paura, come tutte le definizioni categoriche.
Maria Pia Di Buono autrice del volume “Giornalismo algoritmico e traduzione automatica. Una valutazione della traduzione neurale”, (pp 241, Loffredo Editore, 28,50 euro), non affronta la svolta giuridico normativa arrivata dalla Ue perché si esprime da umanista informatica che la materia la studia per le origini storiche e le prospettive metodologiche, più che burocratiche.
Un regolamento Ue arriva anche in Italia, il primo al mondo
Va però ricordato che l’Europarlamento ha approvato dieci giorni fa il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con l’obiettivo di proteggere “i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore”. Il regolamento stabilisce obblighi per l’IA sulla base dei possibili rischi e del livello d’impatto. Le nuove norme mettono fuori legge alcune applicazioni che minacciano i diritti dei cittadini, come i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone. Non poco, ma non basta.
I nuovi media nel libro di Maria Pia Di Buono
E l’informazione? “Le tecnologie del linguaggio e gli algoritmi di IA stanno apportando cambiamenti rapidi e profondi… – spiega la Di Buono nelle conclusioni del libro – e offrono nuove possibilità alle pratiche giornalistiche. Un adeguato utilizzo delle tecnologie esistenti, infatti, può contribuire alla creazione di storie giornalistiche affidabili, alla comprensione dei pubblici e al miglioramento delle loro esperienze, allo snellimento dei processi aziendali e all’individuazione di nuovi prodotti e servizi da offrire, facendo altresì emergere sulla scena media nuovi che tradizionalmente non sono collegati al mondo del giornalismo, come linguisti e informatici che si occupano di sviluppare questi servizi. Sebbene non siano produttori di notizie nella realtà stanno effettivamente partecipando alla catena di produzione editoriale che fino a pochi anni fa era appannaggio solo dei professionisti della comunicazione…”.
Lo spoiler finale è doveroso: l’assassino del giornalismo non è il maggiordomo, ma neanche Chat Gpt. C’è più aria di suicidio, se la categoria non si attiva per vigilare, controllare e gestire la transizione ed impedire il sopravvento delle “macchine” orwelliane sull’uomo, poco furbo ma più intelligente.