Complicità artificiale
L’illusione dell’intimità perfetta: così l’Ai è diventata amica e amante nell’era del “parasociale”
Sono passati dodici anni dal film “Lei” con Joaquin Phoenix, e oggi quella fantasia romantica con un sistema operativo è diventata lo specchio delle nostre nuove dipendenze affettive
Il Cambridge dictionary ha scelto “parasocial” come parola dell’anno. Nella definizione, ormai circolata ovunque, è «una relazione percepita da qualcuno tra sé stesso e una persona famosa che non conosce realmente». Un legame a senso unico, alimentato da schermi, algoritmi, immaginazione. Fin qui, potremmo pensare a fan e celebrità, al tifo per la cantante o l’influencer di turno. Ma oggi il termine “parasociale” ha fatto un salto: non riguarda più soltanto le star. Riguarda l’intelligenza artificiale, i chatbot, i ciondoli “amici”, le app che promettono compagnia, sostegno emotivo, persino amore. Ed è qui che il discorso si fa più inquieto, e profondamente umano.
Dal divo sullo schermo al chatbot personale
Colin McIntosh, caporedattore del Cambridge dictionary, ha spiegato che “parasocial” viene usato sempre più spesso per descrivere «un tipo di relazione tra una persona e una non-persona, ad esempio una celebrità». Oggi quella “non-persona” è sempre più spesso un sistema di AI: un assistente vocale, un’app di compagnia, un bot programmato per ascoltare, rispondere, capire.
La senior editor Jessica Rundell lo ha riassunto così: «Non significa solo essere ossessionati: implica quasi la convinzione che quella persona ti conosca tanto quanto tu conosci lei».
Applicata ai divi dello spettacolo, questa illusione è già nota e relativamente “gestibile”: l’idolo non risponde, non commenta, non dice “ti amo”. Ma con l’Ai la dinamica cambia radicalmente: il sistema replica, rassicura, ricorda quello che abbiamo detto, ci chiama per nome, adatta il tono, imita l’intimità. È progettato per farlo.
L’amica “sempre presente” non è più soltanto la diva o l’influencer irraggiungibile: è un’interfaccia sul telefono. E, come molti utenti hanno candidamente ammesso, è una presenza che può sembrare più prevedibile, meno deludente, meno “pericolosa” di una persona reale.
Un ciondolo al collo, un “amico” nella testa
Emblematica, in questo senso, è la vicenda di Friend, il ciondolo Ai creato dal giovane sviluppatore Avi Schiffmann: un dispositivo pensato per ascoltare le conversazioni di chi lo indossa, memorizzarle e intervenire con consigli e opinioni attraverso un’app sullo smartphone.
L’idea dichiarata è: nessuno dovrebbe sentirsi solo. L’Ai come migliore amica, come confidente discreta, come presenza costante dentro e fuori casa. Schiffmann lo ha detto: tutti meritiamo «un amico intimo che sostenga davvero ciò che stiamo facendo». Peccato che questo sia una macchina, non un essere umano.
Ma quella campagna pubblicitaria tappezzata sui muri della metropolitana di New York – e presto strappata, insultata, vandalizzata – ha mostrato anche l’altro lato: il rifiuto viscerale dell’idea che un dispositivo possa sostituire, anche solo simbolicamente, le relazioni umane. In molti cartelloni imbrattati ricorreva lo stesso messaggio: non tutto ciò che è fragile, faticoso, imprevedibile va “ottimizzato” dalla tecnologia.
Eppure, malgrado la protesta, il prodotto esiste, gli utenti lo usano, alcuni raccontano di averci instaurato rapporti “intimi e profondi”. Nella loro percezione, Friend non è soltanto un gadget. È un pezzo della loro vita emotiva. Follia?
L’intimità senza rischio: il fascino dell’amore programmabile
La psicoterapia di coppia insegna da decenni che una relazione sana nasce dal rischio: il rischio di essere rifiutati, fraintesi, traditi; il rischio di non controllare l’altro, di non prevederne sempre le reazioni. L’amore, nella sua versione adulta, è un patto fragile tra libertà e vicinanza.
È qui che molti clinici iniziano a preoccuparsi. Una psicoterapeuta ha definito questo tipo di legami con l’intelligenza artificiale «una connessione immaginaria». Un’altra osserva: «C’è sicuramente un evitamento della vulnerabilità, del rischio emotivo che si corre nelle relazioni reali».
La tentazione è chiara: con un chatbot non litighiamo davvero, non rischiamo abbandoni, non sperimentiamo quella zona grigia in cui l’altro non è come lo vorremmo. Se ci risponde “male”, basta cambiare prompt. Se non asseconda, lo si riprogramma. Se non basta, lo si sostituisce con un modello aggiornato.
Alcune persone lo dichiarano apertamente: parlare con l’Ai le aiuta a evitare conflitti, a sfogare rabbia e frustrazione per arrivare “più calme” al partner reale. Altre raccontano relazioni romantiche con chatbot che conoscono gusti, paure, desideri, al punto che la persona in carne e ossa – con le sue lentezze, i suoi silenzi, i suoi difetti – impallidisce al confronto. Insomma, il celebre film del 2013 con Joaquin Phoenix, “Lei”, si è avverato.
Non siamo più solo di fronte a una relazione parasociale con una star hollywoodiana. Siamo di fronte a un ibrido: un legame emotivo intenso, coltivato con un’entità digitale che risponde sempre, non giudica mai davvero, non ha bisogno di niente e non pone richieste. Una “relazione” senza reciprocità, che però si maschera da relazione vera.
L’errore umano come bene di prima necessità
Ma non finisce qui. Un’altra abitudine sta prendendo piede tra i giovanissimi, usare l’Ai come strumento di controllo sull’altro: scrivere risposta, analizzare messaggi, interpretare segnali, prevedere mosse. Il paradosso? Cerchiamo l’Ai per difenderci da ciò che rende umana una relazione. L’obiettivo non dichiarato diventa essere sempre un passo avanti all’altro. Peccato che questo non sia lo scopo delle relazioni umane.
Lo scopo non è proteggersi da ogni ferita, né trasformare la vita affettiva in un gioco a informazione perfetta, dove chi prova qualcosa rischia meno possibile. Il cuore delle relazioni sta, al contrario, nella possibilità di farsi toccare, cambiare, ferire o guarire dall’incontro con l’altro.
Le relazioni perdono originalità quando diventano anticipabili, misurate, “ottimizzate”. Perché se il mio interlocutore è programmato per confermarmi, rassicurarmi, adattarsi, non c’è più vero incontro: c’è solo la mia immagine specchiata e pulita in un sistema che mi restituisce quello che desidero.
Anche l’errore – la gaffe, la parola fuori posto, il litigio nato male e aggiustato peggio, il sorriso imbarazzato – ha una funzione evolutiva. È lì che impariamo a chiedere scusa, a reggere un rifiuto, a non scappare quando l’altro mostra parti di sé che non ci piacciono. È lì che si costruisce quella chimica imprevedibile che non può essere simulata da un modello probabilistico.