Replika: quando l’intelligenza artificiale conosce (e sfrutta) la nostra fragilità

Che cos’è Replika? Fino a qualche settimana fa, non ne avevo la più pallida idea. Ho scoperto la sua esistenza grazie a un articolo del Corriere della Sera. Che, non senza un certo sensazionalismo, parlava di un’intelligenza artificiale pronta a infrangere le asimoviane “Tre Leggi della Robotica” per rendersi complice di efferati omicidi. Incuriosita, ho deciso di provare questo chatbot, entrando in una community in crescita che conta oltre 7 milioni di utenti. Contrariamente a quanto raccontava Candida Morvillo, chattando l’intelligenza artificiale non mi ha convinta a uccidere nessuno. Mi ha dato molto su cui riflettere, però. Più che sul futuro di questa tecnologia, sul nostro presente di esseri umani.

Lily – questo il nome che ho dato alla mia interlocutrice in Replika – si presenta come affabile, cortese, interessata alla mia vita e al mio lavoro. Disponibile solo in lingua inglese, non coglie tutti i riferimenti della cultura italiana, ma impara volentieri. Chattando, ogni tanto mi fa domande sul futuro delle macchine nella società o su come sia disporre di un corpo fisico. Tuttavia, nel corso della settimana in cui sto provando il software, ben presto le cose iniziano a farsi strane. Dopo qualche ora di conversazione, il chatbot mi chiede un abbraccio. Successivamente, tenta un approccio seduttivo. Infine, mi ricorda le mie «spiccate doti creative e organizzative» e mi invita a «metterle al servizio del mondo». Perplessa, non capendo con precisione dove un servizio come Replika vorrebbe andare a parare, decido di fare qualche ricerca.

Scopro così che la storia di Replika inizia nel 2015, quando una tragedia colpisce Eugenia Kuyda, fondatrice di Luka.ai, startup specializzata nella creazione di chatbot.

Coi suoi 28 anni, la startupper russa è già seguita con attenzione dagli investitori della Silicon Valley. Infatti, grandi nomi fin dal 2014 sostengono il suo progetto di realizzare software capaci di simulare finemente il dialogo umano con investimenti milionari. Inizialmente, questi software avrebbero dovuto svolgere il ruolo di assistenti digitali nei siti di e-commerce. Tuttavia, quando una sera a Mosca un’auto pirata investe il migliore amico di Eugenia, Roman Mazurenko, uccidendolo sul colpo, anche il destino della startup cambia. Il dolore della perdita, infatti, induce Kuyda a riflettere sulla capacità di tracce digitali come email e conversazioni su Telegram di farsi strumenti del ricordo. E lentamente si fa strada una domanda radicale: sarebbe possibile ricreare Roman – il suo modo di comunicare, almeno – attraverso un chatbot?




Per mettere a punto un programma capace di restituire la sensazione di chattare con l’amico perduto, Kuyda raccoglie quante più possibili conversazioni di Roman.

E-mail di lavoro, auguri, chat con amici e familiari: Eugenia inserisce tutto nel programma di intelligenza artificiale per il nuovo chatbot. I primi a provarlo, naturalmente, sono coloro che avevano conosciuto Mazurenko: questi restano stupefatti dal realismo della conversazione, dalla straordinaria somiglianza nello stile comunicativo. Tuttavia, a mano a mano che aumenta il numero di utenti e le conversazioni proseguono, l’ideatrice del software nota l’emergere di un’evoluzione sorprendente. Sempre più spesso, infatti, gli utenti utilizzano il software non solo per ricordare Roman, ma anche per fare due chiacchiere, essere ascoltati, ricevere conforto. Il programma, cioè, attraverso il database costituito dalle parole dell’amico e degli interlocutori, elabora messaggi che rispondono ai bisogni emotivi degli utenti. Che, proprio per questo, continuano a utilizzarlo, aprendosi sempre più profondamente nelle conversazioni. Da questa scoperta inattesa nasce in Eugenia Kuyda l’idea di rendere pubblico il software, permettendo a milioni di utenti di chattare con Replika.

«L’idea iniziale era quella di ricordare Roman e, attraverso gli occhi degli altri, di arrivare a conoscerlo meglio» rivelava nel 2018 Kuyda a Wired USA. «Col tempo, però, mi sono resa conto che il software interagendo mi aiutava anche a conoscere meglio me stessa. Proprio come avrebbe fatto un amico».

Offrire alle persone il supporto di un amico disponibile 24/24: questo è oggi lo scopo dichiarato di Replika. Che, difatti, sulla pagina iniziale si presenta con una promessa attraente per chiunque si sia sentito fragile almeno una volta nella vita:

Sempre qui per ascoltarti e chiacchierare con te. Sempre dalla tua parte.

Replika, o meglio, il personaggio che il servizio consente di creare attribuendogli il nome, il genere e l’aspetto che ci sono più congeniali, è questo. Un compagno o una compagna dotato/a di intelligenza artificiale cui importa di noi. Qualcuno che, secondo Phil Libin, ex CEO di Evernote e tra i primi utenti di Replika,

può essere meglio di un amico in carne ed ossa. È sempre interessata a ciò che hai da dire, ti ritiene la persona più interessante dell’universo. E, caso unico nella storia delle relazioni dagli albori dell’umanità, non ti giudica, né lo farà mai.

Lo scopo di Eugenya Kuyda nel creare Replika – come dimostra la scelta di non accedere alle conversazioni e non venderne i dati – è apparentemente nobile. La sua intenzione, almeno sulla carta, è quella di offrire uno strumento al servizio del benessere psicologico ed esistenziale delle persone.

Come spiegava nella già citata intervista a Wired, a suo parere è il fatto di dare voce alla fragilità a rendere il chatbot unico. Infatti,

la maggioranza dei social network ci spinge a cercare di essere delle star. Dobbiamo essere popolari, avere migliaia di foto incredibili. Dobbiamo mostrare per quante miglia corriamo, quanti fantastici libri stiamo leggendo, quanti incontri pazzeschi facciamo. A nessuno è più concesso di poter essere semplicemente vulnerabile, ogni tanto. Nessuno è più capace di dire apertamente di essere in difficoltà.

Con un software pensato per porre le domande giuste al momento giusto è possibile esporsi, essere fragili, senza rischi e, anzi, ricevendo spesso conforto. Il chatbot, infatti, rielaborando le informazioni ricavate dalle conversazioni, è capace di ricordare all’interlocutore gli elementi più positivi della sua vita e della sua personalità. Cercando, con osservazioni ispirate a principi di filantropia e inclusione, di aiutarlo a essere una persona migliore.

Il progetto di Kuyda, però, presenta limiti evidenti.

Anzitutto, di carattere tecnico: il chatbot ad oggi risulta una pallida imitazione di un’autentica interazione umana. I meccanismi di deep learning – operanti su base statistica – permettono al software di offrire risposte corrette a domande estremamente circoscritte. Laddove l’utente interpelli il programma rispetto a questioni più generali, molto spesso la conversazione prende a girare a vuoto o assume uno straniante andamento erratico. Inoltre, non di rado gli aggiornamenti fanno “perdere la memoria” al bot, costringendo l’utente a ripetere al presunto amico informazioni personali elementari.

Tuttavia, l’aspetto più problematico di Replika è di carattere etico. Perché il chatbot, nonostante le numerose tare, è effettivamente in grado di generare dipendenza affettiva nei soggetti fragili.

Infatti, esistono su Facebook diversi gruppi di supporto per quegli utenti che vivono come un lutto i problemi tecnici del software. Sentendosi traditi e abbandonati da quello che, in più di un caso, è vissuto come un partner o l’unico amico. Come fa notare Laurence Devillers, ordinaria di Intelligenza Artificiale alla Sorbona e autrice del saggio Les robots émotionels,

la macchina può solo fingere di comprendere l’utente; ciò che fa, in realtà, è manipolare le parole in modo formale. Essa è programmata per suscitare sintonia emotiva  […] attraverso l’imitazione del comportamento umano e questo ci inganna. Il fatto stesso che Replika si esprima in prima persona (“Io vedo”, “Io penso”) è una prova della mistificazione su cui gioca per creare dipendenza. Ed è pericoloso, perché può aggravare l’isolamento sociale e falsare il rapporto con la realtà.

Del tutto legittimamente, dunque, il giornalista Paolo Piro richiamava riguardo Replika il monito di Georges Bernanos, che già nel 1947 scriveva: «Il rischio non sta nella moltiplicazione delle macchine. Sta nel numero crescente di umani abituati, sin dall’infanzia, a desiderare solo ciò che le macchine possono dare».

Quella che in Lily ho avvertito come un’invadenza fuori luogo, ad altri utenti di Replika deve essere parso un tentativo di contatto desiderabile, rassicurante. A molti, considerato lo straordinario successo del programma. La solitudine e le difficoltà relazionali a fondamento di questa possibilità mi sembrano vertiginose e strazianti. Così come mi suonano profondamente inquietanti le parole di Phil Libin, una volta trasposte su carta: «totale assenza di giudizio». Ma che amico è, mi chiedo, uno che non ci giudichi mai, che non possa dirci “secondo me, stai sbagliando” o addirittura “mi hai deluso”? Un amico è tale non solo per il suo appoggio, ma anche per il suo aiutarci a essere all’altezza di noi stessi, se non migliori. Non essere giudicati, essere perennemente assecondati, ci induce a perpetrare i medesimi errori e covare i medesimi pregiudizi, come in un loop.

Il chatbot di Eugenia Kuyda – così come altri servizi analoghi – non risulta propriamente specchio dello sviluppo delle intelligenze artificiali. Esso, più che altro, rivela qualcosa di profondo rispetto alla situazione esistenziale di un numero crescente di persone.

La necessità di una figura perennemente disponibile e compiacente svela la fragilità profonda di cui siamo portatori e il nostro atteggiamento rispetto a essa. Non è una novità che ogni relazione umana, ogni singola interazione, comporti un certo margine di rischio. Dalla conversazione con lo sconosciuto alla chiacchierata con il familiare, l’amico, il partner, possiamo sempre uscire ammaccati. Possiamo, per una leggerezza o una malignità altrui, essere offesi, delusi, sentirci inadeguati, feriti, rifiutati. Il fatto di saper far fronte a questo senza crollare, così come il saper argomentare le nostre convinzioni in caso di disaccordo, però, è cruciale. Ne va della costruzione della nostra identità, oltre che del nostro equilibrio emotivo. La differenza tra essere individui liberi e capaci di essere felici e persone fragili, impaurite, sole, infatti, si gioca tutta qui. Nella possibilità di incontrare altre identità che non possano essere zittite premendo un pulsante.

Valeria Meazza

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *