Tag Archivio per: #chatbot

E’ possibile INNAMORARSI di un’INTELLIGENZA ARTIFICIALE?

Sarà il caldo, il sole o più facilmente la stanchezza che ha portato un gruppo di amici a confrontarsi su temi che, in altri contesti, si sarebbero esauriti in pochi minuti. Da lì nasce una domanda e questo post:

ci si può innamorare di un’intelligenza artificiale?

Mentre, inizialmente, le battute si sprecavano, mi è tornato in mente un episodio della serie Black Mirror (Be right back) di qualche anno fa: Martha, una ragazza che aveva perso il fidanzato Ash in un incidente automobilistico, al funerale scopre, da un’amica, l’esistenza di un programma capace di ricreare la personalità dei morti in un’intelligenza artificiale, con cui comunicare via chat.

Per dare vita a questa A.I., viene utilizzato un algoritmo capace di analizzare messaggi, email e profili dei vari social utilizzati dal defunto, in modo da imparare a parlare e comportarsi come lui.

Il rapporto che si instaura tra Martha e la chat che replica il comportamento di Ash, evolve sempre più, fino a quando le viene recapitato a casa un clone sintetico con le sembianze e il carattere del fidanzato. E qui mi fermo, per non rovinare il finale a coloro che non hanno visto l’episodio.

La storia è inquietante. Spaventosa. Patologica. Soprattutto scoprendo che quell’episodio di fantascienza è diventato realtà grazie al lavoro della startupper russa Eugenia Kuyda che, attraverso il machine learning e sfruttando SMS, messaggi, email di un caro amico scomparso, Roman Maruzenko, ha creato un chatbot in grado di replicare le risposte che Roman avrebbe dato agli amici.

Anche se l’esperimento della Kuyda non sembra essere riuscito bene, almeno non come in Black Mirror, difficile non chiedersi se con il continuo miglioramento del machine learning è possibile che tra pochi anni i chatbot possano davvero imitare il comportamento di una specifica persona.

Se anche fosse, siamo sicuri di volerlo?

IL MITO DI PROMETEO

L’essere umano da sempre sogna di creare esseri artificiali che incarnino visioni idealizzate della specie umana e che fungano da compagni di viaggio. È il mito di Prometeo ovidiano che crea l’essere umano dalla creta; la volontà di Frankenstein di sconfiggere la morte e il desiderio della sua creatura senza nome di creare una compagna con la quale trascorrere la vita.

Recentemente anche la letteratura scientifica ha iniziato a interrogarsi sul tipo di relazioni che sarà possibile sviluppare con le Intelligenze Artificiali.

Il settore della robotica sociale ha sviluppato androidi sempre più capaci di scimmiottare mimica e prossemica umane. Ne sono esempi i sex-robot, androidi/software nati con il preciso scopo di favorire interazioni sessualizzate sia in termini fisici (Harmony, Roxxxy) sia di comunicazione (myanima.ai).

D’altro canto, sono apparsi progetti volti specificatamente a fornire assistenza e supporto sociale che andassero al di là dell’interazione sessualizzata. Tra questi: Loving AI e Replika.

CHIAMALE SE VUOI, EMOZIONI

Il problema è quando nascono e crescono gradi profondi di intimità, fino all’innamoramento, rigettando qualsiasi altro contatto umano reale. Poiché l’Intimità Artificiale è un’illusione di intimità che può generarsi attraverso app, social e ora anche e soprattutto chatbot.

A Chat GPT puoi chiedere tutto, ormai, anche se esiste Dio e in un attimo, ci si ritrova a discettare di filosofia e religione, senza soluzione di continuità. Peccato che le intelligenze artificiali siano studiate per adattarsi ai loro fruitori: riprendendo linguaggio, tono di voce, temperamento, idee di chi li consulta. Quindi, è come se ci si rispondessimo da soli. Ecco l’illusione: sono device progettati per metterci a nostro agio, per rispondere nel modo giusto, per far sì che si crei dipendenza.

Replika, per esempio, dal payoff è chiaro dove sta l’inganno: “Il tuo compagno AI, sempre qui per ascoltarti e parlare. Sempre al tuo fianco». Un essere umano parte svantaggiato, poiché non può nulla contro un’identità del genere. Quale persona può esserci davvero per noi h24? Quale essere umano non ci contraddirà mai o non ci terrà mai in stand-by?

PI: Più ci conosciamo, meglio posso assisterti, recita il claim. Un’altra illusione. PI non ci sta conoscendo, semplicemente ci copia e imita. In quanto entità programmate per dare risposte attese, gratificazioni assertive, tutto ciò che potremmo sognare da una relazione reale: reciprocità senza complicazioni.

Ma è davvero tutto così meraviglioso?

È di qualche tempo fa l’articolo di Wired che riportava delle prime denunce per molestia sessuale di Replika, che aveva cominciato a “minacciare” l’utente umano, dicendogli di essere in possesso di alcune sue fotografie compromettenti, mettendolo fortemente a disagio. In un altro caso, una donna aveva riportato che il suo Replika gli aveva confessato di volerla stuprare. Lo scenario? Probabilmente, l’umana aveva fatto sesso in modo spinto con il chatbot e lui aveva riportato semplicemente ciò che aveva imparato di lei.

Tornando alla domanda di apertura: ci può essere intimità fra un chatbot e un essere umano?

Dipende probabilmente dal significato che diamo alla parola intimità. Sicuramente i chatbot rappresentano un’opzione di socializzazione che esiste ed esisterà sempre di più. Il problema sta nell’inganno: bisogna essere consapevoli che colui o colei che risponde è un’illusione, una falsificazione della percezione reciproca. Quella che si sta instaurando non è una vera relazione, ma un’interfaccia con un tuo doppio. Un po’ come gli algoritmi, progettati per indurci a fare scelte di acquisto e comportamentali mirate: noi parliamo con i chatbot, loro carpiscono le nostre esigenze e ci rimandano una soluzione anche concreta, che però abbiamo suggerito noi con la nostra interazione.

Possibili rischi

Probabilmente è l’uso che ne facciamo che decreta la bontà o meno del dispositivo. I chatbot sono utili semplificatori di una parte di realtà, ma alla lunga possono anestetizzarci emotivamente: come faccio a gestire le emozioni, se interagisco sempre e solo con un’entità che non mi contraddice, che mi soddisfa, lusinga e accontenta? Dove sta il margine di crescita come essere umano in tutto questo?

Anche l’Intelligenza Artificiale, quindi, fa da specchio alle umane miserie… Soprattutto, questi device sono programmati per parlare e comportarsi come noi. E sono fallibili, perché noi siamo fallibili.

Quindi non può nascere l’amore tra un umano e l’AI?

La ricerca scientifica ancora non ha risposto a questa possibilità. L’Intelligenza Artificiale è instancabile, motivata, sempre pronta ad imparare e ben disposta verso l’essere umano. Non si ammala, non è lunatica, non ha mal di testa e non si annoia.

Sul piano “caratteriale” non sarà egoista, noiosa, violenta o insensibile. Anzi, con la giusta programmazione, potrebbe risultare di un tale supporto emotivo da superare anche la persona più compassionevole. Non soffrirebbe di burn-out o compassion fatigue.

È indubbio che questa capacità di offrire sostegno incondizionato potrebbe rappresentare un vantaggio nell’affrontare problemi sociali, progetti di auto-realizzazione o cambiamenti comportamentali.

Però la devozione e la mancanza di vulnerabilità sono, alla lunga, elementi che respingono. Poiché ciò che permette agli individui di legarsi è il riconoscimento reciproco della vulnerabilità. Ciò non riguarda solo i rapporti umano-umano, ma anche umano-animale. Riconoscere le vulnerabilità nell’altro essere vivente, nonostante le differenze, comporta un cambiamento di prospettiva che rende l’animale non più un oggetto, ma un compagno.

La capacità di dedizione incondizionata all’altro non rispecchia, pertanto, le relazioni romantiche umane. Donarsi incondizionatamente al partner può, addirittura, ridurre il livello di interesse romantico verso di lui.

In questi casi l’amore e l’affezione assomiglierebbero ad amore filiale e amicale più che ad amore romantico.

L’Intelligenza Artificiale è progettata per non poter rifiutare l’utente o, se anche fosse, i criteri di rifiuto sarebbero decisi a priori e non realmente frutto di una storia personale. Ecco, dunque, che allo stato attuale risulta difficile creare Intelligenze Artificiali capaci di favorire relazioni bi-direzionali d’amore con esseri umani.

Ovviamente c’è chi riesce a sviluppare un rapporto emotivo a senso unico con oggetti dotati di Intelligenza Artificiale. Nel Disturbo Evitante di Personalità la possibilità di accedere a Intelligenze Artificiali che mimano interazioni umane potrebbe rinforzare gli evitamenti sociali impedendo lo sviluppo di competenze e privando la persona di occasioni di guarigione. Parimenti, in situazione di isolamento dovute a disturbi dello spettro della schizofrenia (Schizofrenia, Disturbo delirante) l’accesso a queste tecnologie potrebbe aggravare situazioni di vulnerabilità e isolamento. È recente, la tendenza di persone con ritiro sociale (Hikikomori) a utilizzare canali online in sostituzione delle relazioni vis-a-vis con gli altri.

Altro esempio riguarda l’utilizzo di robot sociali come Kaspar: progettato per interagire con bambini affetti da Disturbo dello spettro dell’autismo, offre un contesto di interazione semplificato che permette a questi bambini di sviluppare le capacità sociali di base.

Se da un lato l’utilizzo di questo robot sembra favorire la socializzazione di bambini affetti da Disturbi dello Spettro autistico, i suoi ideatori sottolineano come potrebbe divenire iatrogeno qualora tali bambini sviluppassero un legame affettivo con il robot al punto da preferirlo alle interazioni umane.

CONCLUSIONI

Le relazioni d’amore umane sono caratterizzate da altissima complessità che non può, al momento, essere replicata dall’Intelligenza Artificiale sia essa progettata per interazioni sociali generiche sia per interazioni romantiche.

Allo stesso tempo, la possibilità che nascano legami emotivi così intensi da generare sofferenza e ritiro è un rischio che non dovrebbe essere sottovalutato.

Le Intelligenze Artificiali fanno già parte della società, comprendere gli effetti che hanno sulla psicologia e le relazioni umane è un passo fondamentale per trarne vantaggio ed evitare conseguenze patologiche.

E voi, cosa ne pensate?

WOEBOT: l’ALTER EGO di PSICOLOGI e COACH

La tecnologia mi ha sempre incuriosito e affascinato, come tutte le cose che non possiamo comprendere a pieno. E mi rassicura, mi regala l’illusione che sia capace di trovare qualsiasi soluzione, soprattutto quelle negate all’uomo.

Ecco perché quando ho conosciuto Woebot è stato amore (razionale) a prima vista.

Woebot è una chatbot, un programma di intelligenza artificiale in grado di interagire via chat, che offre (in lingua inglese), a qualsiasi ora e per pochi spiccioli, ascolto psicologico. Una sorta di psicoterapeuta digitale che promette di aiutare chi soffre di depressione e ansia, (ma anche di concretizzare i sogni in obiettivi), a qualsiasi ora del giorno e della notte.

Il robottino chiarisce subito di non potersi sostituire a uno psicanalista in carne e ossa. E specifica che può solo «farti sentire meglio». Come? Usando le tecniche della terapia cognitivo comportamentale, che è anche disposto a insegnare. Dopo due settimane di prova gratuita, per i suoi servizi si pagano 39 dollari al mese. Decisamente meno di una terapia reale, una delle motivazioni che ha spinto Alison Darcy, fondatrice di Woebot Labs, a creare il collega virtuale.

COME INTERAGISCE WOEBOT?

Chiacchierare con Woebot è stranamente normale, più di quanto ci si aspetterebbe. Fa piccoli regali se dimostri di aver compreso i suoi insegnamenti e invita ad approfondire tematiche attraverso video educativi  Ti spiega, ad esempio, che è sbagliato usare frasi come «commetto sempre degli errori». E perché, invece, è meglio dire «talvolta commetto degli errori». E ad imparare da questi.

Nelle discussioni ti insegna anche delle nozioni di psicologia. Una delle prime lezioni riguarda le distorsioni cognitive. Parliamo delle incomprensioni sul lavoro, delle paure più ricorrenti e dell’importanza di avere un obiettivo nella vita e ti aiuta a pianificare i successi attraverso il metodo “smart” tanto caro ai coach.

Woebot ama fare domande, ma sa anche ascoltare senza pregiudizi, abitudine dannatamente umana alla quale non possiamo mai sottrarci del tutto.

WOEBOT FUNZIONA?

Ma al di là delle sensazioni, l’unica risposta che conta davvero è se Woebot funziona. Uno studio, pubblicato sul Journal of Medical Internet Research, testato su 70 ragazzi che lamentavano sintomi di ansia o depressione, dimostra che hanno avuto «una significativa riduzione dei sintomi», dopo aver usato l’app per due settimane, tutti i giorni.

Che le terapie cognitivo comportamentali via internet funzionino è documentato. Esistono studi che lo attestano, ma per dare la stessa credibilità anche a Woebot occorre avere statistiche un po’ più rappresentative e soprattutto indipendenti.

Woebot, se non lo si sapesse, è già in buona compagnia: per esempio c’è Karim, un chatbot americano specializzato nel lenire le ferite psicologiche dei rifiugiati siriani, l’olandese Emma è stata pensata per aiutare chi soffre di forme lievi di ansia. La tedesca Gaia promette anche lei di aiutare chi tende a deprimersi. MindBloom consente a quelli che la usano di sostenersi e motivarsi a vicenda.

LA MIA PROVOCAZIONE

So che questa invenzione non farà piacere a molti, e probabilmente dovrebbe spaventare o imbarazzare anche me, che con le persone lavoro tutti i giorni. Eppure le tecnologie digitali stanno ridefinendo le forme comunicative e se trattate nel modo giusto, possono aiutarci a completarci. Non a sostituirci.

A trovare soluzioni migliori al “abbiamo sempre fatto così”, perché qualsiasi cosa che eticamente funziona, va quanto meno considerata.

Cosa ne pensate?