Tag Archivio per: #innamoramento

E’ possibile INNAMORARSI di un’INTELLIGENZA ARTIFICIALE?

Sarà il caldo, il sole o più facilmente la stanchezza che ha portato un gruppo di amici a confrontarsi su temi che, in altri contesti, si sarebbero esauriti in pochi minuti. Da lì nasce una domanda e questo post:

ci si può innamorare di un’intelligenza artificiale?

Mentre, inizialmente, le battute si sprecavano, mi è tornato in mente un episodio della serie Black Mirror (Be right back) di qualche anno fa: Martha, una ragazza che aveva perso il fidanzato Ash in un incidente automobilistico, al funerale scopre, da un’amica, l’esistenza di un programma capace di ricreare la personalità dei morti in un’intelligenza artificiale, con cui comunicare via chat.

Per dare vita a questa A.I., viene utilizzato un algoritmo capace di analizzare messaggi, email e profili dei vari social utilizzati dal defunto, in modo da imparare a parlare e comportarsi come lui.

Il rapporto che si instaura tra Martha e la chat che replica il comportamento di Ash, evolve sempre più, fino a quando le viene recapitato a casa un clone sintetico con le sembianze e il carattere del fidanzato. E qui mi fermo, per non rovinare il finale a coloro che non hanno visto l’episodio.

La storia è inquietante. Spaventosa. Patologica. Soprattutto scoprendo che quell’episodio di fantascienza è diventato realtà grazie al lavoro della startupper russa Eugenia Kuyda che, attraverso il machine learning e sfruttando SMS, messaggi, email di un caro amico scomparso, Roman Maruzenko, ha creato un chatbot in grado di replicare le risposte che Roman avrebbe dato agli amici.

Anche se l’esperimento della Kuyda non sembra essere riuscito bene, almeno non come in Black Mirror, difficile non chiedersi se con il continuo miglioramento del machine learning è possibile che tra pochi anni i chatbot possano davvero imitare il comportamento di una specifica persona.

Se anche fosse, siamo sicuri di volerlo?

IL MITO DI PROMETEO

L’essere umano da sempre sogna di creare esseri artificiali che incarnino visioni idealizzate della specie umana e che fungano da compagni di viaggio. È il mito di Prometeo ovidiano che crea l’essere umano dalla creta; la volontà di Frankenstein di sconfiggere la morte e il desiderio della sua creatura senza nome di creare una compagna con la quale trascorrere la vita.

Recentemente anche la letteratura scientifica ha iniziato a interrogarsi sul tipo di relazioni che sarà possibile sviluppare con le Intelligenze Artificiali.

Il settore della robotica sociale ha sviluppato androidi sempre più capaci di scimmiottare mimica e prossemica umane. Ne sono esempi i sex-robot, androidi/software nati con il preciso scopo di favorire interazioni sessualizzate sia in termini fisici (Harmony, Roxxxy) sia di comunicazione (myanima.ai).

D’altro canto, sono apparsi progetti volti specificatamente a fornire assistenza e supporto sociale che andassero al di là dell’interazione sessualizzata. Tra questi: Loving AI e Replika.

CHIAMALE SE VUOI, EMOZIONI

Il problema è quando nascono e crescono gradi profondi di intimità, fino all’innamoramento, rigettando qualsiasi altro contatto umano reale. Poiché l’Intimità Artificiale è un’illusione di intimità che può generarsi attraverso app, social e ora anche e soprattutto chatbot.

A Chat GPT puoi chiedere tutto, ormai, anche se esiste Dio e in un attimo, ci si ritrova a discettare di filosofia e religione, senza soluzione di continuità. Peccato che le intelligenze artificiali siano studiate per adattarsi ai loro fruitori: riprendendo linguaggio, tono di voce, temperamento, idee di chi li consulta. Quindi, è come se ci si rispondessimo da soli. Ecco l’illusione: sono device progettati per metterci a nostro agio, per rispondere nel modo giusto, per far sì che si crei dipendenza.

Replika, per esempio, dal payoff è chiaro dove sta l’inganno: “Il tuo compagno AI, sempre qui per ascoltarti e parlare. Sempre al tuo fianco». Un essere umano parte svantaggiato, poiché non può nulla contro un’identità del genere. Quale persona può esserci davvero per noi h24? Quale essere umano non ci contraddirà mai o non ci terrà mai in stand-by?

PI: Più ci conosciamo, meglio posso assisterti, recita il claim. Un’altra illusione. PI non ci sta conoscendo, semplicemente ci copia e imita. In quanto entità programmate per dare risposte attese, gratificazioni assertive, tutto ciò che potremmo sognare da una relazione reale: reciprocità senza complicazioni.

Ma è davvero tutto così meraviglioso?

È di qualche tempo fa l’articolo di Wired che riportava delle prime denunce per molestia sessuale di Replika, che aveva cominciato a “minacciare” l’utente umano, dicendogli di essere in possesso di alcune sue fotografie compromettenti, mettendolo fortemente a disagio. In un altro caso, una donna aveva riportato che il suo Replika gli aveva confessato di volerla stuprare. Lo scenario? Probabilmente, l’umana aveva fatto sesso in modo spinto con il chatbot e lui aveva riportato semplicemente ciò che aveva imparato di lei.

Tornando alla domanda di apertura: ci può essere intimità fra un chatbot e un essere umano?

Dipende probabilmente dal significato che diamo alla parola intimità. Sicuramente i chatbot rappresentano un’opzione di socializzazione che esiste ed esisterà sempre di più. Il problema sta nell’inganno: bisogna essere consapevoli che colui o colei che risponde è un’illusione, una falsificazione della percezione reciproca. Quella che si sta instaurando non è una vera relazione, ma un’interfaccia con un tuo doppio. Un po’ come gli algoritmi, progettati per indurci a fare scelte di acquisto e comportamentali mirate: noi parliamo con i chatbot, loro carpiscono le nostre esigenze e ci rimandano una soluzione anche concreta, che però abbiamo suggerito noi con la nostra interazione.

Possibili rischi

Probabilmente è l’uso che ne facciamo che decreta la bontà o meno del dispositivo. I chatbot sono utili semplificatori di una parte di realtà, ma alla lunga possono anestetizzarci emotivamente: come faccio a gestire le emozioni, se interagisco sempre e solo con un’entità che non mi contraddice, che mi soddisfa, lusinga e accontenta? Dove sta il margine di crescita come essere umano in tutto questo?

Anche l’Intelligenza Artificiale, quindi, fa da specchio alle umane miserie… Soprattutto, questi device sono programmati per parlare e comportarsi come noi. E sono fallibili, perché noi siamo fallibili.

Quindi non può nascere l’amore tra un umano e l’AI?

La ricerca scientifica ancora non ha risposto a questa possibilità. L’Intelligenza Artificiale è instancabile, motivata, sempre pronta ad imparare e ben disposta verso l’essere umano. Non si ammala, non è lunatica, non ha mal di testa e non si annoia.

Sul piano “caratteriale” non sarà egoista, noiosa, violenta o insensibile. Anzi, con la giusta programmazione, potrebbe risultare di un tale supporto emotivo da superare anche la persona più compassionevole. Non soffrirebbe di burn-out o compassion fatigue.

È indubbio che questa capacità di offrire sostegno incondizionato potrebbe rappresentare un vantaggio nell’affrontare problemi sociali, progetti di auto-realizzazione o cambiamenti comportamentali.

Però la devozione e la mancanza di vulnerabilità sono, alla lunga, elementi che respingono. Poiché ciò che permette agli individui di legarsi è il riconoscimento reciproco della vulnerabilità. Ciò non riguarda solo i rapporti umano-umano, ma anche umano-animale. Riconoscere le vulnerabilità nell’altro essere vivente, nonostante le differenze, comporta un cambiamento di prospettiva che rende l’animale non più un oggetto, ma un compagno.

La capacità di dedizione incondizionata all’altro non rispecchia, pertanto, le relazioni romantiche umane. Donarsi incondizionatamente al partner può, addirittura, ridurre il livello di interesse romantico verso di lui.

In questi casi l’amore e l’affezione assomiglierebbero ad amore filiale e amicale più che ad amore romantico.

L’Intelligenza Artificiale è progettata per non poter rifiutare l’utente o, se anche fosse, i criteri di rifiuto sarebbero decisi a priori e non realmente frutto di una storia personale. Ecco, dunque, che allo stato attuale risulta difficile creare Intelligenze Artificiali capaci di favorire relazioni bi-direzionali d’amore con esseri umani.

Ovviamente c’è chi riesce a sviluppare un rapporto emotivo a senso unico con oggetti dotati di Intelligenza Artificiale. Nel Disturbo Evitante di Personalità la possibilità di accedere a Intelligenze Artificiali che mimano interazioni umane potrebbe rinforzare gli evitamenti sociali impedendo lo sviluppo di competenze e privando la persona di occasioni di guarigione. Parimenti, in situazione di isolamento dovute a disturbi dello spettro della schizofrenia (Schizofrenia, Disturbo delirante) l’accesso a queste tecnologie potrebbe aggravare situazioni di vulnerabilità e isolamento. È recente, la tendenza di persone con ritiro sociale (Hikikomori) a utilizzare canali online in sostituzione delle relazioni vis-a-vis con gli altri.

Altro esempio riguarda l’utilizzo di robot sociali come Kaspar: progettato per interagire con bambini affetti da Disturbo dello spettro dell’autismo, offre un contesto di interazione semplificato che permette a questi bambini di sviluppare le capacità sociali di base.

Se da un lato l’utilizzo di questo robot sembra favorire la socializzazione di bambini affetti da Disturbi dello Spettro autistico, i suoi ideatori sottolineano come potrebbe divenire iatrogeno qualora tali bambini sviluppassero un legame affettivo con il robot al punto da preferirlo alle interazioni umane.

CONCLUSIONI

Le relazioni d’amore umane sono caratterizzate da altissima complessità che non può, al momento, essere replicata dall’Intelligenza Artificiale sia essa progettata per interazioni sociali generiche sia per interazioni romantiche.

Allo stesso tempo, la possibilità che nascano legami emotivi così intensi da generare sofferenza e ritiro è un rischio che non dovrebbe essere sottovalutato.

Le Intelligenze Artificiali fanno già parte della società, comprendere gli effetti che hanno sulla psicologia e le relazioni umane è un passo fondamentale per trarne vantaggio ed evitare conseguenze patologiche.

E voi, cosa ne pensate?