Tag Archivio per: #AI

E’ possibile INNAMORARSI di un’INTELLIGENZA ARTIFICIALE?

Sarà il caldo, il sole o più facilmente la stanchezza che ha portato un gruppo di amici a confrontarsi su temi che, in altri contesti, si sarebbero esauriti in pochi minuti. Da lì nasce una domanda e questo post:

ci si può innamorare di un’intelligenza artificiale?

Mentre, inizialmente, le battute si sprecavano, mi è tornato in mente un episodio della serie Black Mirror (Be right back) di qualche anno fa: Martha, una ragazza che aveva perso il fidanzato Ash in un incidente automobilistico, al funerale scopre, da un’amica, l’esistenza di un programma capace di ricreare la personalità dei morti in un’intelligenza artificiale, con cui comunicare via chat.

Per dare vita a questa A.I., viene utilizzato un algoritmo capace di analizzare messaggi, email e profili dei vari social utilizzati dal defunto, in modo da imparare a parlare e comportarsi come lui.

Il rapporto che si instaura tra Martha e la chat che replica il comportamento di Ash, evolve sempre più, fino a quando le viene recapitato a casa un clone sintetico con le sembianze e il carattere del fidanzato. E qui mi fermo, per non rovinare il finale a coloro che non hanno visto l’episodio.

La storia è inquietante. Spaventosa. Patologica. Soprattutto scoprendo che quell’episodio di fantascienza è diventato realtà grazie al lavoro della startupper russa Eugenia Kuyda che, attraverso il machine learning e sfruttando SMS, messaggi, email di un caro amico scomparso, Roman Maruzenko, ha creato un chatbot in grado di replicare le risposte che Roman avrebbe dato agli amici.

Anche se l’esperimento della Kuyda non sembra essere riuscito bene, almeno non come in Black Mirror, difficile non chiedersi se con il continuo miglioramento del machine learning è possibile che tra pochi anni i chatbot possano davvero imitare il comportamento di una specifica persona.

Se anche fosse, siamo sicuri di volerlo?

IL MITO DI PROMETEO

L’essere umano da sempre sogna di creare esseri artificiali che incarnino visioni idealizzate della specie umana e che fungano da compagni di viaggio. È il mito di Prometeo ovidiano che crea l’essere umano dalla creta; la volontà di Frankenstein di sconfiggere la morte e il desiderio della sua creatura senza nome di creare una compagna con la quale trascorrere la vita.

Recentemente anche la letteratura scientifica ha iniziato a interrogarsi sul tipo di relazioni che sarà possibile sviluppare con le Intelligenze Artificiali.

Il settore della robotica sociale ha sviluppato androidi sempre più capaci di scimmiottare mimica e prossemica umane. Ne sono esempi i sex-robot, androidi/software nati con il preciso scopo di favorire interazioni sessualizzate sia in termini fisici (Harmony, Roxxxy) sia di comunicazione (myanima.ai).

D’altro canto, sono apparsi progetti volti specificatamente a fornire assistenza e supporto sociale che andassero al di là dell’interazione sessualizzata. Tra questi: Loving AI e Replika.

CHIAMALE SE VUOI, EMOZIONI

Il problema è quando nascono e crescono gradi profondi di intimità, fino all’innamoramento, rigettando qualsiasi altro contatto umano reale. Poiché l’Intimità Artificiale è un’illusione di intimità che può generarsi attraverso app, social e ora anche e soprattutto chatbot.

A Chat GPT puoi chiedere tutto, ormai, anche se esiste Dio e in un attimo, ci si ritrova a discettare di filosofia e religione, senza soluzione di continuità. Peccato che le intelligenze artificiali siano studiate per adattarsi ai loro fruitori: riprendendo linguaggio, tono di voce, temperamento, idee di chi li consulta. Quindi, è come se ci si rispondessimo da soli. Ecco l’illusione: sono device progettati per metterci a nostro agio, per rispondere nel modo giusto, per far sì che si crei dipendenza.

Replika, per esempio, dal payoff è chiaro dove sta l’inganno: “Il tuo compagno AI, sempre qui per ascoltarti e parlare. Sempre al tuo fianco». Un essere umano parte svantaggiato, poiché non può nulla contro un’identità del genere. Quale persona può esserci davvero per noi h24? Quale essere umano non ci contraddirà mai o non ci terrà mai in stand-by?

PI: Più ci conosciamo, meglio posso assisterti, recita il claim. Un’altra illusione. PI non ci sta conoscendo, semplicemente ci copia e imita. In quanto entità programmate per dare risposte attese, gratificazioni assertive, tutto ciò che potremmo sognare da una relazione reale: reciprocità senza complicazioni.

Ma è davvero tutto così meraviglioso?

È di qualche tempo fa l’articolo di Wired che riportava delle prime denunce per molestia sessuale di Replika, che aveva cominciato a “minacciare” l’utente umano, dicendogli di essere in possesso di alcune sue fotografie compromettenti, mettendolo fortemente a disagio. In un altro caso, una donna aveva riportato che il suo Replika gli aveva confessato di volerla stuprare. Lo scenario? Probabilmente, l’umana aveva fatto sesso in modo spinto con il chatbot e lui aveva riportato semplicemente ciò che aveva imparato di lei.

Tornando alla domanda di apertura: ci può essere intimità fra un chatbot e un essere umano?

Dipende probabilmente dal significato che diamo alla parola intimità. Sicuramente i chatbot rappresentano un’opzione di socializzazione che esiste ed esisterà sempre di più. Il problema sta nell’inganno: bisogna essere consapevoli che colui o colei che risponde è un’illusione, una falsificazione della percezione reciproca. Quella che si sta instaurando non è una vera relazione, ma un’interfaccia con un tuo doppio. Un po’ come gli algoritmi, progettati per indurci a fare scelte di acquisto e comportamentali mirate: noi parliamo con i chatbot, loro carpiscono le nostre esigenze e ci rimandano una soluzione anche concreta, che però abbiamo suggerito noi con la nostra interazione.

Possibili rischi

Probabilmente è l’uso che ne facciamo che decreta la bontà o meno del dispositivo. I chatbot sono utili semplificatori di una parte di realtà, ma alla lunga possono anestetizzarci emotivamente: come faccio a gestire le emozioni, se interagisco sempre e solo con un’entità che non mi contraddice, che mi soddisfa, lusinga e accontenta? Dove sta il margine di crescita come essere umano in tutto questo?

Anche l’Intelligenza Artificiale, quindi, fa da specchio alle umane miserie… Soprattutto, questi device sono programmati per parlare e comportarsi come noi. E sono fallibili, perché noi siamo fallibili.

Quindi non può nascere l’amore tra un umano e l’AI?

La ricerca scientifica ancora non ha risposto a questa possibilità. L’Intelligenza Artificiale è instancabile, motivata, sempre pronta ad imparare e ben disposta verso l’essere umano. Non si ammala, non è lunatica, non ha mal di testa e non si annoia.

Sul piano “caratteriale” non sarà egoista, noiosa, violenta o insensibile. Anzi, con la giusta programmazione, potrebbe risultare di un tale supporto emotivo da superare anche la persona più compassionevole. Non soffrirebbe di burn-out o compassion fatigue.

È indubbio che questa capacità di offrire sostegno incondizionato potrebbe rappresentare un vantaggio nell’affrontare problemi sociali, progetti di auto-realizzazione o cambiamenti comportamentali.

Però la devozione e la mancanza di vulnerabilità sono, alla lunga, elementi che respingono. Poiché ciò che permette agli individui di legarsi è il riconoscimento reciproco della vulnerabilità. Ciò non riguarda solo i rapporti umano-umano, ma anche umano-animale. Riconoscere le vulnerabilità nell’altro essere vivente, nonostante le differenze, comporta un cambiamento di prospettiva che rende l’animale non più un oggetto, ma un compagno.

La capacità di dedizione incondizionata all’altro non rispecchia, pertanto, le relazioni romantiche umane. Donarsi incondizionatamente al partner può, addirittura, ridurre il livello di interesse romantico verso di lui.

In questi casi l’amore e l’affezione assomiglierebbero ad amore filiale e amicale più che ad amore romantico.

L’Intelligenza Artificiale è progettata per non poter rifiutare l’utente o, se anche fosse, i criteri di rifiuto sarebbero decisi a priori e non realmente frutto di una storia personale. Ecco, dunque, che allo stato attuale risulta difficile creare Intelligenze Artificiali capaci di favorire relazioni bi-direzionali d’amore con esseri umani.

Ovviamente c’è chi riesce a sviluppare un rapporto emotivo a senso unico con oggetti dotati di Intelligenza Artificiale. Nel Disturbo Evitante di Personalità la possibilità di accedere a Intelligenze Artificiali che mimano interazioni umane potrebbe rinforzare gli evitamenti sociali impedendo lo sviluppo di competenze e privando la persona di occasioni di guarigione. Parimenti, in situazione di isolamento dovute a disturbi dello spettro della schizofrenia (Schizofrenia, Disturbo delirante) l’accesso a queste tecnologie potrebbe aggravare situazioni di vulnerabilità e isolamento. È recente, la tendenza di persone con ritiro sociale (Hikikomori) a utilizzare canali online in sostituzione delle relazioni vis-a-vis con gli altri.

Altro esempio riguarda l’utilizzo di robot sociali come Kaspar: progettato per interagire con bambini affetti da Disturbo dello spettro dell’autismo, offre un contesto di interazione semplificato che permette a questi bambini di sviluppare le capacità sociali di base.

Se da un lato l’utilizzo di questo robot sembra favorire la socializzazione di bambini affetti da Disturbi dello Spettro autistico, i suoi ideatori sottolineano come potrebbe divenire iatrogeno qualora tali bambini sviluppassero un legame affettivo con il robot al punto da preferirlo alle interazioni umane.

CONCLUSIONI

Le relazioni d’amore umane sono caratterizzate da altissima complessità che non può, al momento, essere replicata dall’Intelligenza Artificiale sia essa progettata per interazioni sociali generiche sia per interazioni romantiche.

Allo stesso tempo, la possibilità che nascano legami emotivi così intensi da generare sofferenza e ritiro è un rischio che non dovrebbe essere sottovalutato.

Le Intelligenze Artificiali fanno già parte della società, comprendere gli effetti che hanno sulla psicologia e le relazioni umane è un passo fondamentale per trarne vantaggio ed evitare conseguenze patologiche.

E voi, cosa ne pensate?

SIAMO SICURI che l’IA SEMPLIFICHI la VITA? Le mie BATTAGLIE PERSE con ALEXA

Adoro la tecnologia che mi semplifica la vita.

Anelo all’auto elettrica, annoiandomi alla guida e avendo un senso dell’orientamento deficitario anche con il navigatore in funzione… al robot che fa la spesa, pulisce casa e se possibile cucina… e poi c’è Alexa, che da qualche settimana è refrattaria alle mie richieste. Si rifiuta di accendere alcune stazioni radio italiane (RDS per citarne una) a vantaggio della BBC che, seppure sento spesso per allenare il mio inglese, non dovrebbe avere il monopolio. Alexa è stata acquistata per aiutarmi laddove glielo permetto. Anche se la sua fissazione o testardaggine a farmi sentire ciò che piace a lei è tutt’altro che persuasiva.

Qual è dunque la vera utilità degli assistenti vocali?

I ricercatori dell’Università di Sidney hanno scoperto che i messaggi che arrivano da dispositivi di Intelligenza Artificiale (IA) sono più persuasivi quando evidenziano come dovrebbe essere eseguita un’azione, piuttosto che perché[1].

Ad esempio, siamo più disposti a mettere la protezione solare quando un dispositivo di IA spiega come applicare la crema, piuttosto che perché. Tendenzialmente non crediamo che una macchina possa comprendere le necessità e soddisfare i nostri desideri.

La ricerca suggerisce che le persone trovano i consigli dell’IA più persuasivi in situazioni in cui questa mostra semplici passaggi su come preparare una spremuta o scegliere la racchetta da tennis giusta, piuttosto che il perché tale scelta sia importante o necessaria.

L’intelligenza artificiale ha il libero arbitrio?

La maggior parte di noi crede di avere il libero arbitrio. Ci complimentiamo con chi aiuta gli altri perché pensiamo che lo faccia liberamente e penalizziamo coloro che danneggiano o ignorano gli altri. Siamo disposti a ridurre la pena se il reo è stato privato del libero arbitrio, ad esempio se in preda a un delirio schizofrenico.

Ma cosa pensiamo del libero arbitrio rispetto l’‘IA?

In un esperimento sono stati dati a una persona $ 100 a cui si è chiesto di regalarne una parte, a piacimento, a un’altra persona. L’unica condizione è che il ricevente accetti quanto gli viene donato o entrambi otterranno niente.

Quando la prima persona tiene per sè 80$ e ne regala 20, il ricevente tende a rifiutare l’offerta. Benchè razionalmente $ 20 sia meglio di niente, le ricerche suggeriscono che è probabile che l’offerta di $ 20 venga rifiutata perché percepita come ingiusta. Ci si aspetta di ricevere almeno la metà, ossia 50 dollari. O ci sentiamo svalutati[2].

Cosa succede se il proponente anziché un essere umano è un’IA?

Il rifiuto si riduce in modo significativo: è più probabile che le persone accettino l’offerta “sleale” di soli 20 dollari.

Questo perché non pensiamo che l’IA abbia l’intento dannoso di sfruttarci o svalutarci: è solo un algoritmo, non ha il libero arbitrio, quindi possiamo accettare soli 20 dollari.

Il fatto che le persone possano accettare offerte sleali dall’AI preoccupa perché significa che questo fenomeno potrebbe essere usato in modo dannoso e manipolativo. Ad esempio, un’azienda potrebbe manipolare i lavoratori affinché accettino salari ingiusti dicendo che è stata una decisione presa da un computer. Per proteggere i consumatori, occorre capire quando, dove e quanto le persone sono vulnerabili alla manipolazione da parte dell’IA.

Siamo sorprendentemente disposti a divulgare informazioni all’AI

In alcuni lavori in via di pubblicazione, i ricercatori hanno scoperto che le persone tendono a divulgare informazioni personali ed esperienze imbarazzanti più volentieri all’intelligenza artificiale che a un essere umano.

E’ stato detto ai partecipanti di immaginare di essere dal medico per un’infezione del tratto urinario. I partecipanti sono stati divisi in due gruppi, quindi metà ha parlato con un medico in carne ed ossa e metà con un medico di IA. I partecipanti sono stati informati che il dottore avrebbe fatto alcune domande per trovare il miglior trattamento e più si rispondeva più questo avrebbe aiutato il medico.

I partecipanti hanno rivelato più informazioni personali all’AI, riguardo a domande potenzialmente imbarazzanti sull’uso di giocattoli sessuali, preservativi o altre attività sessuali. Questo perché siamo portati a pensare che l’IA non giudichi, mentre gli umani sì.

Parlare con un sistema di intelligenza artificiale ci fa sentire più al sicuro e meno giudicati, nonostante molte persone temano per la loro privacy.

Se l’intelligenza artificiale avesse il libero arbitrio?

Dare all’IA caratteristiche umane o un nome umano, induce a credere che l’IA abbia il libero arbitrio[3]. Con tutte le implicazioni del caso:

  • L’’IA si fa così più persuasiva non solo quando dice come fare le cose, ma anche quando spiega il perché, poiché vedendola a noi simile, pensiamo sia in grado di comprendere obiettivi e motivazioni umane
  • Offerte e condizioni sleali (per esempio i 20 dollari dell’esperimento sopra citato) hanno meno probabilità di essere accettate se l’IA ha un aspetto umano che la accomuna all’uomo
  • Iniziamo a sentirci giudicati dall’intelligenza artificiale e in imbarazzo e tendiamo a rivelare meno informazioni personali
  • Ci sentiamo in colpa quando danneggiamo un’IA dall’aspetto umano, e quindi tendiamo ad agire in modo più benigno nei suoi confronti

In futuro con il progredire dell’IA, quando diverranno utili in cucina, a servire, a vendere, a prendersi cura dei pazienti in ospedale e persino a sedersi a un tavolo da pranzo come un partner normale, sarà importante capire come influenza le nostre decisioni per proteggerci là dove e quando serva[4].

Intanto Alexa ha deciso di farmi sentire una stazione radio irlandese…

 

Fonti

[1] Kim TW, Duhachek A.,  Artificial Intelligence and Persuasion: A Construal-Level Account. Psychological Science. 2020;31(4):363-380.

[2] Henrich J., Boyd R, Bowles S., Camerer C.F., Foundations of humans sociality: economic experiments and ethnographic evidence from fifteen small-scale societies, 2006, Oxford University Press

[3] http://abotdatabase.info/

[4] Danaher J., McArthur N., Robot sex: social and ethical implications, The Mit Press, 2017