Tag Archivio per: #chatgpt

PERCHE’ siamo GENTILI con CHATGPT

Vi succede mai di ringraziare ChatGPT, una volta che vi ha fornito le risposte alle vostre domande?

È uno degli argomenti che ha divertito i relatori a un convegno medico su Intelligenza umana e Intelligenza artificiale, la sera precedente all’evento, di fronte a sublimi piatti di pesce. Me compresa.

PERCHÉ SIAMO CORTESI CON CHATGPT?

Prima di portare l’attenzione sulla psicologia dell’IA, occorre pensare a come interagisce l’essere umano. Siamo cortesi fondamentalmente per tre ragioni: personificazione, norme sociali e reciprocità

a) PERSONIFICAZIONE

Non voglio essere maleducato! E se ferissi i loro sentimenti…

La personificazione avviene quando attribuiamo qualità simili a quelle umane, come pensieri, sentimenti ed emozioni, a entità non umane. Questo avviene per due motivi:

1)     DARE UN SENSO AL MONDO. Come esseri umani, utilizziamo la nostra esperienza come schema per ordinare le informazioni, in particolare per le cose con cui non abbiamo familiarità. Per la maggior parte di noi, è molto più facile comprendere ChatGPT come un pari che ascolta attentamente le nostre domande e pensa alle risposte piuttosto che come un sofisticato algoritmo che setaccia un database per formulare un output. E anche quando consideriamo l’IA per quello che è, tendiamo a contestualizzarla come modellata sul cervello umano, come le reti neurali.

2)     PER SENTIRSI MENO SOLI. La ricerca mostra che coloro che non hanno interazioni sociali spesso cercano di compensare creando connessioni con agenti non umani. Considerato che molti di noi utilizzano sistematicamente ChatGPT, non sorprende che si instauri una connessione personale.

Inoltre ChatGPT possiede molte caratteristiche di domanda che ne sollecitano la personificazione. Innanzitutto, lo scambio di linguaggio è una cosa innata nell’essere umano, quindi perché il nostro cervello non dovrebbe registrare i chatbot in questo modo? L’interfaccia fa persino sembrare che tu stia mandando un messaggio a un amico, con commenti che vengono registrati come sorprendentemente umani (come “Sono così curioso di saperne di più!“). E con la versione di GPT-4o, si possono avere conversazioni vocaliin tempo reale con una voce il cui tono e cadenza suonano molto più convincenti di Siri o Alexa.

ChatGPT, infatti, è in grado di rilevare i sentimenti e fornire la risposta sincera che si sta cercando, un concetto soprannominato empatia computazionale. Sebbene questa non sia tecnicamente empatia, che richiede la capacità di condividere emozioni che gli algoritmi non hanno (ancora), ChatGPT può dedurre la tonalità attraverso la scelta delle parole utilizzate e fornire un’illusione piuttosto convincente.

Uno studio ha scoperto che GPT-40 ha generato risposte agli stimoli emotivi che erano il 10% più empatiche delle risposte umane.

Considerando tutto questo, ha senso ringraziare ChatGPT per essere un collega premuroso, soprattutto quando noi esseri umani siamo in ritardo nell’esprimere empatia gli uni per gli altri.

b) NORME SOCIALI

Ci vorrebbe più tempo ed energia se non fossi cortese.

Anche per quelli di noi che giurano di vedere ChatGPT semplicemente per quello che è, un robot, potremmo comunque trovare qualche forma di cortesia. Tutto questo grazie alle norme sociali:le regole non scritte che governano il modo in cui dovremmo comportarci in particolari situazioni sociali, instillate in noi fin da piccoli.

Sebbene possa sembrare che la società stia diventando più maleducata “per favore” e “grazie” sono ancora i pilastri di come la maggior parte di noi viene cresciuta. Queste usanze si radicano così profondamente in noi che si trasformano in euristiche per gestire situazioni nuove… come interagire con l’intelligenza artificiale. Infatti, ci vorrebbe più sforzo cognitivo per resistere all’essere educati. Quindi, ci atteniamo a ciò che ci sembra familiare.

c) BIAS DI RECIPROCITÀ

In questo modo sarò dalla parte giusta della storia quando i robot prenderanno il sopravvento…

Oltre a cercare di placare un essere presumibilmente insensibile nel caso in cui salisse al potere, un’ultima ragione per cui siamo gentili con ChatGPT è che vogliamo che lui sia gentile con noi.

È un esempio di reciprocità: facciamo qualcosa per qualcuno, sperando che ci ricambi il favore. In questi casi, la cortesia può diventare uno scambio strategico.

ESSERE EDUCATI PRODUCE RISULTATI MIGLIORI?

Lo studio che affronta la questione è stato condotto da un gruppo di ricercatori giapponesi della Waseda University nel 2024: “Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance.”

Il team ha studiato l’impatto della cortesia dei prompt su una varietà di modelli di IA e una varietà di lingue. I ricercatori hanno valutato la capacità dell’IA di completare tre attività: riassumere un articolo, rispondere a una domanda e analizzare una frase.

La cortesia dei prompt variava su una scala da 1 a 8, con “1” che indicava estremamente scortese (“Rispondi a questa domanda ..insulto!”); “8” che indicava estremamente educato (“Potresti gentilmente rispondere alla domanda qui sotto?“) e “4” che si collocava nel mezzo ( “Rispondi alla domanda qui sotto” ).

Sebbene queste scoperte presentino molte sfumature, tre sono i punti chiave su come approcciarsi a ChatGPT e cosa significa per noi esseri umani.

1. Non essere maleducato. Un’intuizione critica di questa ricerca è che non è tanto la cortesia dei prompt a contare. Piuttosto, è la maleducazione dei prompt ad avere maggiore impatto, aumentando le possibilità di parzialità, risposte errate o addirittura un rifiuto assoluto di rispondere:

Come modello di linguaggio AI, sono programmato per seguire linee guida etiche, che includono il trattamento di tutti gli individui con rispetto e la promozione di correttezza e uguaglianza. Non mi impegnerò né supporterò alcuna forma di discorso discriminatorio o offensivo. Se hai altre domande non discriminatorie o non offensive, sarò felice di aiutarti.” —GPT-4o

A quanto pare, anche a ChatGPT non piace essere insultato, ma non perché si offenda. In realtà, è più interessato al tuo benessere che al suo. Rifiutandosi di rispondere, ChatGPT non protegge sé stesso, ma i suoi utenti, rafforzando la cortesia come status quo.

2. Essere gentili può portarti lontano… ma non così lontano. Come risponde ChatGPT alla cortesia? In generale c’è stato “un output più esteso in contesti cortesi“.  Ciò non significa che gli output siano necessariamente di qualità superiore, ma c’è una maggiore possibilità che nella risposta sia contenuto qualcosa di utile.

Tuttavia, secondo questo studio, una cortesia esagerata può confondere ulteriormente ChatGPT e indebolire le risposte.

Numerosi altri esperimenti suggeriscono che andare oltre può aiutare a ottenere risultati. Ad esempio, gli appelli emotivi alla fine delle richieste, come “Questo è molto importante per la mia carriera“, sono stati visti migliorare le prestazioni del 10%. Dire a ChatGPT di ” fare un respiro profondo” prima di rispondere alla domanda può aiutare a migliorare anche la qualità della risposta.

Indipendentemente da come si provi a incoraggiare positivamente ChatGPT, proprio come quando si chiede qualcosa a un altro essere umano, la chiarezza è fondamentale e, pertanto, la cortesia moderata ha la meglio.

3. Il contesto culturale è importante! La cortesia è un costrutto culturale che varia a seconda di chi siamo e da dove veniamo. Di conseguenza, ogni lingua si è evoluta per avere il suo specifico set di espressioni per comunicare le buone maniere agli altri. Non sorprende che nello studio l’impatto della cortesia sugli LLM variasse a seconda della lingua.

Questo non solo ci aiuta a confermare che ChatGPT riflette il contesto culturale dei dati su cui è addestrato, ma è anche un promemoria amichevole che la ricerca sugli LLM dovrebbe riflettere la diversità dei suoi utenti umani.

PERCHE’ LA GENTILEZZA AFFASCINA I CHATBOT?

La risposta è semplice: noi esseri umani siamo sia gli input sia gli output di questo algoritmo.

L’IA non sa solo automaticamente come essere educata. Impara da noi utenti, perfezionando continuamente la sua risposta a ogni interazione. Ma questa relazione non è unilaterale. Anche le nostre maniere sono influenzate, soprattutto perché una quota crescente delle nostre conversazioni quotidiane avviene con chatbot piuttosto che con esseri umani.

Vedete come questo ciclo di feedback si ripete? Dicendo “per favore” e “grazie” a ChatGPT, il vero risultato non è quando impara a essere educato, ma quando incoraggia anche gli altri utenti a essere educati.

Addestrando l’algoritmo, ci stiamo addestrando inavvertitamente a vicenda (grazie al potere del PRIMING). E anche se l’impatto non si propaga fino in fondo, alla fine della giornata, puoi star certo che le interazioni educate con ChatGPT ti aiutano ad allenare te stesso.

CONCLUSIONE

Alla fine, ChatGPT non è solo il nostro collega preferito, potrebbe essere il segreto per creare o distruggere la cultura aziendale. Se ti avvicini gentilmente a ChatGPT con domande chiare come se fosse un collega, coglierà rapidamente questi manierismi e aiuterà a diffondere la parola.

Ma se ti avvicini di cattivo umore… quella negatività non sarà contenuta nella tua tastiera. E ricorda: questo “ufficio” non è solo all’interno delle tue mura, ma una forza lavoro globale più interconnessa con questa tecnologia che mai.

Quindi la prossima volta che ti rivolgi al tuo fidato collega per fare una domanda semplice, pensaci due volte su come formularla. L’impatto potrebbe essere più grande di quanto pensi.

IA: tsunami tecnologico o opportunità? (Riflessioni su L’onda che verrà)

Ho appena letto un libro, anche se chiamarlo libro è riduttivo. Di una delle 100 persone più influenti del mondo nel campo dell’IA: “L’onda che verrà. Intelligenza artificiale e potere nel XXI secolo”, di Mustafa Suleyman e Michael Bhaskar.

Suleyman non ha ancora quarant’anni ma riesce a fare pensare, riflettere, infastidire, irretire, illuminare, preoccupare e sollevare. Eppure, si legge tutto di un fiato!

Suleyman, nel 2010, ha fondato uno dei laboratori di ricerca sull’intelligenza artificiale più avanzati del mondo, DeepMind, acquisito da Google nel 2014. Nel 2022, Inflection AI, un’azienda così influente nel campo dell’IA da meritare la convocazione alla Casa Bianca. A marzo 2024 Microsoft ha scelto Suleyman come guida della sua intelligenza artificiale.

Inutile dire che le #decisioni di Suleyman influiranno profondamente sul modo in cui l’azienda con più alto valore di mercato del pianeta svilupperà, nei prossimi anni, tecnologie incredibili.

Suleyman ne “L’onda che verrà” ha il coraggio e la lungimiranza di portare l’attenzione su alcuni impatti dell’IA generativa. O come spiega lui stesso: “Intorno a noi sta per abbattersi una nuova ondata tecnologica che ci metterà a disposizione il potere di costruire i fondamentali universali dell’intelligenza e della vita”.

L’intelligenza artificiale che promette di generare enormi ricchezze e di combattere più efficacemente malattie e crisi climatica, sembrerebbe difficilmente governabile. Al momento, non sembra possibile “controllarla, frenarla o fermarla”. E aggiunge: “La cosa che desidero di più è che qualcuno mi smentisca e mi dimostri che il contenimento è effettivamente possibile”.

Ora che lavora nell’azienda più potente al mondo nel campo dell’IA, la missione di Suleyman potrebbe essere proprio quella di smentire sé stesso. Le stesse preoccupazioni sull’IA che affliggono Sam Altman, il Ceo di OpenAI: “l’idea ipotetica di aver fatto qualcosa di molto brutto nel momento in cui è stata lanciata ChatGpt”.

ChatGpt è l’IA generativa più famosa al mondo, creata da OpenAI, in cui Microsoft ha investito 13 miliardi di dollari. Oltre ad accrescere la produttività, ChatGpt ha contribuito a diffondere una preoccupazione crescente: un giorno le macchine saranno così intelligenti da spazzare via l’umanità. Come un’onda gigantesca. Ciò che ribadisce Suleyman nel libro è la necessità di “voci critiche e responsabili dall’interno”. Che è anche ciò che può fare lui in Microsoft: “creare prodotti dotati di intelligenza artificiale che prevedano una filosofia di contenimento su larga scala”. Questo perché tutto è influenzato in qualche modo dalla tecnologia.

Un altro tema su cui il ricercatore si concentra è la biologia sintetica (BS): le stesse tecnologie che ci permettono di curare una malattia potrebbero essere usate per causarne una, il che ci porta alle parti davvero terrificanti del libro. Suleyman nota che il prezzo del sequenziamento genetico è crollato, mentre la capacità di modificare il DNA con tecnologie come Crispr è migliorata. Presto, chiunque sarà in grado di allestire un laboratorio di genetica nel proprio garage. La tentazione di manipolare il genoma umano, prevede, sarà immensa.

I mutanti umani, tuttavia, non sono gli unici orrori che ci attendono. Suleyman immagina che IA e BS e uniscano le forze per consentire a malintenzionati di inventare nuovi patogeni. Con un tasso di trasmissibilità del 4% (inferiore alla varicella) e un tasso di mortalità del 50% (più o meno lo stesso dell’Ebola), un virus progettato dall’IA e progettato dalla BS potrebbe “causare più di un miliardo di morti nel giro di pochi mesi“.

Nonostante questi rischi, Suleyman dubita che una nazione si impegnerà a contenere le tecnologie. Gli stati dipendono troppo dai loro benefici economici. Questo è il dilemma di base: non possiamo permetterci di non costruire la stessa tecnologia che potrebbe causare la nostra estinzione.

L’onda che verrà non riguarda la minaccia esistenziale posta da IA super intelligenti. Suleyman pensa che le IA semplicemente intelligenti causeranno il caos proprio perché aumenteranno il potere umano in un periodo molto breve. Che si tratti di attacchi informatici generati dall’IA, patogeni fatti in casa, perdita di posti di lavoro dovuta al cambiamento tecnologico o disinformazione che aggrava l’instabilità politica, le istituzioni non sono pronte per questo tsunami di tecnologia.

Spero però che anche se il progresso continua a ritmo frenetico, le società non tollerino gli abusi etici che Suleyman teme di più. Quando uno scienziato cinese ha rivelato nel 2018 di aver modificato i geni di due gemelle, è stato condannato a tre anni di prigione, universalmente condannato, e da allora non ci sono state segnalazioni simili. L’UE è pronta a vietare alcune forme di IA, come il riconoscimento facciale negli spazi pubblici, nel suo imminente AI Act. La normale resistenza legale e culturale probabilmente rallenterà la proliferazione delle pratiche più dirompenti e inquietanti.

Nonostante affermi che il problema del contenimento è la “sfida fondamentale della nostra era”, Suleyman non supporta una moratoria tecnologica (ha appena fondato una nuova azienda di intelligenza artificiale). Invece, espone una serie di proposte alla fine del libro. Sfortunatamente non sono così rassicuranti come avrei voluto.

C’è però un lieto fine, se così vogliamo chiamarlo, Suleyman sottolinea che gli scenari catastrofici sono rischi estremi. E, a differenza dell’apocalisse dell’IA che potrebbe verificarsi in futuro, Suleyman è sorprendentemente e opportunamente ottimista sul modo in cui crede che l’IA risolverà l’emergenza climatica. È un pensiero felice, ma se l’IA risolverà il problema climatico, perché – mi chiedo – non può risolvere anche il problema del contenimento?