Tag Archivio per: #errore

NON TUTTO va COME PREVISTO. IL BOOMERANG delle CONSEGUENZE INATTESE

Quando agiamo, solitamente, lo facciamo in funzione di un obiettivo. Per quanto ragionate siano le strategie, non sempre però il risultato è prevedibile. Talvolta ci stupisce in positivo, altre il risultato delle scelte attuate produce risultati perversi, tornando violentemente indietro come un boomerang.

Non sempre prevedere le conseguenze è facile, soprattutto perchè l’irrazionalità umana è tutt’altro che prevedibile.

Delhi, periodo coloniale

Il governo inglese dell’India, preoccupato per l’alto numero di serpenti nelle strade, decide di offrire una taglia per ogni esemplare ucciso. Molti indiani iniziano così ad allevare cobra con il preciso intento di ucciderli e incassare il denaro. Fino a che il governo si trova costretto ad eliminare la ricompensa. A quel punto però gli allevatori liberano i serpenti che invadono le strade della capitale, moltiplicandosi rapidamente. Da qui il nome di effetto cobra, un boomerang inatteso e piuttosto velenoso.

Password

Se da un lato dovrebbero rendere più sicura la navigazione, essendo spesso complicate, si fa fatica a ricordarle, quindi si appuntano su post it che si lasciano in giro, o le si raccolgono in un unico foglio, riducendo di fatto la sicurezza.

Effetto Streisand

Nel 2013 l’omonima cantante intenta una causa legale contro un fotografo che, effettuando riprese dall’alto per motivi scientifici (stava studiando l’erosione costiera), ha scattato un’immagine della sua villa di Malibu, pubblicandola. Anche se la foto l’hanno vista solo sei persone, Streisand accusa il fotografo di violazione della privacy. Risultato: la notizia (foto compresa) fa il giro del mondo. Streisand, tra l’altro, perde la causa.

Assuan, 1970

L’inaugurazione della diga fu salutata come una benedizione per l’agricoltura. Con il passare del tempo, comparve un serio problema. Prima del progetto, i sedimenti del Nilo rendevano fertili le pianure a valle di Assuan. Lo sbarramento tratteneva invece i sedimenti sul fondo del nuovo lago Nasser, rendendoli inutili. Gran parte dell’energia elettrica generata dalla diga dovette essere impiegata per alimentare impianti di fertilizzazione artificiale. Altro effetto boomerang: l’iniziale successo si ritorse, almeno in parte, contro se stesso.

5 CAUSE ALLA BASE DELLE CONSEGUENZE IMPREVISTE

Esperto conoscitore delle conseguenze inattese è il sociologo della Columbia University Robert K. Merton che evidenziò 5 possibili cause alla base delle conseguenze impreviste.
Ignoranza: non teniamo conto delle informazioni disponibili, o l’informazione disponibile è incompleta.
Errore e ragionamenti fallaci. Come mostrò il Nobel per l’Economia, Herbert Simon, la razionalità umana è limitata, non corrisponde a quella (perfetta) attribuita dalla teoria neoclassica all’Homo oeconomicus. Ignoranza ed errore sono costitutivamente inevitabili, e con loro gli effetti imprevisti dell’azione.
Prevalenza del breve periodo e pregiudizi di valore. Entrambe operano spesso nella sfera politica.
Profezie autoavveranti: quelle che si ritorcono contro chi le fa. Durante la crisi del 1929, molti risparmiatori si convinsero che le banche sarebbero fallite e si precipitarono a ritirare i propri risparmi. Rimasti a corto di liquidità, molti istituti fallirono per davvero.

Individuare i meccanismi alla base degli effetti non previsti significa poterli almeno in parte controllare; il boomerang veniva anticamente usato come arma da combattimento. Siccome, nel mondo sociale, gli effetti boomerang sono spesso negativi, è giusto comprenderne il funzionamento e mettere in atto le più efficaci tattiche di difesa. Cercando di sconfiggere la realtà prima che questa possa prendersi la rivincita.

Per fortuna le cose possono anche andare meglio del previsto, come nel caso di Alexander Fleming a cui si deve la scoperta della penicillina, il primo antibiotico, imbattendosi in una muffa, il penicillium notatum, che ha distrutto una delle colture di batteri su cui stava lavorando. O la vicenda di un padrone di casa che aumenta la pigione ai due inquilini. La conseguenza inattesa è l’invenzione di Airbnb da parte dei due che, per far quadrare i conti, decidono di affittare i tre materassi ad aria che hanno in casa (ecco svelata la ragione dietro il prefisso Air)

NON GRIDARE al LUPO, ORGANIZZA i DATI!

L’incertezza ci spinge a fare cose insensate. Qualcuno, per esempio, pensa di poter sconfiggere il coronavirus, andando in giro anziché stare a casa, come se fosse una questione di coraggio e altri che si barricano fra le mura domestiche,  rifiutandosi anche solo di parlare con il proprio partner.

Ognuno di noi affronta l’ignoto secondo regole ben note a chi mastica di scienze comportamentali, l’irrazionalità perversa e cadere in errore è quasi scontato. Eppure, in casi come questi, basterebbe affidarsi ai dati, ai fatti. Quelli veri, ovviamente!

Parlando con un collega, abbiamo rispolverato, non a caso, Factfulness il libro di Hans Rosling, il medico svedese che ha vissuto 20 anni in Congo per studiare e combattere il konzo, una malattia epidemica paralizzante.

L’ISTINTO DELLA LINEA RETTA

Rosling sintetizza le 10 ragioni per le quali non capiamo il mondo e quindi prendiamo sonore cantonate. Sviste che a volte ci fanno perdere soldi, altre la vita o quanto meno la salute. Sapevi, per esempio, che abbiamo l’abitudine ad assumere che una certa tendenza continui lungo una linea retta in perpetuo. La realtà, però, è molto diversa ma il nostro istinto ci impedisce di vedere la vita così com’è e considerare dati e fatti nel giusto modo.

Rosling per far capire il concetto, racconta di un focolaio di Ebola che colpì la Liberia. Come la maggior parte delle persone, supponeva che il numero di casi sarebbe continuato in linea retta: ogni persona infettava, in media, un’altra persona.

In questo modo è relativamente facile prevedere e controllare l’andamento dell’epidemia. Tuttavia, il medico svedese si imbattè in un rapporto dell’OMS secondo cui il numero di infezioni raddoppiava. Ogni persona infettava, non una ma due persone in media prima di morire.

ANDIAMO IN AUTOMATICO… MA I NUMERI VANNO LETTI IN ALTRO MODO

Facciamo un passo indietro e guardiamo all’errore in un altro modo.

Molti presumono che la popolazione mondiale stia aumentando. Pertanto se non venisse fatto nulla, raggiungerà livelli insostenibili, il che significa che deve accadere qualcosa di drastico per evitare che questa tendenza peggiori. Tuttavia, i dati delle Nazioni Unite mostrano che il tasso di aumento della popolazione sta rallentando. Con il miglioramento delle condizioni di vita, il numero di bambini per famiglia diminuisce. In pratica la crescita può essere controllata combattendo la povertà estrema.

Rosling usa l’esempio di un bambino. Nei primi anni di vita, neonati e bambini crescono rapidamente. Se si dovesse estrapolare questa crescita per il futuro, i bambini di dieci anni sarebbero più alti di quanto lo sono in realtà. Ma ciò non accade: tutti sappiamo come il tasso di crescita in realtà rallenti nel tempo.

Di fronte a situazioni sconosciute, assumiamo che uno schema continui in linea retta. Invece dovremmo ricordare che i grafici si muovono in molte forme strane, e le linee rette sono rare. Ad esempio, la relazione tra istruzione primaria e vaccinazione è una curva a S; i livelli di reddito in un paese e le morti per traffico è una gobba. Possiamo prevedere la progressione di un fenomeno capendo la forma della sua curva. Altrimenti si avranno solo assunzioni errate e false conclusioni che a loro volta porteranno a soluzioni inefficaci.

Tornando all’Ebola Rosling non si capacitava della curva di morti che si ingigantiva sempre di più e diceva sempre meno sulla tendenza dei casi confermati ed effettivi. “Se non si riesce a misurare i progressi, non si capisce se le misure adottate funzionino”. Il medico così cambiò modo di analisi, non solo prese a conteggiare i morti ma anche a monitorare l’efficacia dei trattamenti e dei comportamenti attuati per fermare l’epidemia.

GRIDARE AL LUPO VS ORGANIZZARE I DATI

Quando un problema sembra urgente, la prima cosa da fare non è gridare al lupo, ma organizzare i dati”. E i dati confermarono che il numero di casi aveva raggiunto il picco due settimane prima e che stava diminuendo. I liberiani intanto avevano cambiato atteggiamento: niente abbracci e niente strette di mano, nessun contatto fisico superfluo, scrupolosa obbedienza alle severe norme igieniche imposte a locali pubblici e privati.

Spesso alimentare un senso di urgenza ci dà l’impressione di fare qualcosa e quindi di ottenere risorse più velocemente, ma come si dimostrò con l’ebola così facendo si convogliavano soldi e risorse verso obiettivi sbagliati. Ed è un po’ quello che sta succedendo ora con il corona virus.

L’urgenza distorce la realtà e genera la sensazione dell’adesso o mai più.

ANTIDOTO

L’antidoto? Analizzare dati e fatti con metodi statistici e non lasciarsi influenzare dalle voci di corridoio, dalle chiacchiere da bar o dai post di persone non preparare sull’argomento. “I dati occorre usarli per dire la verità, non per esortare il pubblico all’azione, a prescindere da quanto le intenzioni siano nobili”.

ERRARE E’ UMANO, AMMETTERLO è DIABOLICO (ma NECESSARIO)

Gli errori sono dolorosi. Soprattutto in un periodo storico in cui l’evidenza dell’errore è disponibile su internet h24. Insomma, sottrarsi al giudizio e all’accusa è quasi impossibile.

Gli errori sono dolorosi e inevitabili. Il trucco per soffrirne meno, non è non sbagliare ma sbagliare bene, riconoscendo la nostra fallacia e trarne insegnamento. Farne, direbbero in molti, lezioni imparate.

Prendersi la responsabilità dei propri errori è cosa ardua, più ancora che non sbagliare. A pochi piace essere colti in fallo. E pur di evitare la pubblica flagellazione, spesso ci rifiutiamo persino di prendere in considerazione le prove dell’errore.

Gli economisti per decenni hanno sbandierato a gran voce la razionalità umana, assumendo che di fronte a un nuovo dato di fatto, le persone rivedono la loro visione del mondo. Un numero infinito di studi ha dimostrato l’altrettanto numero infinito di modi in cui la mente umana si allontana, invece, dalla razionalità.

Una ricerca del 2016, condotta da Bénadou (università di Princeton) e Tirole (Toulouse school of economics) ha mostrato come invece le convinzioni assomiglino a beni economici: “le persone spendono tempo e risorse per costruirle e gli attribuiscono un valore. La convinzione che una persona sia un buon venditore può creare la fiducia necessaria a concludere delle vendite. Eppure, poiché le convinzioni non sono semplici strumenti utili per prendere decisioni buone, nuove informazioni che le mettono in dubbio, non è bene accetta”.

Quindi cosa facciamo? Ci impelaghiamo in “ragionamenti motivati” per gestire sfide di questo tipo. I due ricercatori hanno identificato 3 categorie:
– l’ignoranza strategica: quando si evitano informazioni che offrono prove in conflitto con la propria credenza
– la negazione della realtà: quando le prove che pongono nuovi problemi sono allontanate razionalmente
– l’auto segnalazione: quando si creano strumenti per interpretare i fatti come meglio si crede

I ragionamenti motivati sono distorsioni cognitive, bias, a cui siamo soggetti tutti, in particolare le persone dall’istruzione elevata.

Non sempre, queste distorsioni, portano a errori gravi: sostenere la superiorità di una squadra di calcio anche se le prove dicono il contrario, non ha grandi conseguenze. Se però le distorsioni sono condivise all’interno di una realtà organizzativa in difficoltà, nei mercati finanziari o nei partiti politici, il pericolo può non essere trascurabile.

Abbassare il prezzo da pagare per l’ammissione di un errore potrebbe essere un modo per disinnescare bias di questo tipo. La rivista Econ Journal Watch ha chiesto a influenti economisti di presentare le dichiarazioni di cui si rammaricano di più. Alcune analisi sono state illuminanti come quella di Tyler Cowen, noto economista statunitense (esponente della scuola austriaca, docente alla George Mason University, nonché editorialista economico per il New York Times), in cui ha spiegato come e perché avesse sottostimato i rischi della crisi nel 2007.

Esercizi di questo tipo, se condotti con regolarità, potrebbero eliminare la vergogna di dover cambiare opinione. Pur considerato che scusarsi pubblicamente è rischioso in quanto fornisce materiale di propaganda agli avversari ideologici e infastidisce i colleghi dalle simili visioni.

Nel tempo però l’autocensura erode la fiducia. Insomma pretendere di non sbagliare mai, non attira i consensi e non conviene neppure a chi ha ragione.

SAPER DECIDERE può AIUTARE a SALVARE molte VITE

Vi racconterò una storia. Una storia che parla di uomini e di macchine. E di come un ingegnere salvò il mondo da una apocalisse nucleare, facendo una scelta che nessuna macchina è ancora stata programmata a compiere: lasciar decidere il cuore.

Correva l’anno 1983, si era in piena guerra fredda, e un uomo di cui la maggior parte del mondo non aveva mai sentito parlare, sarebbe diventato il più grande eroe di tutti i tempi.

Era notte il 25 settembre, quando un colonnello di 44 anni della sezione spionaggio militare dei servizi segreti dell’Unione Sovietica giunse al proprio posto di comando al Centro di allerta precoce, da dove coordinava la difesa aerospaziale russa.

Suo compito era analizzare e verificare tutti i dati provenienti da un satellite, in vista di un possibile attacco nucleare americano. Per far ciò, aveva a disposizione un protocollo semplice e chiaro. Tanto più chiaro e semplice in quanto redatto da lui stesso. Dopo appropriati controlli, se positivi, suo compito era allertare il superiore, che avrebbe immediatamente dato inizio ad un massiccio contrattacco nucleare su Stati Uniti e alleati.

Poco dopo mezzanotte, alle 12.14 del 26 settembre del ‘83, tutti i sistemi di allarme scattarono e sugli schermi comparve: “attacco imminente di missile nucleare“.

Un missile era stato lanciato da una delle basi degli Stati Uniti.

L’ufficiale verificò i dati, richiedendo conferma dalla veduta aerea, l’unica che il satellite non aveva potuto confermare a causa delle condizioni atmosferiche. Nonostante le conferme, concluse che doveva essersi verificato un errore: non era logico che gli USA lanciassero un solo missile se davvero stavano attaccando l’Unione Sovietica.
Così ignorò l’avviso, considerandolo un falso allarme.
Poco dopo, però, il sistema mostrò un secondo missile. E poi un terzo.
Dal secondo piano del bunker poteva vedere, nella sala operativa, la grande mappa elettronica degli Stati Uniti con la spia lampeggiante indicante la base militare sulla costa est, da cui erano stati lanciati i missili nucleari.
In quel momento, il sistema indicò un altro attacco. Un quarto missile nucleare e immediatamente un quinto.
In meno di 5 minuti, 5 missili nucleari erano stati lanciati da basi americane contro l’URSS. Il tempo di volo di un missile balistico intercontinentale dagli Stati Uniti era: 20 minuti.

Dopo aver rilevato l’obiettivo, il sistema di allarme doveva passare attraverso 29 livelli di sicurezza per conferma; l’ufficiale cominciava ad avere forti dubbi man mano che venivano superati i vari livelli di sicurezza.
Sapeva che il sistema poteva avere qualche malfunzionamento. Ma poteva l’intero sistema essere in errore, 5 volte?
Il principio di base della strategia della guerra fredda sarebbe stato un massiccio lancio di armi nucleari, una forza travolgente e contemporanea di centinaia di missili, non 5 missili uno a uno. Doveva esserci un errore.
E se invece non fosse così? Se fosse una astuta strategia americana? L’olocausto tanto temuto stava per succedere e lui non faceva niente?

Aveva cinque missili nucleari balistici intercontinentali in viaggio verso l’URSS e solo 10 minuti per prendere la decisione se informare i leader sovietici… Essendo pienamente consapevole che se avesse segnalato ciò che tutti i sistemi stavano confermando, avrebbe scatenato la terza guerra mondiale.

I 120 tra ufficiali e ingegneri militari, aspettavano la sua decisione.
Mai prima nella storia, né dopo, sarebbe stato il destino del mondo nelle mani di un solo uomo come lo fu in quei 10 minuti. Il futuro del mondo dipendeva dalla sua decisione, mentre lottava con sé stesso se premere o meno il “bottone rosso”.
Riflettè: gli americani non sono ancora in possesso di un sistema di difesa missilistico e sanno che un attacco nucleare all’URSS equivale all’annientamento immediato del proprio popolo. E benché diffidi di loro, sa che non sono suicidi.”
Sapendo che se si fosse sbagliato, un’esplosione 250 volte maggiore rispetto a quella di Hiroshima si sarebbe scatenata su di loro su di loro entro pochi minuti, riuscì a mantenere il sangue freddo, e ad avere il coraggio di ascoltare il proprio istinto e di conformarsi alla conclusione logica suggerita dal buonsenso.
E decise di segnalare un malfunzionamento del sistema.
Paralizzati, i 120 uomini al suo comando contarono i minuti che mancavano perché i missili raggiungessero Mosca.
Quando, a pochi secondi dalla fine, le sirene smisero di suonare e le spie di allarme si spensero.

Aveva preso la decisione giusta. E salvato il mondo.

Questo uomo, il tenente colonnello “Stanislaw Petrof” si è trovato di fronte a una scelta. Quella di escludere la razionalità di una macchina a fronte dell’stinto proprio di un essere umano. E ha avuto ragione.

Epilogo
Non fu un epilogo felice quello del tenente colonnello Petrof.
La Russia non potendo permettere che gli Stati Uniti e il popolo russo venissero a conoscenza di quanto successo, ammonirono l’ufficiale per non aver essersi conformato al protocollo e lo trasferirono ad una posizione di gerarchia minore. Poco dopo fu mandato in pensionamento anticipato.
Ha vissuto il resto della sua vita in un modestissimo bilocale alla periferia di Mosca, sopravvivendo con una misera pensione di 200 dollari al mese, in assoluta solitudine e anonimato.
Fino a quando, nel 1998, il suo comandante in capo, Yury Votintsev, presente quella sera, ha rivelato l’accaduto, il cosiddetto “incidente dell’equinozio d’autunno” causato da una rarissima congiunzione astronomica, in un libro di memorie che accidentalmente arrivò fino a Douglas Mattern, Presidente dell’organizzazione internazionale per la pace, “Associazione di cittadini del mondo”.
Dopo aver verificato la veridicità della storia, è andato di persona in cerca di questo eroe sconosciuto, per consegnargli il “Premio Cittadino del Mondo”.
L’unico indizio su dove trovarlo l’aveva avuto da un giornalista russo, che lo aveva avvertito che avrebbe dovuto andare senza un appuntamento perché né il telefono né il campanello funzionavano.
Trovarne traccia in una fila enorme di grigi complessi condominiali a 50 chilometri da Mosca non fu facile.
Uno degli abitanti a cui chiese informazioni rispose: “Lei deve essere pazzo. Se esistesse davvero un uomo che ha ignorato un avviso di attacco nucleare degli Stati Uniti, sarebbe stato giustiziato. A quel tempo non esisteva una cosa come un falso allarme in Unione Sovietica. Il sistema non sbagliava mai. Solo il popolo”.

Al secondo piano di uno degli edifici, riuscì a rintracciare l’ufficiale, che si affacciò, la barba lunga e trasandato. Dopo aver raccontato la storia, quest’uomo vi direbbe: “Non mi considero un eroe; solo un ufficiale che ha compiuto il proprio dovere secondo coscienza in un momento di grande pericolo per l’umanità “. “Ero solo la persona giusta, nel luogo e nel momento giusto.”
Dopo essere venuti a conoscenza di questo evento, esperti di Stati Uniti e Russia hanno calcolato quale sarebbe stata la portata della devastazione in base all’arsenale a loro disposizione al tempo.
E sono arrivati ad un’agghiacciante conclusione: dai tre ai quattro miliardi di persone, direttamente e indirettamente, sono stati salvati dalla decisione presa da quest’uomo quella notte.
“La faccia della terra sarebbe stata sfigurata e il mondo che conosciamo, finito”, ha detto uno degli esperti.

Per questo motivo, in questo periodo storico della decisione basata sul buon senso che ha salvato il mondo, essere consapevoli di come scegliamo, può fare la differenza.