Tag Archivio per: #errore

PERCHE’ le DONNE vengono SPINTE giù dalla SCOGLIERA di VETRO…

Non lasciatevi ingannare dal nome poetico, quasi romantico, di un fenomeno frequente ma di cui si parla poco, troppo poco: il glass cliff o scogliera di cristallo. Che attanaglia le donne al comando in ambienti tradizionalmente appannaggio degli uomini.

Se una volta l’incubo delle donne in carriera di chiamava glass ceiling (soffitto di vetro), quelle situazioni lavorative in cui l’avanzamento di carriera viene impedito per discriminazioni (in genere di carattere razziale o sessuale), oggi l’ostacolo peggiore è il glass cliff (scogliera di vetro).

Coniato da Michelle Ryan e Alex Haslam dell’Università di Exeter, nel 2004, il termine indica la situazione in cui si trovano quelle donne che, pur avendo successo in ruoli tradizionalmente maschili, sono più a rischio di perdere il lavoro e di essere giudicate più severamente o meno competenti dei colleghi maschi, di fronte allo stesso errore.

Come dimostra lo studio dell’Università di Yale “How Won and Easily Lost” che ha analizzato come sono state percepite le decisioni del capo della polizia, prese durante una rissa in una manifestazione. Quando il numero di agenti inviati sul posto era inferiore rispetto la portata degli scontri, se il capo era donna veniva giudicata molto più severamente rispetto se al comando c’era un collega uomo e malgrado i due avessero commesso lo stesso errore.

Lo studio di Yale ha preso in esame anche altre occupazioni: nell’ingegneria aerospaziale e in qualità di giudice supremo. Va riconosciuto che l’effetto non risparmia gli uomini: quando sono chiamati a fare lavori tradizionalmente femminili le conclusioni sono risultate le stesse.

Entriamo nel dettaglio.

COS’È L’EFFETTO SCOGLIERA DI VETRO?

L’effetto Glass Cliff è un fenomeno che descrive la tendenza delle donne a ricoprire posizioni di leadership durante periodi di crisi o quando c’è un alto rischio di fallimento. Questo concetto si basa sull’idea che le donne sono considerate più brave nel trattare con le persone e vengono quindi messe alla guida quando c’è bisogno di un approccio empatico o educativo. Tuttavia, ciò significa anche che le donne hanno maggiori probabilità di fallire, poiché spesso vengono loro affidate le redini quando le cose stanno già andando male.

Ciò suggerisce che le donne sono spesso viste come “ultima risorsa” e vengono coinvolte per cercare di cambiare la situazione.

Altri studi hanno confermato l’esistenza dell’effetto Glass Cliff in vari contesti. Una ricerca sulle elezioni politiche nel Regno Unito ha rilevato che le donne avevano maggiori probabilità di essere selezionate come candidate in seggi impossibili da vincere, mentre gli uomini avevano maggiori probabilità di essere selezionati in seggi considerati sicuri. Ciò suggerisce che le donne vengono spesso messe in posizioni in cui il successo è improbabile e hanno quindi maggiori probabilità di sperimentare il fallimento.

LE RAGIONI DEL GLASS CLIFF

Le donne sono spesso viste come più premurose ed empatiche, e quindi si ritiene siano più brave a trattare con le persone. Ciò può renderle una buona scelta per posizioni di leadership in cui è necessario un approccio collaborativo. Tuttavia, ciò può anche significare che sono considerate meno competenti quando si tratta di competenze difficili come la finanza o la strategia. Ciò significa che hanno maggiori probabilità di venir criticate rispetto agli uomini, il che può rendere loro più difficile il successo. Uno studio condotto su CEO donne ha rilevato che avevano maggiori probabilità di essere prese di mira da investitori attivisti rispetto agli AD uomini.

NATURA DI GENERE E ASSUNZIONE DI RISCHI

La leadership e l’assunzione di rischi sono stati a lungo associati alla mascolinità. Gli uomini sono spesso visti come leader naturali e amanti del rischio, mentre le donne come più avverse al rischio e meno propense ad assumere posizioni di leadership. Questa percezione di genere ha portato le donne a essere sottorappresentate nelle posizioni di comando e a essere trascurate per opportunità ad alto rischio e ad alto rendimento. Tuttavia, recenti ricerche hanno dimostrato che le donne:

– Non sono intrinsecamente avverse al rischio; sono semplicemente più caute quando si tratta di potenziali perdite.

– Hanno maggiori probabilità di essere nominate in posizioni di comando in tempi di crisi o situazioni ad alto rischio perché meglio attrezzate per gestire tali contesti e migliori problem solvers. Ciò significa però che le probabilità di fallire sono maggiori.

– Quando vengono nominate in posizioni di leadership durante una crisi, ricevono meno sostegno e risorse rispetto ai colleghi maschi. Ciò rende loro più difficile avere successo e può far sì che il loro fallimento venga visto come una prova del fatto che non siano efficaci in quel ruolo.

CASI ECLATANTI

La letteratura ha dimostrato che le donne in posizioni di comando durante i periodi di crisi sono spesso destinate al fallimento, poiché le sfide da affrontare sono più complesse.

Nel 2003, Carly Fiorina divenne AD di Hewlett-Packard. È stata la prima donna a guidare un’azienda Fortune 20, ma il suo mandato è stato segnato da forti polemiche e alla fine si è concluso con il licenziamento. La sua nomina è arrivata in un momento in cui HP stava affrontando un calo delle vendite e dei profitti e le è stato affidato il compito di risanare l’azienda.

Nel 2014, Marissa Mayer ha preso il timone di Yahoo, che faticava a competere con Google e Facebook. È stata acclamata come una salvatrice per l’azienda, ma il suo mandato è stato segnato da polemiche. Nonostante gli sforzi per risanare l’azienda, alla fine è stata rimossa dalla posizione.

Theresa May, Primo Ministro del Regno Unito nel 2016. Le è stato affidato il compito di guidare il Paese attraverso uno dei periodi più difficili della sua storia. Nonostante i suoi sforzi per negoziare un accordo sulla Brexit, la sua leadership è stata criticata e alla fine è stata costretta a dimettersi.

L’IMPORTANZA DI UN CAMBIAMENTO ORGANIZZATIVO

La necessità di un cambiamento organizzativo è un aspetto cruciale che non può essere ignorato quando si parla dell’effetto scogliera di vetro. Nelle situazioni di crisi l’organizzazione è già in una posizione vulnerabile e ci si aspetta che il leader cambi la situazione. La pressione per avere successo è elevata e le conseguenze del fallimento sono disastrose.

Per cominciare, le aziende devono riconoscere il valore della diversità e dell’inclusione. Ciò significa che alle donne dovrebbero essere assegnati ruoli di leadership sia nei momenti buoni sia in quelli cattivi, non solo quando un’azienda è in crisi. Significa anche che le donne dovrebbero avere le stesse opportunità di avanzamento degli uomini.

Le donne devono essere sostenute e guidate durante tutta la loro carriera. Ciò può essere fatto attraverso programmi formali di mentoring o creando una cultura in cui le donne sono incoraggiate a cercare mentori e sponsor.

Le aziende devono affrontare le questioni sistemiche che contribuiscono all’effetto glass cliff. Ciò include la lotta ai pregiudizi nelle decisioni di assunzione e promozione, nonché la creazione di una cultura che supporti l’equilibrio tra lavoro e vita privata. Di fatto per andare oltre al glass cliff è importante riconoscere che non è solo responsabilità delle donne. Anche gli uomini svolgono un ruolo fondamentale nella creazione di un contesto lavorativo più equo. E dovrebbero essere incoraggiati a essere alleati nella lotta per l’uguaglianza di genere.

Insomma, il discorso è ampio. Parlarne, affrontarlo apertamente è il primo passo. Anzichè guardare dall’altra parte…

NON TUTTO va COME PREVISTO. IL BOOMERANG delle CONSEGUENZE INATTESE

Quando agiamo, solitamente, lo facciamo in funzione di un obiettivo. Per quanto ragionate siano le strategie, non sempre però il risultato è prevedibile. Talvolta ci stupisce in positivo, altre il risultato delle scelte attuate produce risultati perversi, tornando violentemente indietro come un boomerang.

Non sempre prevedere le conseguenze è facile, soprattutto perchè l’irrazionalità umana è tutt’altro che prevedibile.

Delhi, periodo coloniale

Il governo inglese dell’India, preoccupato per l’alto numero di serpenti nelle strade, decide di offrire una taglia per ogni esemplare ucciso. Molti indiani iniziano così ad allevare cobra con il preciso intento di ucciderli e incassare il denaro. Fino a che il governo si trova costretto ad eliminare la ricompensa. A quel punto però gli allevatori liberano i serpenti che invadono le strade della capitale, moltiplicandosi rapidamente. Da qui il nome di effetto cobra, un boomerang inatteso e piuttosto velenoso.

Password

Se da un lato dovrebbero rendere più sicura la navigazione, essendo spesso complicate, si fa fatica a ricordarle, quindi si appuntano su post it che si lasciano in giro, o le si raccolgono in un unico foglio, riducendo di fatto la sicurezza.

Effetto Streisand

Nel 2013 l’omonima cantante intenta una causa legale contro un fotografo che, effettuando riprese dall’alto per motivi scientifici (stava studiando l’erosione costiera), ha scattato un’immagine della sua villa di Malibu, pubblicandola. Anche se la foto l’hanno vista solo sei persone, Streisand accusa il fotografo di violazione della privacy. Risultato: la notizia (foto compresa) fa il giro del mondo. Streisand, tra l’altro, perde la causa.

Assuan, 1970

L’inaugurazione della diga fu salutata come una benedizione per l’agricoltura. Con il passare del tempo, comparve un serio problema. Prima del progetto, i sedimenti del Nilo rendevano fertili le pianure a valle di Assuan. Lo sbarramento tratteneva invece i sedimenti sul fondo del nuovo lago Nasser, rendendoli inutili. Gran parte dell’energia elettrica generata dalla diga dovette essere impiegata per alimentare impianti di fertilizzazione artificiale. Altro effetto boomerang: l’iniziale successo si ritorse, almeno in parte, contro se stesso.

5 CAUSE ALLA BASE DELLE CONSEGUENZE IMPREVISTE

Esperto conoscitore delle conseguenze inattese è il sociologo della Columbia University Robert K. Merton che evidenziò 5 possibili cause alla base delle conseguenze impreviste.
Ignoranza: non teniamo conto delle informazioni disponibili, o l’informazione disponibile è incompleta.
Errore e ragionamenti fallaci. Come mostrò il Nobel per l’Economia, Herbert Simon, la razionalità umana è limitata, non corrisponde a quella (perfetta) attribuita dalla teoria neoclassica all’Homo oeconomicus. Ignoranza ed errore sono costitutivamente inevitabili, e con loro gli effetti imprevisti dell’azione.
Prevalenza del breve periodo e pregiudizi di valore. Entrambe operano spesso nella sfera politica.
Profezie autoavveranti: quelle che si ritorcono contro chi le fa. Durante la crisi del 1929, molti risparmiatori si convinsero che le banche sarebbero fallite e si precipitarono a ritirare i propri risparmi. Rimasti a corto di liquidità, molti istituti fallirono per davvero.

Individuare i meccanismi alla base degli effetti non previsti significa poterli almeno in parte controllare; il boomerang veniva anticamente usato come arma da combattimento. Siccome, nel mondo sociale, gli effetti boomerang sono spesso negativi, è giusto comprenderne il funzionamento e mettere in atto le più efficaci tattiche di difesa. Cercando di sconfiggere la realtà prima che questa possa prendersi la rivincita.

Per fortuna le cose possono anche andare meglio del previsto, come nel caso di Alexander Fleming a cui si deve la scoperta della penicillina, il primo antibiotico, imbattendosi in una muffa, il penicillium notatum, che ha distrutto una delle colture di batteri su cui stava lavorando. O la vicenda di un padrone di casa che aumenta la pigione ai due inquilini. La conseguenza inattesa è l’invenzione di Airbnb da parte dei due che, per far quadrare i conti, decidono di affittare i tre materassi ad aria che hanno in casa (ecco svelata la ragione dietro il prefisso Air)

NON GRIDARE al LUPO, ORGANIZZA i DATI!

L’incertezza ci spinge a fare cose insensate. Qualcuno, per esempio, pensa di poter sconfiggere il coronavirus, andando in giro anziché stare a casa, come se fosse una questione di coraggio e altri che si barricano fra le mura domestiche,  rifiutandosi anche solo di parlare con il proprio partner.

Ognuno di noi affronta l’ignoto secondo regole ben note a chi mastica di scienze comportamentali, l’irrazionalità perversa e cadere in errore è quasi scontato. Eppure, in casi come questi, basterebbe affidarsi ai dati, ai fatti. Quelli veri, ovviamente!

Parlando con un collega, abbiamo rispolverato, non a caso, Factfulness il libro di Hans Rosling, il medico svedese che ha vissuto 20 anni in Congo per studiare e combattere il konzo, una malattia epidemica paralizzante.

L’ISTINTO DELLA LINEA RETTA

Rosling sintetizza le 10 ragioni per le quali non capiamo il mondo e quindi prendiamo sonore cantonate. Sviste che a volte ci fanno perdere soldi, altre la vita o quanto meno la salute. Sapevi, per esempio, che abbiamo l’abitudine ad assumere che una certa tendenza continui lungo una linea retta in perpetuo. La realtà, però, è molto diversa ma il nostro istinto ci impedisce di vedere la vita così com’è e considerare dati e fatti nel giusto modo.

Rosling per far capire il concetto, racconta di un focolaio di Ebola che colpì la Liberia. Come la maggior parte delle persone, supponeva che il numero di casi sarebbe continuato in linea retta: ogni persona infettava, in media, un’altra persona.

In questo modo è relativamente facile prevedere e controllare l’andamento dell’epidemia. Tuttavia, il medico svedese si imbattè in un rapporto dell’OMS secondo cui il numero di infezioni raddoppiava. Ogni persona infettava, non una ma due persone in media prima di morire.

ANDIAMO IN AUTOMATICO… MA I NUMERI VANNO LETTI IN ALTRO MODO

Facciamo un passo indietro e guardiamo all’errore in un altro modo.

Molti presumono che la popolazione mondiale stia aumentando. Pertanto se non venisse fatto nulla, raggiungerà livelli insostenibili, il che significa che deve accadere qualcosa di drastico per evitare che questa tendenza peggiori. Tuttavia, i dati delle Nazioni Unite mostrano che il tasso di aumento della popolazione sta rallentando. Con il miglioramento delle condizioni di vita, il numero di bambini per famiglia diminuisce. In pratica la crescita può essere controllata combattendo la povertà estrema.

Rosling usa l’esempio di un bambino. Nei primi anni di vita, neonati e bambini crescono rapidamente. Se si dovesse estrapolare questa crescita per il futuro, i bambini di dieci anni sarebbero più alti di quanto lo sono in realtà. Ma ciò non accade: tutti sappiamo come il tasso di crescita in realtà rallenti nel tempo.

Di fronte a situazioni sconosciute, assumiamo che uno schema continui in linea retta. Invece dovremmo ricordare che i grafici si muovono in molte forme strane, e le linee rette sono rare. Ad esempio, la relazione tra istruzione primaria e vaccinazione è una curva a S; i livelli di reddito in un paese e le morti per traffico è una gobba. Possiamo prevedere la progressione di un fenomeno capendo la forma della sua curva. Altrimenti si avranno solo assunzioni errate e false conclusioni che a loro volta porteranno a soluzioni inefficaci.

Tornando all’Ebola Rosling non si capacitava della curva di morti che si ingigantiva sempre di più e diceva sempre meno sulla tendenza dei casi confermati ed effettivi. “Se non si riesce a misurare i progressi, non si capisce se le misure adottate funzionino”. Il medico così cambiò modo di analisi, non solo prese a conteggiare i morti ma anche a monitorare l’efficacia dei trattamenti e dei comportamenti attuati per fermare l’epidemia.

GRIDARE AL LUPO VS ORGANIZZARE I DATI

Quando un problema sembra urgente, la prima cosa da fare non è gridare al lupo, ma organizzare i dati”. E i dati confermarono che il numero di casi aveva raggiunto il picco due settimane prima e che stava diminuendo. I liberiani intanto avevano cambiato atteggiamento: niente abbracci e niente strette di mano, nessun contatto fisico superfluo, scrupolosa obbedienza alle severe norme igieniche imposte a locali pubblici e privati.

Spesso alimentare un senso di urgenza ci dà l’impressione di fare qualcosa e quindi di ottenere risorse più velocemente, ma come si dimostrò con l’ebola così facendo si convogliavano soldi e risorse verso obiettivi sbagliati. Ed è un po’ quello che sta succedendo ora con il corona virus.

L’urgenza distorce la realtà e genera la sensazione dell’adesso o mai più.

ANTIDOTO

L’antidoto? Analizzare dati e fatti con metodi statistici e non lasciarsi influenzare dalle voci di corridoio, dalle chiacchiere da bar o dai post di persone non preparare sull’argomento. “I dati occorre usarli per dire la verità, non per esortare il pubblico all’azione, a prescindere da quanto le intenzioni siano nobili”.

ERRARE E’ UMANO, AMMETTERLO è DIABOLICO (ma NECESSARIO)

Gli errori sono dolorosi. Soprattutto in un periodo storico in cui l’evidenza dell’errore è disponibile su internet h24. Insomma, sottrarsi al giudizio e all’accusa è quasi impossibile.

Gli errori sono dolorosi e inevitabili. Il trucco per soffrirne meno, non è non sbagliare ma sbagliare bene, riconoscendo la nostra fallacia e trarne insegnamento. Farne, direbbero in molti, lezioni imparate.

Prendersi la responsabilità dei propri errori è cosa ardua, più ancora che non sbagliare. A pochi piace essere colti in fallo. E pur di evitare la pubblica flagellazione, spesso ci rifiutiamo persino di prendere in considerazione le prove dell’errore.

Gli economisti per decenni hanno sbandierato a gran voce la razionalità umana, assumendo che di fronte a un nuovo dato di fatto, le persone rivedono la loro visione del mondo. Un numero infinito di studi ha dimostrato l’altrettanto numero infinito di modi in cui la mente umana si allontana, invece, dalla razionalità.

Una ricerca del 2016, condotta da Bénadou (università di Princeton) e Tirole (Toulouse school of economics) ha mostrato come invece le convinzioni assomiglino a beni economici: “le persone spendono tempo e risorse per costruirle e gli attribuiscono un valore. La convinzione che una persona sia un buon venditore può creare la fiducia necessaria a concludere delle vendite. Eppure, poiché le convinzioni non sono semplici strumenti utili per prendere decisioni buone, nuove informazioni che le mettono in dubbio, non è bene accetta”.

Quindi cosa facciamo? Ci impelaghiamo in “ragionamenti motivati” per gestire sfide di questo tipo. I due ricercatori hanno identificato 3 categorie:
– l’ignoranza strategica: quando si evitano informazioni che offrono prove in conflitto con la propria credenza
– la negazione della realtà: quando le prove che pongono nuovi problemi sono allontanate razionalmente
– l’auto segnalazione: quando si creano strumenti per interpretare i fatti come meglio si crede

I ragionamenti motivati sono distorsioni cognitive, bias, a cui siamo soggetti tutti, in particolare le persone dall’istruzione elevata.

Non sempre, queste distorsioni, portano a errori gravi: sostenere la superiorità di una squadra di calcio anche se le prove dicono il contrario, non ha grandi conseguenze. Se però le distorsioni sono condivise all’interno di una realtà organizzativa in difficoltà, nei mercati finanziari o nei partiti politici, il pericolo può non essere trascurabile.

Abbassare il prezzo da pagare per l’ammissione di un errore potrebbe essere un modo per disinnescare bias di questo tipo. La rivista Econ Journal Watch ha chiesto a influenti economisti di presentare le dichiarazioni di cui si rammaricano di più. Alcune analisi sono state illuminanti come quella di Tyler Cowen, noto economista statunitense (esponente della scuola austriaca, docente alla George Mason University, nonché editorialista economico per il New York Times), in cui ha spiegato come e perché avesse sottostimato i rischi della crisi nel 2007.

Esercizi di questo tipo, se condotti con regolarità, potrebbero eliminare la vergogna di dover cambiare opinione. Pur considerato che scusarsi pubblicamente è rischioso in quanto fornisce materiale di propaganda agli avversari ideologici e infastidisce i colleghi dalle simili visioni.

Nel tempo però l’autocensura erode la fiducia. Insomma pretendere di non sbagliare mai, non attira i consensi e non conviene neppure a chi ha ragione.

SAPER DECIDERE può AIUTARE a SALVARE molte VITE

Vi racconterò una storia. Una storia che parla di uomini e di macchine. E di come un ingegnere salvò il mondo da una apocalisse nucleare, facendo una scelta che nessuna macchina è ancora stata programmata a compiere: lasciar decidere il cuore.

Correva l’anno 1983, si era in piena guerra fredda, e un uomo di cui la maggior parte del mondo non aveva mai sentito parlare, sarebbe diventato il più grande eroe di tutti i tempi.

Era notte il 25 settembre, quando un colonnello di 44 anni della sezione spionaggio militare dei servizi segreti dell’Unione Sovietica giunse al proprio posto di comando al Centro di allerta precoce, da dove coordinava la difesa aerospaziale russa.

Suo compito era analizzare e verificare tutti i dati provenienti da un satellite, in vista di un possibile attacco nucleare americano. Per far ciò, aveva a disposizione un protocollo semplice e chiaro. Tanto più chiaro e semplice in quanto redatto da lui stesso. Dopo appropriati controlli, se positivi, suo compito era allertare il superiore, che avrebbe immediatamente dato inizio ad un massiccio contrattacco nucleare su Stati Uniti e alleati.

Poco dopo mezzanotte, alle 12.14 del 26 settembre del ‘83, tutti i sistemi di allarme scattarono e sugli schermi comparve: “attacco imminente di missile nucleare“.

Un missile era stato lanciato da una delle basi degli Stati Uniti.

L’ufficiale verificò i dati, richiedendo conferma dalla veduta aerea, l’unica che il satellite non aveva potuto confermare a causa delle condizioni atmosferiche. Nonostante le conferme, concluse che doveva essersi verificato un errore: non era logico che gli USA lanciassero un solo missile se davvero stavano attaccando l’Unione Sovietica.
Così ignorò l’avviso, considerandolo un falso allarme.
Poco dopo, però, il sistema mostrò un secondo missile. E poi un terzo.
Dal secondo piano del bunker poteva vedere, nella sala operativa, la grande mappa elettronica degli Stati Uniti con la spia lampeggiante indicante la base militare sulla costa est, da cui erano stati lanciati i missili nucleari.
In quel momento, il sistema indicò un altro attacco. Un quarto missile nucleare e immediatamente un quinto.
In meno di 5 minuti, 5 missili nucleari erano stati lanciati da basi americane contro l’URSS. Il tempo di volo di un missile balistico intercontinentale dagli Stati Uniti era: 20 minuti.

Dopo aver rilevato l’obiettivo, il sistema di allarme doveva passare attraverso 29 livelli di sicurezza per conferma; l’ufficiale cominciava ad avere forti dubbi man mano che venivano superati i vari livelli di sicurezza.
Sapeva che il sistema poteva avere qualche malfunzionamento. Ma poteva l’intero sistema essere in errore, 5 volte?
Il principio di base della strategia della guerra fredda sarebbe stato un massiccio lancio di armi nucleari, una forza travolgente e contemporanea di centinaia di missili, non 5 missili uno a uno. Doveva esserci un errore.
E se invece non fosse così? Se fosse una astuta strategia americana? L’olocausto tanto temuto stava per succedere e lui non faceva niente?

Aveva cinque missili nucleari balistici intercontinentali in viaggio verso l’URSS e solo 10 minuti per prendere la decisione se informare i leader sovietici… Essendo pienamente consapevole che se avesse segnalato ciò che tutti i sistemi stavano confermando, avrebbe scatenato la terza guerra mondiale.

I 120 tra ufficiali e ingegneri militari, aspettavano la sua decisione.
Mai prima nella storia, né dopo, sarebbe stato il destino del mondo nelle mani di un solo uomo come lo fu in quei 10 minuti. Il futuro del mondo dipendeva dalla sua decisione, mentre lottava con sé stesso se premere o meno il “bottone rosso”.
Riflettè: gli americani non sono ancora in possesso di un sistema di difesa missilistico e sanno che un attacco nucleare all’URSS equivale all’annientamento immediato del proprio popolo. E benché diffidi di loro, sa che non sono suicidi.”
Sapendo che se si fosse sbagliato, un’esplosione 250 volte maggiore rispetto a quella di Hiroshima si sarebbe scatenata su di loro su di loro entro pochi minuti, riuscì a mantenere il sangue freddo, e ad avere il coraggio di ascoltare il proprio istinto e di conformarsi alla conclusione logica suggerita dal buonsenso.
E decise di segnalare un malfunzionamento del sistema.
Paralizzati, i 120 uomini al suo comando contarono i minuti che mancavano perché i missili raggiungessero Mosca.
Quando, a pochi secondi dalla fine, le sirene smisero di suonare e le spie di allarme si spensero.

Aveva preso la decisione giusta. E salvato il mondo.

Questo uomo, il tenente colonnello “Stanislaw Petrof” si è trovato di fronte a una scelta. Quella di escludere la razionalità di una macchina a fronte dell’stinto proprio di un essere umano. E ha avuto ragione.

Epilogo
Non fu un epilogo felice quello del tenente colonnello Petrof.
La Russia non potendo permettere che gli Stati Uniti e il popolo russo venissero a conoscenza di quanto successo, ammonirono l’ufficiale per non aver essersi conformato al protocollo e lo trasferirono ad una posizione di gerarchia minore. Poco dopo fu mandato in pensionamento anticipato.
Ha vissuto il resto della sua vita in un modestissimo bilocale alla periferia di Mosca, sopravvivendo con una misera pensione di 200 dollari al mese, in assoluta solitudine e anonimato.
Fino a quando, nel 1998, il suo comandante in capo, Yury Votintsev, presente quella sera, ha rivelato l’accaduto, il cosiddetto “incidente dell’equinozio d’autunno” causato da una rarissima congiunzione astronomica, in un libro di memorie che accidentalmente arrivò fino a Douglas Mattern, Presidente dell’organizzazione internazionale per la pace, “Associazione di cittadini del mondo”.
Dopo aver verificato la veridicità della storia, è andato di persona in cerca di questo eroe sconosciuto, per consegnargli il “Premio Cittadino del Mondo”.
L’unico indizio su dove trovarlo l’aveva avuto da un giornalista russo, che lo aveva avvertito che avrebbe dovuto andare senza un appuntamento perché né il telefono né il campanello funzionavano.
Trovarne traccia in una fila enorme di grigi complessi condominiali a 50 chilometri da Mosca non fu facile.
Uno degli abitanti a cui chiese informazioni rispose: “Lei deve essere pazzo. Se esistesse davvero un uomo che ha ignorato un avviso di attacco nucleare degli Stati Uniti, sarebbe stato giustiziato. A quel tempo non esisteva una cosa come un falso allarme in Unione Sovietica. Il sistema non sbagliava mai. Solo il popolo”.

Al secondo piano di uno degli edifici, riuscì a rintracciare l’ufficiale, che si affacciò, la barba lunga e trasandato. Dopo aver raccontato la storia, quest’uomo vi direbbe: “Non mi considero un eroe; solo un ufficiale che ha compiuto il proprio dovere secondo coscienza in un momento di grande pericolo per l’umanità “. “Ero solo la persona giusta, nel luogo e nel momento giusto.”
Dopo essere venuti a conoscenza di questo evento, esperti di Stati Uniti e Russia hanno calcolato quale sarebbe stata la portata della devastazione in base all’arsenale a loro disposizione al tempo.
E sono arrivati ad un’agghiacciante conclusione: dai tre ai quattro miliardi di persone, direttamente e indirettamente, sono stati salvati dalla decisione presa da quest’uomo quella notte.
“La faccia della terra sarebbe stata sfigurata e il mondo che conosciamo, finito”, ha detto uno degli esperti.

Per questo motivo, in questo periodo storico della decisione basata sul buon senso che ha salvato il mondo, essere consapevoli di come scegliamo, può fare la differenza.