Su post-verità, fake-news e disinformatija

Tempo di lettura: 25 minuti

Il termine “post-verità” registra (un po’ in ritardo) e sintetizza, in modo piuttosto efficace, alcune cose che abbiamo scoperto recentemente sul nostro rapporto con la verità, con il mondo reale, con la storia, con la vita, con la società.
In sintesi: «È più vera una notizia inesatta raccontata bene, che una notizia esatta raccontata male». O, se si preferisce, c’è quest’altra di quel figlio di puttana di Joseph Goebbels: «Ripetete una bugia cento, mille, un milione di volte, e diventerà una verità».
Insomma, “post-verità” è il termine che molti di noi hanno deciso idoneo a descrivere un tempo in cui i fatti e la loro accurata descrizione contano molto meno nella formazione dei giudizi e delle opinioni.

Alessandro Baricco, uno che è più intelligente della maggior parte di noi e ha sempre osservazioni brillanti e scritte con sapienza, ha osservato in materia:

La rivoluzione digitale (una cosa che non ha più di vent’anni) ha mescolato un po’ i ruoli, e ora di fatto una vera separazione tra chi dà le carte e chi le prende sta venendo a mancare. Tutti hanno il loro mazzo e giocano. Risultato: una sovrapproduzione di verità, quindi un’impennata dell’offerta, forse un calo della richiesta, sicuramente un crollo del valore.
Per questo, da un po’, la verità sembra valere meno, una merce svalutata. Se provate a immaginare questi movimenti rotolare uno nell’altro, mettersi in azione contemporaneamente, capite che tutto si è fatto dannatamente difficile. Naturalmente la relazione con la verità non è mai stata una passeggiata, ma è indubbio che da un po’ siamo finiti comunque fuori dalla comfort zone in cui ci eravamo rifugiati, e ci tocca pattinare su un terreno molto scivoloso, fragile e soprattutto sconosciuto. Il fatto importante — da capire assolutamente — è che a patire sono soprattutto le élite, cioè quei gruppi di umani che per mestiere, ceto e vocazione hanno controllato per secoli il monopolio della verità. Paradossalmente, il nuovo statuto della verità rende piuttosto inessenziale quella skill particolare che era conoscere la verità: ignorarla almeno in parte sembra produrre risultati migliori.
Sicuramente non è questa un’epoca per specialisti, per eruditi, per gente che sa. Non pensate a Pico de Paperis, pensate anche solo ai giornalisti. In teoria sarebbero quelli più prossimi alla verità, se si parla di notizie: ma da un po’ succede che quello che poi si sedimenta come notizia non viene da loro, o non viene sempre da loro, o non viene da loro quando è importante. Passando da Facebook o da Twitter, milioni di umani che non hanno mai fatto un corso di giornalismo (e, incredibile, non sono nemmeno figli di giornalisti) fanno informazione, senza che sia il loro mestiere farlo, senza saperlo fare: ma la fanno, e questa circostanza produce notizie, e genera verità. Facendo una media, sono verità più false di quelle che per un secolo il giornalismo professionale ha prodotto quotidianamente? Difficile dirlo. Ma il solo fatto che sia difficile dirlo è una campana a morte per il giornalismo, per i competenti, per quelli che hanno studiato, per le élite del sapere. È effettivamente la fine di un’epoca.
Così, a un certo punto, proprio le élite hanno coniato l’espressione post-verità. Stavano cercando di dire che qualcosa era cambiato, e che il tavolo da gioco non era più quello di una volta, e che loro questa partita non erano mica tanto sicuri di saperla giocare: nel frattempo la stavano perdendo. Di per sé l’istinto era giusto: nominare i cambiamenti. Solo che se scegli come nome “post-verità” stai già scivolando nell’alibi: non stai riconoscendo che la verità ha assunto un nuovo statuto che non controlli più tanto bene, stai dicendo che la verità è morta nell’istante in cui tu non sei più stato in grado di controllarla: che presunzione, che cecità, che malafede, che menzogna, che bufala — che post-verità.

Il dibattito sulla “post-verità” è importante e particolare, ma è stato fuorviato e banalizzato. Ora è in voga sostenere che la parola sia stupida, pretestuosa, e sia un inutile sinonimo di “bugia”: ma è perché non la si è capita, e non si è capito di cosa si parlasse, quando si è cominciato a parlarne. Certo che le bugie ci sono sempre state: ma con “post-verità” si intende non la bugia bensì una condizione culturale nuova per cui la distinzione tra bugia e verità non è più rilevante, non è più un valore, non pone la verità in una condizione di forza rispetto alla bugia. È, per metterlo in un contesto, uno sviluppo del molto discusso tema della fine del valore della competenza e/o del sapere, quello per cui per esempio abbiamo cominciato da tempo a votare e promuovere “persone normali”, “come noi”, in posti di responsabilità, piuttosto che persone dotate di sapere (a Grillo dovrebbero fischiare le orecchie). Là avevamo sdoganato l’ignoranza, adesso abbiamo sdoganato la menzogna: in tempi in cui ognuno è incentivato a esprimersi sempre, l’ignoranza — che se è passiva non è una colpa — si trasforma in menzogna.
È di questo, che stiamo parlando: del fatto che oggi menzogne palesi, smentite, contraddette dai fatti, non solo non abbiano conseguenze per chi le dice, ma lo premino: in altre parole, che paghino. Non che paghino le menzogne — è sempre successo, bella scoperta —, bensì che paghino anche quando sono pubblicamente disvelate: che si tratti di successi politici, carriere personali, vendite dei giornali, clic. Per dirla brevemente in altro modo: che non gliene freghi più niente a nessuno, se una cosa è falsa o vera.

C’è peraltro una peculiarità tutta italiana della discussione, che avrebbe potuto renderla ancora più importante e invece l’ha sbracata. In Italia l’accuratezza e l’affidabilità dei mezzi di informazione tradizionali è straordinariamente bassa in generale, e non da oggi. Ci sono casi più o meno scellerati, e misure diverse di cattiva informazione: ma nessuno è esente, è proprio una cosa culturale del giornalismo professionale italiano, dalla quale sono eccezionali e ammirevoli le sottrazioni e le ribellioni. In Italia non esiste giornale — e men che mai telegiornale — che abbia l’autorevolezza e l’accuratezza, nel garantire di non diffondere notizie false, che in altri Paesi in cui ugualmente è pieno di quotidiani screditati hanno alcuni mezzi di informazione “seri”.
Due anni fa i media tradizionali italiani furono protagonisti di uno dei casi meno trascurabili e perdonabili di diffusione di notizie infondate: quello in cui agli italiani fu raccontato che a vaccinarsi contro l’influenza si poteva morire, e tanti non si vaccinarono. A dimostrazione del fatto che non è cambiato nulla, in queste settimane sta succedendo di nuovo, in forma speculare. Dopo aver prodotto titoli sull’allarme meningite, la paura meningite, et cetera, incentivati sempre dai criteri terroristici su cui si basa gran parte della produzione di titoli — ma anche di articoli —, in primavera quotidiani e telegiornali ritirarono la mano e addirittura si chiesero meravigliati da cosa nascesse la “psicosi” di quei fessi degli italiani che ora stavano facendo la coda per vaccinarsi e si agitavano e protestavano se non ci riuscivano. Il tutto, alla lunga — «ma mi faccia il piacere!», direbbe Totò —, ha finito per produrre l’odierno eccesso della obbligatorietà “per legge” di ben 12 vaccini (dodici!) per tutti i bambini, pena l’esclusione dalle scuole. E il fatto che il vaccino sia un “evento clinico” e non una semplice “puntura”, e che quindi clinicamente andrebbe trattato, come dice la Scienza (quella seria), rispettando la specificità e singolarità di ognuno? «Quella è verità, bellezza: ora siamo in epoca di post-verità» (questa è mia e non di Totò).

Studenti a scuola…

Per come sono fatti oggi, i media tradizionali italiani non hanno i titoli per ospitare un dibattito contro la diffusione delle notizie false, e men che mai per proporre delle soluzioni. (Cosa che peraltro fa suonare a molti ulteriormente estraneo un ordine professionale molto attento a difendere se stesso e alcuni suoi iscritti, ma completamente disinteressato alla qualità dell’informazione… ma questa è un’altra storia.) Ciò non vuol dire che non esista il problema della diffusione di notizie false attraverso internet: ovvero (poiché internet è fatta in cospicua parte anche dalle grandi testate giornalistiche) da chiunque di noi sui social network, e da qualunque sito indifferente ai principî giornalistici di rispetto dei fatti, delle verifiche, delle fonti, dell’accuratezza (indifferente consapevolmente o no).
È un problema enorme e molto preoccupante, e che coinvolge tutti. È di questo che dovremmo occuparci e capire se esista un modo per restituire all’informazione esperta e professionale, dotata di un’etica e di una funzione sociale e democratica, una forza e un ruolo rispetto alla disinformazione: è questa la scottante questione sottesa (e taciuta) al dibattito sulla “post-verità”. Una quaestio identica a quella dello svilimento della politica professionale: dove i fallimenti e le mediocrità mostrati da una grande parte di politici hanno seminato l’idea (aizzata da altri politici interessati, o ancora dai giornali) che le stesse cose le possa fare chiunque di noi, e magari meglio.
Come se non bastasse, il dibattito in Italia è entrato anche nel grande frullatore della polemica politica cialtrona e ne è stato dirottato, con protagonista principale, neanche a dirlo, il M5S. Un partito che è il maggiore promotore di propaganda falsificatrice, bufale e allarmi infondati; il leader di quel partito che — proprio perché grande sparatore di fole — viene ripreso con enorme eccitazione dai media tradizionali a ogni fesseria che dice (è l’accusa che ora viene fatta alle testate giornalistiche americane rispetto a Trump: il quale però è uno misurato, in confronto); il leader stesso che sostiene prima che la “post-verità” sia una specie di complotto mondiale per nascondere la verità, e poi che contro la “post-verità” dei giornali debbano intervenire i cittadini comuni (in «giurie popolari», sic!), in un’inversione che è esemplare del parallelismo con la politica; e nel frattempo racconta ai suoi fans di essere stato celebrato da una testata straniera come “tra i leader più influenti”, mentre quella lo aveva al contrario indicato come uno “che rovinerà l’Europa”; una tonante reazione di giornalisti che — in sprezzo dei colleghi perseguitati seriamente (che ci sono e sono tanti) — si proclamano vittime di una persecuzione e gridano «bavaglio!»… Risultato, essendo i protagonisti della questione in Italia diventati quattro — i falsificatori online, i falsificatori nelle testate giornalistiche, i falsificatori in politica, i peculiari falsificatori del M5S —, non si capisce chi rimanga con cui discuterne seriamente.

Prima di Internet e della diffusione delle televisioni via cavo, giornali e televisioni nazionali avevano goduto di una età dell’oro da custodi delle notizie utilizzate dall’opinione pubblica per formarsi un’idea: «A buona parte dell’America arrivavano le stesse notizie, mentre i punti di vista alternativi erano sostanzialmente esclusi dalla TV e dalla carta stampata» (così Gregory Ferenstein sul Washington Post). Ora il pubblico non è più loro “prigioniero” e i lettori possono accedere alle notizie un po’ ovunque, vere o false che siano: «Facebook consente alle persone di trovarle e condividerle più facilmente; ma se non esistesse, ci sarebbe qualcos’altro». E c’è già altro, come si è scoperto dopo la “strana” elezione di Trump: canali televisivi via cavo, siti e organizzazioni — soprattutto vicine ai Repubblicani — che pubblicano fake-news, notizie false, che hanno successo semplicemente perché ci sono persone dall’altra parte disposte a crederci e contente di avere un rinforzo alle loro convinzioni.

Trump alimenta da mesi tutto questo dicendo praticamente a ogni comizio (prima dell’elezione) e a ogni brief della Casa Bianca (dopo l’elezione) che “il sistema dei media è truccato” e che “i giornalisti sono sempre contro di lui”. Durante la sua campagna elettorale ha invitato i suoi sostenitori a informarsi online “da fonti alternative e non dai media tradizionali”, facendo l’esempio di siti come Drudge Report e Breitbart (che oggi sappiamo grandi diffusori di “fake news”) e riprendendo le notizie di siti meno conosciuti, che spesso non citano nemmeno le fonti delle informazioni che pubblicano.

Il problema di fondo è che se queste “fake news”, queste notizie false proliferano, è perché c’è qualcuno disposto a crederci: intenzionalmente se gli fa comodo, o inconsapevolmente se non si hanno gli strumenti e le capacità per riconoscere una bufala, soprattutto se questa viene ripresa da qualcuno di cui ci si fida. L’ex generale Michael Flynn, scelto come consigliere per la sicurezza nazionale da Trump e subito dimissionario perché coinvolto nel Russiagate, poco prima delle elezioni aveva per esempio condiviso una notizia falsa in cui si diceva che Hillary Clinton era coinvolta in uno scandalo di riciclaggio di denaro e di crimini di altro tipo a sfondo sessuale: era una bufala, ma intanto il suo tweet era stato condiviso più di 8.000 volte. Ma anche qua da noi mica scherziamo. Prima ancora che la chiamassimo, una volta istituzionalizzata e resa seriale sotto Berlusconi, “macchina del fango” o “metodo Boffo”, gli esempi di fake e di disinformazione si sprecano: basti ricordare Camilla Cederna, celebre giornalista e scrittrice, che fu autrice di una campagna giornalistica sulle colonne de L’Espresso, con accuse poi rivelatesi infondate, che causarono le dimissioni, nel 1978, del presidente della repubblica Giovanni Leone.

RICONOSCERE LE FAKE NEWS

Un recente studio della Stanford University indica chiaramente le difficoltà che incontrano molte persone nel riconoscere le notizie false, soprattutto tra i più giovani. La ricerca ha coinvolto 7.804 studenti che frequentano scuole secondarie e college e ha mostrato come per loro sia quasi sempre irrilevante la fonte della notizia che stanno leggendo. Molti studenti, per esempio, hanno valutato più credibili certe notizie semplicemente sulla base della quantità di dettagli contenuti nel tweet, aggiungendo di considerare più affidabili i tweet che contengono anche una grande fotografia. Lo studio ha rilevato come ci sia una chiara difficoltà anche a riconoscere un articolo scritto a scopi pubblicitari da un normale articolo informativo.

L’aumento dell’offerta informativa ha reso più evidenti le complessità e le contraddizioni del mondo, trasformando progressivamente il ruolo dei giornalisti, il cui compito principale oggi dovrebbe essere quello di fare una selezione nel marasma delle notizie e aiutare l’opinione pubblica a restare informata su ciò che davvero importa. In parte per loro responsabilità dirette, i giornalisti hanno invece perso rapidamente il carico di fiducia riposto dai lettori nei loro confronti, mentre è cresciuta la convinzione che Internet offra i fatti e che sia meglio accedervi direttamente, senza alcuna mediazione.

La sfiducia nei giornalisti è comune in molte democrazie occidentali e probabilmente, come detto, è paragonabile solo a quella nei confronti dei politici. Negli USA solo il 18% della popolazione dice di fidarsi delle notizie a livello nazionale e il 22% di quelle a livello locale. Tre statunitensi su quattro pensano che le grandi organizzazioni che fanno informazione contribuiscano a tenere al loro posto i politici, ma più o meno la stessa percentuale pensa che il sistema dei media sia fazioso. Lo pensano di più i sostenitori dei Repubblicani rispetto a quelli dei Democratici, ed è indubbio che a questa differenza abbiano contribuito gli stessi esponenti politici conservatori e i siti e le radio del medesimo schieramento politico.
(NOTA — Dagli Stati Uniti partono tutti i nostri problemi dal dopoguerra in poi. Nel lontano 1994, da un sondaggio di U.S. News and World Report risultava che sei americani su dieci credono alla “fine del mondo” — un terzo credeva “entro pochi decenni” —, il 61% erano convinti che Cristo ritornerà sulla Terra, il 44% che, a breve scadenza, ci sarà la “battaglia di Armageddon”; nella Bible Belt — zona centrale USA che coincide grossomodo con il nocciolo duro dell’elettorato trumpiano — 2/3 delle persone crede che “i resti dei dinosauri siano una falsificazione creata ad arte dagli atei”, e che “noi non discendiamo affatto dalle scimmie, il mondo è stato in realtà creato nel 4004 a.C.” in base ai calcoli effettuati sulla Bibbia dal calendario di Ussher-Lightfoot, una cronologia del mondo risalente al XVII secolo.)

L’elezione di Trump, e prima ancora il risultato di Brexit, hanno ampliato a dismisura il dibattito sulla disinformazione e, come ha ricordato sul suo blog il direttore del Post, Luca Sofri: «Il mondo ha scoperto i rischi delle democrazie informate male, rischi che erano stati sottovalutati, ma che erano arcinoti». La disinformatija esisteva prima di Internet (vedi il citato Goebbels, vedi l’impero Sovietico, ma di esempi sono pieni i secoli): con l’avvento della Rete si è semplicemente aggiunto un nuovo strato a un fenomeno complesso e dai contorni piuttosto sfumati. La disinformazione ha dentro un po’ di tutto: errori in buona fede, incomprensioni, faziosità, la crisi dei giornali, la scarsa inclinazione dei giornalisti a fare verifiche, la tendenza a rendere semplicistiche le spiegazioni di fenomeni complessi, senza dimenticare il fatto che informarsi costa fatica e che non tutti sono interessati a farlo.
I social network hanno probabilmente solo amplificato il problema, offrendo tra le altre cose scorciatoie per i media in difficoltà, alla ricerca di clic e di soluzioni per mantenere i loro modelli di business basati sulla pubblicità che richiedono grandi quantità di lettori e di pagine viste per essere sostenibili (in Italia è maestra in questo settore la Casaleggio Associati che è alla base del citato Movimento 5 Stelle e del blog di Beppe Grillo).

Uno studio che ha fatto il giro del mondo, pubblicato a inizio 2016 sulla prestigiosa rivista PNAS da un gruppo di studiosi italiani che lavora al laboratorio di Computational Social Science dell’Istituto IMT Alti Studi di Lucca, diretto da Walter Quattrociocchi (The spreading of misinformation online), afferma che piuttosto che “Epoca dell’informazione”, la nostra andrebbe chiamata “Èra della dis-informazione”.
Notizie e informazioni si accumulano in modo letteralmente incontrollabile nel web, proprio per la sua natura reticolare e partecipativa. Una voce corre online e può risuonare fino all’altra parte dell’oceano in men che non si dica. Internet ci ha restituito una sorta di versione tecnologicamente implementata di cultura orale, con fascino e rischi annessi.

Informazioni caotiche, e fluttuanti in prima istanza, tendono prima o poi ad aggregarsi, catturate dalle scelte dei fruitori, arrivando a costruire cluster più o meno coerenti di notizie, che, per facilità di accesso, giocano un ruolo preminente nei processi di opinion making di oggi.

Ma con quali criteri avvengono l’aggregazione dell’informazione online e conseguentemente la formazione di opinioni?
Lo studio di Quattrociocchi e colleghi mostra che il “pregiudizio di conferma” (confirmation bias) è tra i criteri decisionali fondamentali alla base di questi processi. In un contesto di flusso massivo di informazioni non filtrate, si tende a privilegiare (e a riconoscersi in) informazioni che confermano ciò che già si pensa (vedi anche questo mio articolo di tre anni fa). Se una persona ha fatto un investimento in banca — “Sicuro eh!”, gli era stato detto — ma vede la banca precipitare nel baratro portando con sé i suoi risparmi, e contemporaneamente legge online che le banche sono istituti il cui unico interesse è il profitto, noncuranti dei servizi che dovrebbero garantire o delle sorti del malcapitato risparmiatore, c’è da aspettarsi che quest’ultimo manifesti la sua approvazione alla “teoria del signoraggio bancario” almeno con un like.
Il pregiudizio di conferma, esteso su larga scala, tende a creare le cosiddette echo chambers, ovvero luoghi virtuali di aggregazione in cui tutti i presenti tendono a pensarla allo stesso modo riguardo a uno specifico tema (sia questo la negazione del cambiamento climatico o dell’evoluzione darwiniana, le scie chimiche, gli UFO, le Torri Gemelle “minate”, il “finto sbarco sulla Luna”, i chip sottopelle…). Chi entra in queste camere di risonanza lo fa perché sente che le proprie precostituite convinzioni, spesso istintive, grezze, di pancia, hanno finalmente voce. Il fatto è che da lì il pensiero tende a non venire elaborato ulteriormente, anzi, semmai l’intuizione ingenua, di pancia, si rinforza attorno a pochi punti dando luogo a proto-teorie o credenze alquanto bizzarre. Le teorie del complotto che proliferano online, oggetto di studio dell’articolo summenzionato, sarebbero precisamente il prodotto di tali meccanismi.

Cosa c’è che non va nelle teorie del complotto? Proviamo a dirla con William Gibson, il padre del genere letterario cyberpunk: «Le teorie del complotto sono popolari perché, non importa di cosa trattino, sono tutte realtà confortevoli, perché sono tutte modelli di semplicità totale. Penso che facciano leva sul nostro lato infantile che vuole sempre sapere cosa sta accadendo» (l’intervista integrale, del 2007, è qui: thetyee.ca/Books/2007/10/18/WillGibson/).
Le teorie del complotto hanno così successo perché partono da fatti molto vicini alla vita quotidiana dei più e in pochi passaggi logici (o meno) giungono a individuare la causa ultima responsabile di quegli eventi; nel fare ciò, delineano una visione del mondo che spesso identifica un nemico contro cui schierarsi. Strumenti psicologici basilari e efficacissimi per innescare meccanismi di identificazione e consenso, purtroppo all’opera anche in sistemi di reclutamento che costituiscono minacce ben più tangibili delle scie chimiche (si pensi al ruolo della Rete nel reclutamento dei foreign fighters e nel processo di radicalizzazione islamica di giovani europei che in taluni casi non avevano avuto alcun contatto personale precedente con reclutatori — un ottimo libro del 2015 su questo argomento è L’ultima utopia” di Renzo Guolo).

È interessante notare una similitudine tra la struttura esplicativa di queste “teorie” e l’argomento della complessità irriducibile portato dai sostenitori dell’Intelligent Design. Entrambi condividono una struttura esplicativa iper-semplificatoria.
Partiamo dal secondo. Alla sua base vi sta la tanto intuitiva quanto ingenua analogia tra complessità di artefatti umani, frutto dell’attività di un agente intenzionale dotato di scopi, e complessità di strutture naturali. Se troviamo un orologio di pregiata fattura, spiegava William Paley nella sua Teologia naturale del 1822, saremmo portati a credere che sia frutto del progetto e dell’azione intenzionale di un orologiaio; non attribuiremmo mai la complessa interazione degli ingranaggi dell’orologio al prodotto del puro caso. Così se lungo una spiaggia trovassimo il complesso disegno a spirale su di una conchiglia non potremmo fare altro che pensare all’azione di una mente suprema che ha progettato l’universo, la natura e i suoi prodotti. L’evoluzione esiste, ma non può che essere l’esito di un “disegno intelligente”.
Questo tipo di spiegazione è iper-semplificatoria perché salta dal prodotto finale alla causa ultima, ignorando un’infinità di passaggi intermedi: non prende in considerazione i tempi del processo evolutivo; non prende in considerazione le interazioni con altri soggetti del contesto (ecologico) entro cui l’evoluzione si compie; non prende in considerazione i meccanismi che possono condurre alla formazione del pattern osservato. In più, il ragionamento è uno dei più classici esempi di detestabile antropomorfismo (una forma di egocentrismo cosmico), ovvero l’attribuzione di proprietà umane, intenzionali, finalistiche, agenziali, a un’entità – la Natura – che di umano non ha necessariamente niente.
Fortunatamente questi argomenti, nel dominio delle scienze biologiche, sono stati smontati (seppur non senza difficoltà, dacché sostenitori dell’Intelligent Design proliferano tutt’oggi, come detto, in Paesi avanzati che si dicono paladini di libertà e democrazia…) dalla teoria dell’evoluzione neodarwiniana, oltre ogni ragionevole dubbio. Sfortunatamente, a oggi, le scienze sociali non hanno ancora visto nascere il loro Charles Darwin, e venire a capo della complessità delle dinamiche sociali con un’unica elegante teoria esplicativa è un’impresa lungi dall’avere un traguardo in vista.
Avremmo proprio bisogno di una sorta di “teoria della società” che mostrasse come il salto esplicativo da evento singolo (come la perdita dei propri risparmi per colpa di un agente bancario truffaldino) alla sua causa ultima (complotto globale del signoraggio bancario), proposto dalle teorie del complotto, sia logicamente del tutto ingiustificabile, in quanto un super-agente che agisca in maniera intenzionale e che disponga del controllo di tutti i livelli di complessità dei nodi della rete sociale, e che per di più sia in grado di tenere nascosti i propri piani, pur riuscendo a metterli sistematicamente in atto, assomiglia molto a qualcosa che potremmo definire Social Intelligent Design.

Karl Popper si pronuncia così nel secondo volume de La Società aperta e i suoi nemici:

Bisogna riconoscere che la struttura del nostro ambiente sociale è, in un certo senso, fatta dall’uomo: che le sue istituzioni e tradizioni non sono il lavoro né di Dio né della natura, ma i risultati di azioni e decisioni umane, e alterabili da azioni e decisioni umane. Ma ciò non significa che esse siano tutte coscientemente progettate e spiegabili in termini di bisogni, speranze e moventi. Al contrario, anche quelle che sorgono come risultato di azioni umane coscienti e intenzionali sono, di regola, i sottoprodotti indiretti, inintenzionali e spesso non voluti di tali azioni. […] Io non intendo affermare, con questo, che cospirazioni non avvengano mai. Al contrario, esse sono tipici fenomeni sociali. […] Cospirazioni avvengono, bisogna ammetterlo. Ma il fatto notevole che, nonostante la loro presenza, smentisce la teoria della cospirazione, è che poche di queste cospirazioni alla fine hanno successo. I cospiratori raramente riescono ad attuare la loro cospirazione.

Cosa intende qui Karl Popper ce lo spiega oggi David Robert Grimes, un fisico dell’università di Oxford, che ha mostrato, con una formula pubblicata in un articolo apparso su PLOS ONE, che le grandi cospirazioni non possono restare segrete troppo a lungo: questo tipo di macchinazioni necessariamente coinvolge un numero di “complici” elevato al punto che la probabilità che uno di questi non faccia un passo falso, facendosi scoprire, è troppo bassa per far sì che la cospirazione si realizzi.
L’intenzionalità dell’azione umana ha un raggio d’azione limitato. La libertà individuale finisce dove comincia quella degli altri, ma si potrebbe dire anche che l’intenzionalità di un’azione finisce quando si incontra con l’intenzionalità degli altri. All’interno della rete sociale, l’intenzionalità individuale si diluisce, e un soggetto super partes capace di direzionare un’amplissima moltitudine di intenzionalità singole, per di più in maniera occulta, semplicemente non può esistere. L’azione collettiva è un risultato non intenzionale di interazioni intenzionali a livello individuale.
Nonostante tutto questo, le teorie del complotto persistono e anzi, come mostrato da Quattrociocchi e colleghi, più ci si sforza di smontarle (facendo azione di debunking), più i loro sostenitori si chiudono a guscio all’interno delle loro camere di risonanza, attaccandosi alle loro convinzioni.
Ricercare le cause di un evento traumatico (la perdita dei risparmi, o la paura derivante da un percepito stato di instabilità) è un meccanismo di elaborazione fondamentale che si innesta per affrontare il superamento del trauma. Le risposte cui si giunge sono però spesso più autoconsolatorie che veramente conformi alla realtà delle cose.
Come venire a capo allora di questo enorme fenomeno psicodrammatico-sociale nel villaggio globale?

CHE FARE?

Le analisi su disinformazione, fake-news e post-verità sono ormai innumerevoli e continuano a esserne pubblicate di nuove, ma sono rari gli articoli che mettono in discussione il ruolo dei media nel fenomeno e soprattutto che propongono soluzioni, per lo meno per arginare il problema.

La classe dirigente e quella intellettuale troppo spesso si misurano con i cosiddetti “complottisti” con una detestabile, e invero poco intelligente, supponenza, liquidandoli per lo più come gli ultimi difensori dell’ancien régime trattavano la plebe ignorante. Le teorie del complotto sono invece una manifestazione di un’inquietudine e di un malcontento della società troppo profondi per essere archiviati con quattro risate. Questo disagio, che si manifesta in espressioni ingenue, paranoiche, o addirittura patetiche (dal complotto rettiliano alle scie chimiche — qui il mio debunking —, dai biochip al Signoraggio e al Nuovo Ordine Mondiale in mano a una sorta di Spectre), sta in realtà per qualcos’altro, di molto più grave, che riflette una realtà di fatto alla base delle più grosse questioni globali degli anni a venire: l’allargamento della forbice della disuguaglianza. Le teorie del complotto altro non sono che elaborazioni collettive, immaginifiche e fantasiose, che riflettono la struttura bipolare del sistema economico odierno, che ha portato a concentrare enormi capitali, di denaro e di potere, in mano a pochi, lasciando un sempre più alto numero di persone a farsi la guerra per le briciole. Questa distribuzione purtroppo si rivela valida sia a livello nazionale sia a livello globale. Esistono colossi aziendali (settori energetico, informatico, grande distribuzione) che hanno fatturati di gran lunga superiori a PIL di Stati nazionali (notizia di ieri: i 5 big del digitale valgono il 50% in più del PIL dell’Africa) e non riconoscere che questi possono trattare alla pari, se non dall’alto in basso, almeno con i piccoli Stati, è ingenuo quanto credere alle teorie del complotto. Queste ultime lanciano un’indiretta ma fortissima critica a un modello di sistema economico che genera storture, accusandolo di essere lontano dagli interessi dei molti e vicino agli interessi di pochi.
Le teorie del complotto rappresentano una sorta di bestemmia contro ciò che viene avvertito come un potere lontano e dispotico, un impotente e frustrato grido di ribellione contro un ordine odiosamente immutabile, che schiaccia. Sono il prodotto grezzo di un incontro inedito: un sentimento collettivo di frustrazione implementato da una nuova tecnologia, la Rete. Forse non sono tra le più eleganti espressioni di critica ai sistemi totalitari come possono essere stati 1984 di Orwell o The Wall dei Pink Floyd (che difficilmente liquideremmo come opere di complottisti), ma sono comunque una nuova forma di espressione, a tratti addirittura inconsapevole, in quanto frutto di un’azione collettiva non del tutto intenzionale, di forte critica al potere costituito e al sistema economico a esso intrecciato.
In questo senso le teorie del complotto dovrebbero essere un campanello d’allarme capace di sollevare una questione politica — sempre che vi sia una classe politica, dirigente e intellettuale capace di cogliere i segnali d’allarme, certo —. L’attenzione su questi temi deve crescere, e non è un caso che il premio Nobel per l’Economia 2015 sia stato assegnato allo scozzese Angus Deaton per i suoi studi sul rapporto fra consumi, povertà e welfare.

Il primo consiglio è dare ai lettori la possibilità di segnalare più facilmente le notizie false alle piattaforme che le stanno mostrando, come Facebook, Twitter, Google, YouTube e gli altri servizi per la pubblicazione e la condivisione di contenuti. I social network dovrebbero inoltre concordare con i siti di news più affidabili e istituzionalizzati (agenzie di stampa internazionali, grandi quotidiani) l’utilizzo di codici nelle loro pagine per rendere più riconoscibili le notizie affidabili e dare loro maggiore risalto, per esempio nelle notizie correlate che Facebook mostra quando si clicca sull’anteprima di un articolo: nel caso di una notizia falsa, le correlate potrebbero mostrare sistematicamente gli articoli che le smentiscono.

I motori di ricerca e i social network potrebbero inoltre utilizzare sistemi di analisi sui siti e sugli account, per identificare quelli creati da poco tempo al solo scopo di diffondere notizie false: è assurdo che talvolta abbiano la stessa evidenza di articoli pubblicati da fonti più autorevoli, che sono magari in circolazione da anni. I siti d’informazione dovrebbero inoltre rendersi il più riconoscibili possibile sui social network, per contrastare la progressiva generalizzazione da parte dei lettori “l’ho letto su Facebook”.

Per contrastare il fenomeno per cui ogni utente finisce quasi sempre per leggere notizie da determinate fonti di parte, con cui si trova più a proprio agio, i social network potrebbero proporre nei loro feed di tanto in tanto articoli da fonti d’informazione diverse, ma comunque affidabili, cui non si è iscritti. Gli utenti manterrebbero la possibilità di escludere quei contenuti, ma mostrarglieli almeno una volta potrebbe comunque essere utile per incentivarli a guardare un poco oltre la loro bolla. I siti di news dovrebbero seguire l’esempio di Snopes.com o del nostro Paolo Attivissimo (debunker italiano per eccellenza), creando sezioni in cui si occupano di smontare le bufale e le notizie false.

Facebook permette da tempo di modificare un proprio post dopo la pubblicazione, con un sistema molto trasparente che mostra comunque la cronologia delle modifiche; Twitter dà solo la possibilità di cancellare i tweet, non di correggerli: dovrebbe studiare un sistema più adeguato non solo per dare la possibilità di modificare un tweet, ma anche per inviare notifiche agli utenti che l’hanno visto e avvisarli che qualcosa è cambiato, nel caso in cui sia stata diffusa una notizia inesatta.

I siti di notizie dovrebbero inoltre studiare meglio i meccanismi che determinano il successo di alcune iniziative online, come per esempio i meme che raccolgono centinaia di milioni di visualizzazioni e migliaia di condivisioni sui social network. Intorno ai meme c’è un bacino enorme di lettori che può essere raggiunto e non si deve escludere a priori di farlo con i mezzi che li attirano di più, a patto che i contenuti offerti siano corretti e utili per aumentare i livelli d’informazione. Organizzazioni e fondazioni che coinvolgono giornali, social network, università, ricercatori, ingegneri informatici e istituzioni per affrontare il tema potrebbero fornire nuovi punti di vista e strumenti.

Notizie false e bufale rendono le democrazie meno informate e riducono nei fatti la capacità di ciascuno di comprendere il mondo che abbiamo intorno e, in una certa misura, noi stessi. In molte analisi e articoli i lettori sono spesso e volentieri trascurati, quasi tenuti in disparte (gran parte dei siti hanno “i commenti” in coda agli articoli, ma nessun moderatore che intervenga): eppure nelle nostre società iperconnesse il loro ruolo è centrale nella moltiplicazione dei canali e delle opportunità attraverso i quali si diffondono e hanno successo le notizie false. Non hanno un ruolo passivo e, i più informati e con maggiori strumenti, dovrebbero essere i primi a farsi sentire nelle loro reti sociali, per spiegare a chi è meno informato che sta riprendendo una balla e a dargli qualche dritta per non cascarci più.
Questo non significa azzerare le responsabilità di chi ha prodotto le bufale o minimizzare il ruolo dei media e dei giornalisti, ma semplicemente estendere a tutti la responsabilità di risolvere il problema. Condividerla.

Nel frattempo e nell’attesa, per consolarci, possiamo alzare via la testa da quel dannato device allentando quei 27 kg che ci deformano il collo e ricominciare a comprare dischi in vinile, libri di carta, o il nuovo vecchio Nokia 3310 tornato sul mercato, privo di Whatsapp.

ADDENDUM

La fine dei fatti

In teoria le statistiche dovrebbero servire a risolvere i contrasti. Dovrebbero dare a tutti — indipendentemente dalle posizioni politiche — un punto di riferimento certo da cui partire. Eppure, negli ultimi anni, la divergenza di vedute sull’attendibilità delle statistiche ha contribuito alla divisione che sta attraversando le democrazie liberali occidentali. Poco prima delle elezioni presidenziali 2016 negli Stati Uniti, uno studio ha rivelato che il 68% dei sostenitori di Trump non si fidava dei dati economici pubblicati dal governo. Secondo una ricerca dell’università di Cambridge e di YouGov sulle teorie del complotto, il 55% della popolazione del Regno Unito crede che il governo stia “nascondendo la verità sul numero degli immigrati” presenti nel Paese.

Anziché placare le polemiche e ridurre le divisioni, sembra che le statistiche le stiano alimentando. L’avversione per i numeri è diventata uno dei marchi di fabbrica della destra populista, con statistici ed economisti in prima fila tra i vari “esperti” puniti dagli elettori nel 2016. Non solo le statistiche sono considerate inattendibili, ma sembra quasi che abbiano qualcosa di offensivo e di arrogante. Ridurre le questioni sociali ed economiche ad aggregati numerici o medie appare un insulto alla dignità politica delle persone.

Questa tensione è particolarmente evidente quando si parla d’immigrazione. Il centro studi britannico British Future ha cercato di capire qual è il modo più efficace di portare avanti la causa dell’immigrazione e del multiculturalismo durante i dibattiti. Uno degli elementi chiave emersi dalla ricerca è che le persone rispondono positivamente ai dati qualitativi, come le storie dei singoli migranti e le fotografie delle varie comunità. Le statistiche, invece — soprattutto quelle sui presunti vantaggi dell’immigrazione per l’economia britannica — scatenano la reazione opposta. La gente dà per scontato che i dati siano manipolati ed è infastidita dall’elitarismo delle prove quantitative. Di fronte alle stime ufficiali del numero di immigrati irregolari presenti nel Paese, la reazione più comune dei cittadini britannici è una risata di scherno. Sottolineare gli effetti positivi per il PIL, invece di favorire il sostegno all’immigrazione in realtà aumenta l’ostilità delle persone, dice British Future. Lo stesso PIL comincia a essere considerato una specie di cavallo di Troia di un progetto politico progressista ed elitario. I politici se ne sono accorti e hanno quasi completamente rinunciato a discutere di immigrazione in termini economici.

Tutto questo mette seriamente in difficoltà la democrazia liberale. O lo Stato dichiara di credere alla validità delle statistiche e viene accusato dagli scettici di fare propaganda, oppure i politici e le autorità devono limitarsi a raccontare quello che sembra plausibile e intuitivamente vero, a costo di dire inesattezze. In un modo o nell’altro, i politici sono accusati di dire bugie o di insabbiare la verità.

Operazione elitaria

La perdita di autorità delle statistiche — e degli esperti che le analizzano — è al centro della crisi oggi nota come “politica della post-verità”. In un mondo segnato dall’incertezza, i valori statistici dividono sempre di più l’opinione pubblica. Legare la politica ai dati statistici è considerata un’operazione elitaria, antidemocratica, che non tiene conto del coinvolgimento emotivo delle persone verso la comunità e il Paese. Appare come uno dei tanti modi in cui pochi privilegiati a Londra, a Washington o a Bruxelles cercano di imporre la loro visione del mondo a tutti gli altri.

Dalla prospettiva opposta, le statistiche sono l’esatto contrario dell’elitarismo. Permettono ai giornalisti, ai cittadini e ai politici di discutere della società nel suo complesso non sulla base di aneddoti, sensazioni o pregiudizi, ma con dati verificabili. L’alternativa ai valori statistici non è la democrazia, ma la libertà per demagoghi e direttori di giornali scandalistici di spacciare la loro “verità” su cosa sta succedendo nella società.

Le statistiche non sono né verità incontestabili né cospirazioni ordite dalle élite, ma strumenti creati per facilitare il lavoro dello Stato, nel bene e nel male. Hanno avuto un ruolo fondamentale nell’aiutarci a capire gli stati-nazione e il loro progresso. Ecco allora una domanda inquietante: se le statistiche saranno messe da parte, come faremo ad avere ancora un’idea comune della società e del progresso collettivo?

Dall’illuminismo la statistica conquista un ruolo sempre più importante

Nella seconda metà del Seicento, dopo una serie di confitti prolungati e sanguinosi, i governanti di tutta Europa adottarono un metodo completamente nuovo sull’azione di governo, incentrato sulle tendenze demografiche. Tutto questo fu reso possibile dalla nascita della statistica moderna. I censimenti per tenere traccia delle dimensioni della popolazione esistevano fin dai tempi antichi, ma oltre a essere costosi e complicati, si occupavano solo dei cittadini considerati politicamente rilevanti (gli uomini proprietari di terre) più che della società nel suo complesso. La statistica offriva qualcosa di molto diverso, che era destinato a cambiare la natura della politica.

La statistica è stata inventata per studiare una popolazione nella sua interezza, mentre prima ci si limitava a individuare strategicamente le fonti del potere e della ricchezza. Agli inizi le indagini statistiche non sempre si traducevano nella produzione di numeri. In Germania, per esempio, dovevano servire a mappare costumi, istituzioni e leggi diverse in un impero composto di centinaia di microstati. Ciò che connotava come statistiche queste conoscenze era la loro natura olistica: lo scopo era dare un quadro complessivo della nazione. La statistica ha fatto per la popolazione quello che la cartografia aveva fatto per il territorio.

Altrettanto significativo è stato il confronto con le scienze naturali. Con le sue misure standardizzate e le sue tecniche matematiche, la conoscenza statistica poteva essere presentata come oggettiva, in modo non molto diverso dall’astronomia. In Inghilterra, i pionieri della demografia come William Petty e John Graunt adottavano tecniche matematiche per stimare i cambiamenti della popolazione.

Alla fine del Seicento l’ascesa di una classe di consiglieri di governo che rivendicava la sua autorità scientifica più che il suo acume politico e militare segnò l’inizio di quella cultura degli “esperti” oggi così disprezzata dai populisti. Né studiosi in senso stretto né veri e propri funzionari dello Stato, questi individui erano a metà tra le due figure. Erano dilettanti entusiasti che promuovevano un nuovo modo di studiare la popolazione basato sulle aggregazioni e sui fatti oggettivi. Grazie alle loro capacità matematiche, erano convinti di poter scoprire attraverso il calcolo ciò che in passato era affidato al censimento.

Inizialmente esisteva un solo cliente per questo tipo di competenza, e la parola “statistica” ne è una spia. Solo uno Stato-nazione centralizzato aveva la capacità di raccogliere dati sulla popolazione in modo standardizzato, e solo uno Stato avrebbe saputo che farsene. Nella seconda metà del Settecento gli Stati europei cominciarono a raccogliere una maggiore quantità di dati statistici: nascite, morti, battesimi, matrimoni, raccolti, importazioni, esportazioni, fluttuazioni dei prezzi. Informazioni che in precedenza venivano registrate localmente e in modo sparso a livello parrocchiale furono aggregate a livello nazionale.

Per gli Stati queste innovazioni avevano un potenziale straordinario. Riducendo le complessità della popolazione a indicatori specifici illustrati su apposite tabelle, i governi potevano fare a meno di acquisire informazioni più ampie e dettagliate a livello locale e storico. Ovviamente, vista da una diversa prospettiva, è proprio questa cecità di fronte alle diversità culturali locali a rendere la statistica volgare e potenzialmente offensiva. Indipendentemente dal fatto che una data nazione abbia un’identità culturale comune o no, gli statistici danno per assodata una certa uniformità di base o, direbbe qualcuno, la impongono a forza.

Non tutti gli aspetti di una popolazione possono essere misurati dalla statistica. C’è sempre una scelta implicita in ciò che viene incluso o escluso, e questa scelta può diventare a sua volta una questione di rilevanza politica. Il fatto che il PIL misuri solo il valore del lavoro retribuito, escludendo quindi il lavoro svolto tradizionalmente dalle donne nella sfera domestica, lo ha reso il bersaglio delle critiche delle femministe fin dagli anni Sessanta. In Francia raccogliere dati censuari sull’appartenenza etnica è illegale dal 1978, perché questi dati potrebbero essere usati per finalità politiche a sfondo razzista (l’effetto collaterale di questa decisione è che rende molto più difficile quantificare il razzismo insito nel mercato di lavoro).

Nonostante le critiche, l’aspirazione a descrivere una società nella sua interezza e in modo oggettivo ha fatto sì che la statistica sia stata spesso collegata agli ideali progressisti. Da una parte c’è l’idea della statistica come scienza obiettiva della società. Dall’altra c’è l’uso delle tecniche statistiche per sostenere ideali forti come la politica basata sui fatti, la razionalità, il progresso, il concetto di nazione: ideali che si fondano su fatti concreti, non su racconti romanzati.

Una politica più razionale

A partire dall’illuminismo, alla fine del Settecento, liberali e repubblicani si convinsero che i sistemi di misurazione nazionali potevano produrre una politica più razionale, che partisse dal miglioramento tangibile delle condizioni sociali ed economiche. Benedict Anderson, il grande teorico del nazionalismo, definisce le nazioni come “comunità immaginate”, ma la statistica permette di ancorare questa immaginazione a un elemento tangibile. Allo stesso tempo, la statistica promette di svelare quale sentiero della storia ha imboccato la nazione: a che tipo di progresso stiamo assistendo? Quanto è rapido? Per i liberali dell’illuminismo, che vedevano le nazioni avviate verso un’unica direzione storica, la questione era cruciale.

Il potenziale della statistica di svelare lo stato della nazione si realizzò nella Francia postrivoluzionaria. Lo stato giacobino decise d’imporre un nuovo sistema nazionale di misurazione e di raccolta dei dati. Il primo istituto ufficiale di statistica al mondo aprì a Parigi nel 1800. L’uniformità della raccolta dei dati, supervisionata da un gruppo centralizzato di esperti altamente qualificati, era parte integrante dell’ideale di una repubblica governata centralmente che cercava di creare una società unita e ugualitaria.

Dall’illuminismo in poi, la statistica conquistò un ruolo sempre più importante nella sfera pubblica, influenzando il dibattito sui mezzi d’informazione e mettendo a disposizione dei movimenti sociali delle prove utilizzabili. Con il passare del tempo, la produzione e l’analisi dei dati diventarono sempre meno di dominio statale. A livello accademico gli scienziati sociali cominciarono ad analizzare i dati per i loro scopi di ricerca, spesso completamente svincolati dagli obiettivi politici dei governi. Alla fine dell’Ottocento, riformatori come Charles Booth a Londra e W.E.B. DuBois a Filadelfia facevano ricerche per approfondire il problema della povertà urbana.

Per capire fino a che punto la statistica è intrecciata con il concetto di progresso nazionale, prendiamo il caso del PIL. Il PIL è una stima della somma totale a livello nazionale della spesa dei consumatori, della spesa pubblica, degli investimenti e della bilancia commerciale (esportazioni meno importazioni), che viene rappresentata in un unico numero. Azzeccare questa stima è difficilissimo, e negli anni Trenta del ’900 i tentativi di calcolare il dato, al pari di molti procedimenti matematici, cominciarono come esperimenti d’interesse residuale, quasi da nerd. Il PIL diventò una questione di rilievo politico nazionale a partire dalla Seconda Guerra Mondiale, quando i governi avevano bisogno di sapere se la popolazione stava producendo abbastanza per sostenere lo sforzo bellico. Nei decenni successivi questo indicatore, anche se sempre criticato, diventò il barometro per eccellenza dell’efficacia dei governi. Oggi diciamo che una società sta progredendo o regredendo a seconda se il PIL cresce o cala.

Oppure prendiamo i sondaggi d’opinione, uno dei primi casi di innovazione statistica nel settore privato. Negli anni Venti del ’900 gli statistici svilupparono una serie di metodi per identificare un campione rappresentativo degli intervistati da cui fosse possibile capire l’orientamento dell’opinione pubblica in generale. La nuova metodologia, sperimentata per la prima volta dai ricercatori di mercato, portò alla nascita dei sondaggi d’opinione. Il settore dei sondaggi attirò subito l’interesse della politica: i mezzi d’informazione parlavano di una nuova scienza capace di spiegare cosa pensavano del mondo “le donne”, “gli americani” o “i lavoratori manuali”.

Se oggi tutti fanno continuamente le pulci ai sondaggi, questo si deve in parte alle enormi speranze riposte fin dalle origini nella nuova metodologia. È solo perché crediamo nella democrazia di massa che siamo così affascinati o preoccupati da ciò che pensa l’opinione pubblica. In gran parte, tuttavia, è grazie alla statistica, e non alle istituzioni democratiche in quanto tali, che sappiamo come la pensa l’opinione pubblica su una serie di questioni specifiche. Anche se spesso non ce ne rendiamo conto, la nostra percezione dell’«interesse pubblico» si basa molto di più sui calcoli degli esperti che sulle istituzioni democratiche.

Da quando gli indicatori di salute, prosperità, uguaglianza, opinione e qualità della vita ci spiegano chi siamo collettivamente e se le cose stanno andando meglio o peggio, la politica si affida sempre di più alla statistica per puntellare la sua autorità. A volte ci si affida fin troppo, forzando le prove empiriche e interpretando i dati in modo disinvolto per piegarli ai suoi scopi. Questo, però, è il rischio inevitabile dell’egemonia dei numeri nella vita pubblica, e da solo non spiega l’ostilità verso i cosiddetti esperti negli ultimi tempi.

Una nuova geografia

Sotto molti aspetti l’offensiva populista contro gli esperti nasce dallo stesso risentimento che ha investito i politici eletti. Quando parlano della società in generale o cercano di governare l’economia nel suo complesso, sia i politici sia i tecnocrati vengono accusati di aver “perso il contatto” con il singolo cittadino e le sue esigenze particolari. Parlare in termini scientifici di un Paese — per esempio in termini macroeconomici — è un insulto per chi vorrebbe fondare la sua idea di nazione sulla memoria o sulla narrazione e non ne può più di sentirsi dire che la sua “comunità immaginata” non esiste. La crisi della statistica non è così improvvisa come potrebbe sembrare. I tentativi di rappresentare i cambiamenti demografici, sociali ed economici attraverso indicatori semplici e riconosciuti hanno perso autorevolezza negli ultimi quarant’anni, a causa della nuova geografia politica ed economica. Le statistiche che dominano il dibattito pubblico hanno un carattere prevalentemente nazionale: livelli di povertà, disoccupazione, PIL, migrazione netta. La geografia del capitalismo, però, sta spingendo in direzioni diverse. Chiaramente la globalizzazione non ha reso irrilevante la geografia. In molti casi, anzi, ha reso la posizione geografica dell’attività economica ancora più importante, aumentando le disparità tra posti di successo (come Londra o San Francisco) e posti non di successo (il nordest dell’Inghilterra o la rust belt negli Stati Uniti). Le realtà geografiche fondamentali non sono più gli stati-nazione. A salire e scendere nelle statistiche sono le città, le regioni e i singoli quartieri.

L’ideale illuministico della nazione come comunità singola, legata da un sistema di misurazione comune, è sempre più difficile da sostenere. Per gli abitanti delle valli gallesi che in passato dipendevano dalla manifattura dell’acciaio o dalle miniere, o per quelli del Sud Italia depresso fin dal momento dell’Unità, sentire i politici che dicono che «l’economia sta andando bene» è un insulto. Dal loro punto di vista, il termine “pil” non esprime nulla di significativo o di credibile.

Quando si usa la macroeconomia per sostenere una tesi politica, implicitamente si dice che le perdite in una parte del Paese vengono compensate dalla crescita in qualche altra parte. Gli indicatori nazionali che fanno notizia, come il PIL e l’inflazione, oscurano i fenomeni economici locali, di cui di solito la politica nazionale non si occupa. Forse l’immigrazione fa bene all’economia in generale, ma questo non vuol dire che non ci siano costi a livello locale. Perciò quando i politici citano gli indicatori nazionali per sostenere la loro posizione, implicitamente si aspettano una sorta di spirito di sacrificio patriottico da parte degli elettori: oggi forse siete tra gli sconfitti, ma la prossima volta potreste essere tra i fortunati. E se poi invece le cose non cambiano? Che succede se a vincere sono sempre la stessa città e la stessa regione e gli altri continuano a rimetterci? Qual è il principio di dare e avere che giustifica tutto questo?

In Europa l’unione monetaria ha acuito questo problema. Gli indicatori che interessano alla Banca Centrale Europea (BCE), per esempio, rappresentano mezzo miliardo di persone. La BCE si occupa di tenere sotto controllo l’inflazione e il tasso di disoccupazione nell’Eurozona come se fosse un unico territorio omogeneo proprio mentre il destino economico dei cittadini europei prende strade diverse a seconda della regione, della città o del quartiere in cui vivono. La conoscenza ufficiale si astrae sempre di più dall’esperienza vissuta fino a perdere completamente rilevanza o credibilità.

Semplificazione eccessiva

La scelta di privilegiare la nazione come riferimento naturale dell’analisi è una delle distorsioni innate della statistica che i cambiamenti economici stanno erodendo nel corso degli anni. Un’altra di queste distorsioni finite sotto attacco è la classificazione. Parte del lavoro degli statistici consiste nel classificare le persone mettendole all’interno di una serie di “scatole” create dagli stessi statistici: occupati o disoccupati, sposati o non sposati, europeisti o euroscettici. Usando queste categorie si riesce a capire fino a che punto una data classificazione può essere estesa a tutta la popolazione.

Tutto questo comporta delle scelte in qualche modo riduttive. Per essere classificati come disoccupati, per esempio, bisogna rispondere a un questionario e dire di essere senza lavoro per motivi indipendenti dalla propria volontà, anche se nella realtà la situazione spesso è più complicata. Molte persone entrano ed escono dal mondo del lavoro in continuazione, per motivi che a volte hanno a che fare più con la salute e con le esigenze familiari che con le condizioni del mercato del lavoro. Grazie a questa semplificazione, tuttavia, è possibile identificare il tasso di disoccupazione generale di tutta la popolazione.

In questo nuovo mondo, prima si raccolgono i dati e poi si fanno le domande

Qui però sorge un problema. Su molte delle questioni fondamentali della nostra epoca la chiave di lettura non sta nel numero delle persone coinvolte, ma nell’intensità del coinvolgimento. La disoccupazione è un esempio. Il fatto che il Regno Unito abbia superato la grande recessione cominciata nel 2008 senza registrare un aumento sostanziale della disoccupazione è generalmente considerato un dato positivo. Questa attenzione alla disoccupazione, tuttavia, ha mascherato il fenomeno della sottoccupazione, cioè delle tante persone che non lavorano abbastanza o non riescono a trovare un impiego adeguato alla propria qualifica. Oggi nel Regno Unito i sottoccupati rappresentano circa il 6% della forza lavoro “occupata”. Senza contare il fenomeno in crescita del lavoro autonomo, dove la distinzione tra “occupati” e “disoccupati involontari” non ha molto senso.
Organismi come l’Office for national statistics (ONS) britannico hanno cominciato a produrre dati sulla sottoccupazione. Ma finché i politici continueranno a difendersi dalle critiche citando il tasso di disoccupazione, l’esperienza di chi non riesce a lavorare abbastanza per vivere del proprio stipendio non sarà rappresentata nel dibattito pubblico. Non deve sorprendere se queste persone cominciano a sospettare degli esperti e dell’uso delle statistiche nei dibattiti politici: c’è uno scollamento tra la rappresentazione del mercato del lavoro data dai politici e la realtà vissuta.

L’emergere della politica dell’identità a partire dagli anni Sessanta mette ancora più in discussione questi sistemi di classificazione. I dati statistici sono credibili solo se la gente si riconosce nello spettro limitato delle categorie demografiche proposte, che sono scelte dagli esperti e non dagli intervistati. Ma quando l’identità diventa una questione politica, ognuno pretende di definire se stesso nei termini che preferisce, che si tratti di genere, orientamento sessuale, gruppo etnico o classe.

Negli ultimi anni è nato un metodo per rappresentare la popolazione con dati quantitativi che minaccia di relegare ai margini la statistica. Le statistiche, raccolte e compilate da tecnici ed esperti, stanno lasciando il posto ai dati che si accumulano automaticamente grazie alla digitalizzazione della società. Tradizionalmente gli statistici sapevano quali domande rivolgere e a chi, e poi cercavano le risposte. Oggi, invece, i dati si producono ogni volta che strisciamo una carta fedeltà, pubblichiamo un commento su Facebook o cerchiamo qualcosa su Google. Più le città, le automobili, le case e gli elettrodomestici sono connessi, più cresce la quantità di dati che ci lasciamo dietro. In questo nuovo mondo, prima si raccolgono i dati e poi si fanno le domande.

A lungo termine, tutto questo potrebbe avere implicazioni altrettanto profonde dell’invenzione della statistica alla fine del Seicento. La raccolta di dati su larga scala — i cosiddetti big data — offre molte più opportunità per l’analisi quantitativa rispetto a qualsiasi modello statistico. Ma non è solo la quantità di dati a essere diversa. I big data rappresentano un tipo di conoscenza completamente diverso, accompagnato da una nuova competenza.

Innanzitutto non esistono parametri di riferimento fissi (per esempio, la nazione) né categorie predeterminate (per esempio, i disoccupati). Queste grandi serie di dati possono essere estratte per cercare modelli, tendenze, correlazioni e umori emergenti. Servono più a tenere traccia dell’identità che la gente si attribuisce che a imporle delle classificazioni. Sono una forma di aggregazione che si addice a un contesto politico più fluido, in cui non tutto può essere ricondotto a un vago ideale illuministico dello stato-nazione come custode dell’interesse pubblico. Inoltre, quasi nessuno ha la minima idea di cosa tutti questi dati raccontino su di noi, a livello individuale e collettivo. Non c’è un corrispettivo dell’ufficio nazionale di statistica per i dati raccolti a scopi commerciali. Viviamo in un’epoca in cui i nostri sentimenti, le nostre identità e le nostre sofferenze possono essere tracciati e analizzati con una velocità e una precisione inedite, ma non c’è niente che riconduca questa nuova capacità all’interesse o al dibattito pubblico. Ci sono analisti che lavorano per Google e Facebook, ma non sono “esperti” come quelli che producono le statistiche e che oggi sono tanto disprezzati. L’anonimato e la segretezza rendono i nuovi analisti potenzialmente molto più influenti dal punto di vista politico di qualsiasi scienziato sociale.

Tracciare lo stato d’animo

L’aspetto politicamente più rilevante di questo passaggio dalla logica della statistica alla logica dei dati è che si sposa perfettamente con l’ascesa del populismo. I leader populisti manifestano il loro disprezzo per gli esperti tradizionali come gli economisti e i sondaggisti e si affidano a una forma completamente diversa di analisi numerica. Chiedono aiuto a una nuova élite, meno visibile, che cerca modelli in grandi banche dati ma che raramente si pronuncia in pubblico e tantomeno rende noti i risultati delle sue analisi. Questi analisti spesso sono fisici o matematici, che per formazione e competenze non hanno nulla a che fare con le scienze sociali. Ecco per esempio la tesi di Dominic Cummings, consigliere dell’ex ministro della giustizia britannico Michael Gove e direttore della campagna a favore della Brexit: «La fisica, la matematica e l’informatica sono gli ambiti in cui ci sono i veri esperti, a differenza delle previsioni macroeconomiche».

Figure vicine a Donald Trump come il suo consulente strategico Steve Bannon e il miliardario della Silicon valley Peter Thiel conoscono molto bene le tecniche di analisi dei dati più all’avanguardia grazie a società come Cambridge Analytica, di cui Bannon era consigliere di amministrazione. Durante la campagna elettorale per le presidenziali, Cambridge Analytica ha attinto a varie fonti di dati per costruire i profili psicologici di milioni di statunitensi, poi usati per aiutare Trump a mandare messaggi mirati agli elettori. Questa capacità di sviluppare e affinare informazioni piscologiche relative ad ampie fasce della popolazione è uno degli aspetti più innovativi e discussi della nuova analisi dei dati. Mano a mano che le analisi in grado di misurare lo stato d’animo delle persone attraverso indicatori come l’uso delle parole sui social network entrano a far parte delle campagne elettorali, la presa emotiva di figure come Trump può essere l’oggetto di uno studio scientifico. In un mondo in cui gli umori dell’opinione pubblica diventano così facilmente tracciabili, a che servono i sondaggi?

Pochissimi elementi di rilievo sociale che emergono da questa tipologia di analisi dei dati vengono resi noti al pubblico. Ciò significa che si fa molto poco per ricondurre la narrazione politica a una realtà condivisa. Con la progressiva perdita di autorità delle statistiche, e nulla che ne prenda il posto nella sfera pubblica, la gente può vivere nella “comunità immaginata” che sente più affine e in cui è disposta a credere. Mentre le statistiche possono essere usate per correggere dichiarazioni inesatte sull’economia, la società o la popolazione, nell’epoca dell’analisi dei dati ci sono pochi meccanismi per impedire alla gente di cedere a reazioni istintive o a pregiudizi emotivi. Lungi dal preoccuparsene, aziende come Cambridge Analytica considerano queste reazioni come elementi di cui tenere conto.

Ma anche se esistesse un ufficio per l’analisi dei dati che lavora per conto della collettività e dello Stato come fanno gli istituti nazionali di statistica, non è detto che avrebbe il punto di vista neutrale che oggi i liberali cercano di difendere. Il nuovo apparato di calcolo è perfetto per identificare nuove tendenze, per cogliere gli umori e scoprire i fenomeni non appena si manifestano. È uno strumento molto utile per chi fa campagne elettorali e di marketing. È molto meno adatto a fornire una lettura non ambigua, oggettiva, potenzialmente condivisa della società come quella per cui sono pagati gli statistici e gli economisti.

La questione che bisogna prendere più sul serio, oggi che i numeri vengono costantemente generati a nostra insaputa, è in quali mani la crisi della statistica lascia la democrazia rappresentativa. La statistica nasce come uno strumento dello Stato per interpretare la società, ma è diventata progressivamente una materia che interessa il mondo accademico, i riformatori e le imprese. Ormai, però, la segretezza sulle metodologie e le fonti dei dati è un vantaggio competitivo a cui molte aziende non riescono a rinunciare.

La prospettiva di una società poststatistica è preoccupante, non solo perché verrebbe a mancare qualsiasi forma di verità o di competenza, ma perché entrambe sarebbero drasticamente privatizzate. La statistica è una delle tante colonne del liberalismo, anzi, dell’illuminismo. Gli esperti che la producono e la usano sono stati dipinti come arroganti e sordi alla dimensione emotiva e locale della politica. Sicuramente bisogna trovare dei sistemi per raccogliere i dati in un modo che rispecchi meglio l’esperienza vissuta. Ma sul lungo periodo la battaglia che va combattuta non è tra la politica dei fatti guidata dalle élite e la politica delle emozioni guidata dal populismo. È tra chi ancora crede nella conoscenza e nel dibattito pubblico e tra chi trae profitto dalla loro disintegrazione.

Be First to Comment

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.