
Lo “scandalo Cambridge Analytica” ha assunto proporzioni epiche. E le foto di Mark Zuckerberg che abbandona la sua iconica tshirt e si presenta ‘imborghesito’ in cravatta e col capo cosparso di cenere davanti ai parlamentari USA riempiono le prime pagine.
Eppure la massima parte di noi non ci sta capendo una cippa, diciamo la verità.
Così ho deciso di raccogliere i fili e spiegare bene cosa succede. E per bene intendo in profondità.
Nell’ultimo mese, in sintesi:
– C’è una società vicina alla destra USA (Steve Bannon, Breitbart, Trump, quelle cose lì), tale Cambridge Analytica, che raccoglie dati personali per creare profili psicologici degli utenti da usare in campagne di marketing super mirate (“psicografiche”: ci arriviamo dopo);
– Questa società viene sospesa di colpo da Facebook con l’accusa di avere usato dati raccolti sul social network che non le appartenevano;
– Guardian e New York Times pubblicano articoli accusando Facebook di avere reso possibile la raccolta, seppure non attivamente, e di avere poi sottovalutato (o peggio, nascosto) la cosa;
– Facebook crolla in borsa;
– Mark Zuckerberg deve prostrarsi davanti a ben due commissioni d’inchiesta del suo Paese, una al Senato, una alla Camera. Già quando nel 2003 inventa “The Facemash”, la primissima versione di Facebook, Zuckerberg viene accusato dall’università di Harvard, dove studia, di aver violato la privacy, le norme di copyright e le norme di sicurezza. Per questo rischia di essere espulso, ma alla fine non se ne fa nulla (ricordate lo splendido film “The Social Network”?). Per Zuck la “grana privacy” è ormai un’abitudine;
– Vengono annunciati giri di vite, soluzioni, mea culpa vari;
– Alcuni furboni (Elon Musk, Cher, il cofondatore sfigato di Apple Steve Wozniak) perennemente in cerca di visibilità e di titoli pensano addirittura di farsi pubblicità gratuita annunciando il proprio ritiro da Facebook, cui seguono hashtag altisonanti (“DeleteFacebook”, tipo);
– Lagggente non sa che pesci pigliare ma per sicurezza intanto nasconde il proprio profilo Facebook (capirai, hanno scoperto che non si resiste più di una settimana lontani), smette di postare le foto del gatto o del gateau appena sfornato (il gateau, non il gatto, anche se qualche pirla ha provato pure a mettere il micio nel microonde, e in diretta sui social);
– Zuckerberg, che ha bruciato svariati miliardi nei giorni precedenti, dopo il suo «Scusate, ho bagliato, non lo faccio più» vede risalire le azioni della sua società di svariati fantastiliardi (ma si può?!… Dannati americani, sono dei bambinoni!)
Intanto, chiariamo.
Da un punto di vista prettamente informatico non c’è stato alcun hackeraggio, e quindi le vostre foto del battesimo del nipotino e dei vostri gatti e gattò sono al sicuro: l’integrità del social network non è stata violata in alcun modo. C’è stato “solo” del traffico di dati, raccolti su FB attraverso una delle tante “app” (tipo FarmVille e simili), che dei programmatori hanno rivenduto ad altri programmatori (e non potevano farlo). Una di quelle app che vi chiedono di accedere ai vostri profili Facebook, avete presente?, e di sapere chi sono i vostri amici, le vostre pagine FB preferite, etc.
Nel 2004, quando fu fondata Facebook, dapprima l’accesso era limitato agli studenti di Harvard, poi fu aperto ad altri college, poi ulteriormente esteso agli studenti delle scuole superiori e infine al pubblico generale. Fin dall’inizio, il requisito per aderire al sito era la trasparenza: per iscriversi alla piattaforma, era necessario un indirizzo email valido e bisognava rivelare il proprio nome. La connessione con gli altri era subordinata alla rivelazione di un aspetto fondamentale di sé, che contrastava con le aspettative online di un’esperienza mediata da un alias in grado di garantire un certo anonimato — come avveniva nelle chat, dove ci si poteva nascondere dietro uno pseudonimo.
Con l’allargamento graduale della cerchia d’inclusione, Facebook ha normalizzato la condivisione di aspetti della vera identità di una persona. Condividere il nome in una comunità sociale chiusa come un campus universitario è facile ma, via via che le persone si spostano e la loro rete offline cresce, la scelta commerciale di aprire Facebook a tutti con la scusa di aumentare e mantenere la connettività e la rilevanza per gli utenti ha portato gli utenti a condividere il proprio nome — e altri aspetti di sé — con un pubblico sempre più vasto di persone e servizi.
Naturalmente, il nome di per sé non racconta l’intera storia della persona che sta dietro lo schermo, motivo per cui è stato importante per Facebook introdurre nuove funzionalità: il News Feed ha dato un’idea delle attività, degli aggiornamenti di stato, delle modifiche al profilo, dei compleanni, degli articoli condivisi e delle foto dei propri amici; i tag hanno permesso di collegare i nomi alle persone e ampliato il potenziale di collegamento con gli altri; il pulsante “Mi piace” ha semplificato la comunicazione di opinioni e feedback; e l’integrazione con le app di gioco e di localizzazione ha ulteriormente condiviso informazioni su interessi e movimenti.
Tutti questi piccoli scorci sulla persona sono stati rivelati così gradualmente, si direbbe “omeopaticamente”, che gli utenti hanno fatto ben poca attenzione a ciò che stavano concedendo. Erano funzionalità pensate per attirare gli utenti in base alla familiarità e al fascino della partecipazione. E questa partecipazione ha perpetuato un circolo in cui si fornisce sempre qualcosa in più di noi stessi online: siamo più propensi a compiere un’azione se vediamo che viene compiuta da altri che sono come noi (o come vorremmo essere).
Questa conferma psicologica delle nostre azioni convalida il nostro senso di appartenenza. La convalida invoca un senso di soddisfazione che attinge alle aree di ricompensa del nostro cervello, rendendoci più propensi a tornare e ripetere le stesse azioni.
Ogni social media offre un ciclo di feedback basato sulla gratificazione. Esistono sette tipi di gratificazione legati a Internet, e Facebook riesce a sfruttarli tutti e sette attraverso varie funzionalità ed estensioni:
(Gratificazione —> Esperienza su Facebook)
Comunità virtuale —> Uno sbocco per connettersi con amici di amici (di amici) per aumentare le connessioni
Ricerca di informazioni —> Scoprire le notizie più importanti, così come eventi locali ed eventi più importanti tramite il feed di notizie e le funzionalità di ricerca degli eventi
Esperienza estetica —> Sperimentare nuove funzionalità interattive con l’integrazione di app e servizi
Compenso in denaro —> Vendere e comprare servizi
Svago —> Integrazione di app di gioco
Status personale —> Avere una misura del proprio successo sociale rispetto ai pari
Mantenimento delle relazioni —> Sviluppare e mantenere relazioni sociali
Molti si collegano a Facebook ogni giorno, alcuni ogni ora, altri ancora sono costantemente connessi. La nostra relazione abituale con il “social blu” è nata dalla sua capacità di attingere a queste aree di soddisfazione. Garantendo una ricompensa costante per la nostra partecipazione, Facebook è diventata un meccanismo di soddisfazione quotidiana delle nostre piccole richieste di attenzione. È un’esperienza che crediamo sia centrata sull’individuo, e conserviamo quel senso di autenticità donando pezzi di noi stessi.
Si possono calcolare molte cose, molto velocemente, in modo molto accurato, a partire da una casistica molto vasta e disponendo di molti ma molti dati su ogni singolo individuo che passi un po’ del suo tempo in Rete, anche solo navigando. E tutto ciò, ormai, funziona perfino a partire da una manciata di dati. «Se qualcosa è gratis, vuol dire che il prodotto sei tu». Lo scriveva Time, a proposito di Facebook, già nel 2010: ma forse il peso di questa affermazione comincia a essere evidente solo adesso.
Se non ci credete, mettete all’opera questo strumento situato sempre a Cambridge — ma stavolta all’Università e non presso una società di brokeraggio dati —, e resterete spiazzati dalla quantità di cose che già sa di voi: applymagicsauce.com.
Ogni giorno lasciamo dietro di noi una grande quantità di tracce su ciò che facciamo, per esempio quando usiamo le carte fedeltà nei negozi o quando compriamo qualcosa su Internet. Immaginate la classica situazione per cui andate sul sito di Amazon, cercate un prodotto per vederne il prezzo, poi passate a fare altro e all’improvviso vi trovate su un altro sito proprio la pubblicità di quel prodotto che eravate andati a cercare. Ora moltiplicate questo per milioni di utenti, e pensate a qualsiasi altra condizione in cui la loro navigazione possa essere tracciata. Il risultato sono miliardi di piccole tracce, che possono essere messe insieme e valutate.
Le informazioni sono di solito anonime o fornite in forma aggregata dalle aziende web per non essere riconducibili a una singola persona, ma considerata la loro varietà e quantità, scienziati che scrivono algoritmi come quelli di Cambridge Analytica sostengono di potere lo stesso risalire a singole persone (anche se non per nome e cognome) e creare profili molto accurati sui loro gusti e su come la pensano.
Insomma, non vi toccano il conto in banca (sempre che ne abbiate uno, di questi tempi) né vi “rubano” le foto dal profilo: semplicemente, riescono a sapere qualcosa di voi IN BASE A DOVE E COME METTETE I “LIKE”.
Cambridge Analytica dice di avere sviluppato un sistema di “microtargeting comportamentale”, che tradotto significa: pubblicità altamente personalizzata su ogni singola persona o quasi. I suoi responsabili sostengono di riuscire a far leva non solo sui gusti, come fanno già altri sistemi analoghi per il marketing, ma sulle emozioni degli utenti. Se ne occupa un algoritmo sviluppato dal ricercatore di Cambridge (da qui il nome dell’azienda) Michal Kosinski, che da anni lavora per migliorarlo e renderlo più accurato. Il modello è studiato per prevedere e anticipare le risposte degli individui.
Non è roba nuova: è solo adattata alla modernità. Il “problema” è molto vetusto, ben noto a noi pubblicitari, e lo ha illustrato e riassunto benissimo Annamaria Testa (una famosa e brava pubblicitaria italiana) su Internazionale.
Perché un’offerta (ogni offerta: commerciale, politica, personale) sia accettata, bisogna che arrivi alla persona giusta. E deve trattarsi dell’offerta giusta, presentata e argomentata con un messaggio giusto, e attraverso il medium di comunicazione giusto. Funziona sempre così.
Anche voi, se volete convincere qualcuno ad accompagnarvi a vedere un film (cioè, se volete promuovere un’offerta), sfogliate l’agenda cercando un amico appassionato di cinema (selezionate la persona giusta, segmentandola all’interno del gruppo dei vostri amici), poi pensate a cosa dirgli per convincerlo (ottimizzate il messaggio), e infine decidete se è meglio fargli una telefonata, usare WhatsApp o passare da casa sua e citofonare (scegliete il medium, il mezzo). Con ciò, avete fatto una perfetta strategia di comunicazione di marketing.
Il rompicapo, per le aziende che non devono andare al cinema ma vendere un sacco di prodotti a una quantità di persone, è capire come presentare la loro offerta a quali persone, con quali messaggi e argomentazioni, e sapere quali sono i media più adatti a raggiungere senza dispersioni (cioè: senza sprechi di denaro) proprio quelle persone lì.
Fino ai primi anni Settanta, le aziende individuavano (segmentavano) le fasce di pubblico potenzialmente interessate alla loro offerta in base a dati sociodemografici: età, sesso, occupazione, luogo di residenza, fascia di reddito, livello d’istruzione, stato civile e poco altro.
È una tecnica rudimentale: pensate a due insegnanti di 30 anni, sposate, che abitano a Milano. Sono “sociodemograficamente” simili, ma non è per niente certo che abbiano analoghe propensioni: una ama la musica classica, gira in tailleur e filo di perle, va dal parrucchiere tutte le settimane, legge Gente, è una cuoca appassionata. L’altra (siamo negli anni Settanta, eh!) ama i Beatles e i Rolling Stones, legge L’Espresso, va dal parrucchiere quattro volte all’anno perché ha i capelli lunghi e li spunta soltanto, gira in pantaloni e pullover. Una compra la lacca per capelli, l’altra non la vuole neanche vedere. Una compra i dadi per brodo, l’altra, se non fa prima il bollito, non cucina neanche il risotto.
La soluzione arriva con la ricerca “psicografica”.
Negli Stati Uniti la ricerca psicografica muove i suoi primi passi alla metà degli anni Sessanta e grazie allo sviluppo dei computer, che offrono la potenza di calcolo necessaria a processare e incrociare enormi quantità di dati.
In Italia, la prima ricerca psicografica è stata lanciata nel 1976. Si basava su un campione di diecimila persone rappresentative della società italiana. Questi individui erano intervistati di persona, da psicologi, su batterie di centinaia domande formulate per indagare sia le attitudini di consumo, sia l’esposizione ai diversi mass media, sia la personalità. È una faccenda che dura ore.
Chi come me è del mestiere da oltre 30 anni ricorda bene le tabelle “Sinottica Eurisko”, in cui gli italiani vengono “segmentati” (tuttora) in pochi grandi cluster dai nomi esotici (Doppio Ruolo, Frizzanti, Solidi, Sognanti, Aperti, Maschio preculturale, Lavoro e svago, Lavoratore d’assalto, Pacati, Insoddisfatti, Equilibrati, Anziano Da Osteria, Protagonisti, Ragazzi Evoluti, Élite…), che confluiscono in una “mappa sinottica”, o Grande Mappa: un quadrante diviso in sedici caselle principali su cui vengono posizionati idealmente i vari consumatori come su di una specie di diagramma cartesiano. Le direzioni in cui si articolano le due dimensioni principali dello schema sono quella verticale, cioè dei tratti morbidi o “femminili” (legati alla moderazione, alla misura, all’equilibrio, alla relazione con gli altri, alla dimensione del pensiero e della cultura), e quella orizzontale, dei tratti duri o “maschili” (legati a confronto sociale, affermazione, protagonismo, centratura su se stessi, dimensione del successo e dell’azione). L’indicazione “femminile-maschile” non si traduce automaticamente in un’identificazione di genere, ma ogni persona può essere caratterizzata da entrambe le dimensioni: più queste dimensioni entrano in posizione relativa, più creano le condizioni migliori per la vita sociale; se invece si esprimono entrambe su poli negativi, si traducono in esclusione sociale e marginalità commerciale.

È anche un processo costosissimo (i sondaggi sono fatti per telefono, su campioni grandi un decimo, e su poche domande). Ma i risultati sono straordinari: una mappa che profila e segmenta la società per “stili di vita”, comprendenti attitudini, orientamenti, credenze, comportamenti di consumo, esposizione ai media… il sogno del marketing, tradotto in realtà.
Finalmente le aziende possono dire le cose giuste, alle persone giuste, usando il medium che meglio riesce a raggiungerle (tutti i quotidiani, settimanali, mensili, le tv, le radio, vengono mappati e incrociati con questi stessi dati: l’audience viene “psicografata” per ogni medium). Ma, appunto, tutto ciò è costoso. E i dati devono essere aggiornati due volte all’anno. E comunque vanno di volta in volta integrati sugli aspetti più specifici (e sono ulteriori costi).
Tuttavia le aziende sono entusiaste del nuovo strumento. (Invece la politica, almeno per un lungo periodo, se ne disinteressa.)
Tradotta ai giorni nostri la cosa sul piano dei social network, restava un bel grattacapo da risolvere: per ordinare e convertire l’enorme, indigesto fritto misto di dati personali raccolti in materiale utile a costruire un campione psicografico, bisognava connettere i dati a profili psicologici. Ci sono riusciti due giovanotti di Cambridge, Michal Kosinski e David Stillwell. E qui entrano in gioco i “Big Five”, e un’idea semplice e a suo modo geniale.
I “Big Five” (le “5 grandi” dimensioni di personalità: estroversione-introversione, gradevolezza-sgradevolezza, coscienziosità-negligenza, nevroticismo-stabilità emotiva, apertura mentale-chiusura mentale; l’uomo ha codificato in forma verbale tutte le esperienze significative per la comunità comprese, in questo caso, parole che si riferiscono alle differenze individuali: le 5 dimensioni elencate, quindi, corrisponderebbero alle macro-categorie più usate, nel linguaggio, per descrivere le diversità tra individui. Questi tratti di personalità sono definiti nella versione italiana dello strumento di misura come Estroversione, Amicalità, Coscienziosità, Stabilità emotiva, Apertura mentale — ndr) sono uno dei più noti e reputati modelli della personalità, descritta secondo cinque scale di opposti. La teoria è stata formulata nel 1985. I risultati sono efficaci.
I due giovanotti di Cambridge mettono su Facebook un test di personalità basato sui Big Five e propongono agli utenti di compilarlo. Così, in totale inconsapevolezza e pensando che sia solo un giochino, ciascun utente, rispondendo alle domande del test, disegna il proprio profilo (ci sono cascati in 270mila). Ai giovanotti non resta che dire ai loro computer di correlare ciascun profilo psicografico con l’enorme quantità di dati individuali che già Facebook raccoglie e a cui permette di accedere, e di combinarli con ogni comportamento individuale in Rete.
Il gioco è fatto. Combinando roba che già esisteva (i dati, la tecnica psicografica, i Big Five) si è ottenuto uno strumento nuovo: un campione costituito non da diecimila individui, ma da milioni. Altro che le 16 dimensioni di Sinottica Eurisko…
Kosinski — con poca modestia — sostiene che gli siano sufficienti informazioni su 70 “Mi piace” messi su Facebook per sapere più cose sulla personalità di un soggetto rispetto ai suoi amici, su 150 per saperne di più degli stessi genitori del soggetto, su 300 per superare le conoscenze del suo partner. Con una quantità ancora maggiore di “Mi piace” gli è possibile conoscere più cose sulla personalità rispetto a quante ne conosca il soggetto stesso.
E non è questione solo di like, e neanche solo di Facebook: Kosinski e la sua équipe sostengono di poter assegnare punteggi nei Big Five anche solo in base al numero delle foto di profilo di ogni utente su Facebook o al numero dei suoi contatti, che è tra l’altro un valido indicatore dell’estroversione. Peraltro, noi riveliamo qualcosa di noi stessi anche quando non siamo collegati. Per esempio, il sensore di movimento del cellulare rivela la rapidità dei nostri spostamenti e le distanze che copriamo, e questi dati sono correlati all’instabilità emotiva. La conclusione di Kosinski fu che i nostri smartphone sono grandi questionari psicologici che compiliamo di continuo, spesso senza nemmeno rendercene conto.
Ma soprattutto la cosa funziona anche al contrario: non solo si possono creare profili psicologici a partire dai nostri dati, ma questi dati possono anche essere usati per ricercare categorie specifiche, per esempio tutti i padri ansiosi, tutti gli introversi arrabbiati o tutti gli elettori democratici indecisi. Stando a Kosinski, insomma, egli aveva essenzialmente inventato una specie di motore di ricerca di profili umani.
Ovviamente, è più che lecito dubitare di Kosinski. Tutti noi sappiamo quale sia il valore intrinseco dei nostri like su Facebook: qualcosa che, nonostante le raffinate teorie sul “grafo sociale”, restituisce di noi un ritratto davvero parziale, quando non farlocco. Eppure, in analisi del genere, quei dati — essendo la sola “moneta scambiabile” — si trasformano in fonte di informazioni superpreziose, in grado non solo di raccontare “tutto” (!) di noi ma anche di fornire la chiave per “hackerare” le nostre scelte più intime.
Ma Facebook che vende i nostri profili a tutti i markettari del pianeta è lo stesso Facebook che consente più o meno volontariamente l’utilizzo di quei dati anche per differenti e più sensibili finalità. E che quando immagina di poter fare un distinguo fra differenti utilizzi mostra tutta la propria incapacità a dominare la macchina che lei stessa ha creato.
Ecco, è qui tutto il casino, se vogliamo. Facebook ormai è troppo grande, per essere controllata dalla stessa Facebook. Ma non è che i markettari “sanno davvero tutto di ognuno di noi”, come sostiene Kosinski — uno che si sa vendere bene, anche se mai quanto la stessa Cambridge Analytica.
La quale è una controllata della ben più ramificata Strategic Communication Laboratories, i cui interessi spaziano dalle elezioni in Ucraina fino a quelle in Nigeria, per spingersi alla contropropaganda in chiave anti-Russia in Lettonia con soldi Nato. Nata nel ’93 come società con scopi civili, dalla metà degli anni Duemila sviluppa una serie di programmi per la Difesa che vanno dalla “guerriglia psicologica” alla “presa di possesso temporanea dei mezzi di comunicazione”, in scenari degni di James Bond. Solo che qui la Spectre c’è davvero, e si cela dietro Aleksandr Kogan. Un personaggio suggestivo. Nel 2014, due anni prima che Trump arrivi alla Casa Bianca, si presenta nei laboratori di psicometria dell’università di Cambridge dove un brillante ricercatore (il nostro già citato Michal Kosinski) sta sperimentando l’applicazione del metodo “Ocean” — acronimo per openness (apertura mentale), conscientiousness (scrupolosità), extroversion (affabilità), agreeableness (cooperatività) e neuroticism (facilità ad arrabbiarsi): i Big Five, insomma — attraverso Facebook e i social network. Il finanziatore di tutto l’ambaradan è il miliardario Robert Mercer, fascistoide, lo stesso che ha lanciato la carriera del blogger anti-islamico Milo Yiannopoulos e, soprattutto, con 10 milioni ha permesso la nascita di Breitbart, il sito di estrema destra da cui è emersa la figura di Steve Bannon, il noto giornalista “alt-right” arrivato a ricoprire brevemente la carica di Consigliere speciale del Presidente durante il primo anno dell’amministrazione Trump.
Kogan si presenta come intermediario per la SCL e chiede di poter accedere ai dati della ricerca. Kosinski si lascia corteggiare un po’, in un secondo momento rifiuta poi come che sia i dati passano comunque di mano. Kogan scompare dalla storia, Kosinski scoprirà più avanti che ha registrato una società legata a SCL. Ma di lui nessuna traccia: Cambridge Analytica e SCL negano qualsiasi nesso tra la loro attività e il metodo di Kosinski. E quando l’inglese Guardian e lo svizzero Das Magazin — cui si deve la ricostruzione — riescono a trovare Kogan, l’uomo si trova a Singapore e ha cambiato nome. Ora è Aleksandr Spectre. (James Bond, appunto.)
Perché i partiti italiani non fanno esattamente quel che ha fatto Trump? Una parola: soldi. I dati anagrafici sono facilmente ottenibili, quelli sulla partecipazione politica sono già a disposizione. E su questo si basa storicamente l’approccio all’elettore. Quel che manca da noi è una struttura in grado di aggregare i dati in maniera omogenea (Berlusconi per le politiche 2018 si è affidato alle capacità social di Dj Francesco, per dire…): tanto per tornare a Trump, lo sforzo di Cambridge Analytica è costato $15 milioni, all’interno di una struttura da $400 milioni. Relativamente poco rispetto a un’intera campagna elettorale USA.
Nei toni angoscianti e distopici che i media scelgono di utilizzare in massa, il retropensiero che emerge è il trito e ritrito refrain: quello secondo il quale esiste una enorme intelligenza cattiva, una cosa a metà fra Bilderberg e Grande Fratello, in grado di condizionare le nostre povere teste di cazzo attraverso formule magiche, righe di codice e intrugli alchemici fuori dalla nostra umana comprensione. E che simili trucchi siano “connaturati” agli ambienti digitali.
Non è vero. Sapevamolo.
Però è vero che una campagna di comunicazione sagace può “avvelenare i pozzi”. È sufficiente generare contenuti che alimentano quei sentimenti che servono ad alcuni candidati (tipo Trump). Insomma, si possono nutrire con costanza la paura e il risentimento, un post al giorno, una foto al giorno, un video al giorno, veri o finti che siano (meglio finti però: le famigerate Fake News), senza fretta, indirizzando tutto ciò verso milioni di elettori. L’ultimo necessario passaggio è lasciare che sia un candidato a offrire l’«antidoto», la risposta politica, a quella paura. Come fa Salvini. Come ha fatto Trump. Come è successo per Brexit.
Ecco un colorito esempio di Azael su Medium che spiega come Cambridge Analytica non abbia in pugno Mario Rossi, il suo conto corrente, la sua matricola Inps, le chiavi della sua auto, la serratura del suo frigorifero connesso a Internet e volendo può ricattarlo «dammi 500 euro se vuoi una birra fresca o non faccio aprire il frigo».
-Cambridge Analytica ha creato una specie di sondaggetto su Facebook, di quelli che facciamo continuamente con grande gioia, tipo “Scopri che alimento senza glutine saresti se fossi un ex parlamentare repubblicano” [in realtà non è stata Cambridge Analytica a inventare il giochino ma, come detto, Kosinski — ndr];
-vi ha chiesto se poteva prendere alcuni dati del vostro profilo;
-voi gli avete detto di sì perché voi non avete niente da nascondere, perdìo;
-vi ha chiesto anche se poteva avere la lista dei vostri amici;
-voi gli avete detto di sì (e all’epoca per Facebook non era illegale farlo);
-sulla base di analisi psicometriche ha dedotto, per esempio, che l’utente Guiseppe, dato che gli piacciono i tarallucci e le Dolomiti, allora vota a destra e ha paura che i clandestini gli rubino il lavoro. L’utente Mariabudella invece vota la Bonino perché le piacciono le poesie di Neruda e i labrador;
-su questa base, la società ha creato un grosso grasso foglio Excel in cui ha messo tutte le tendenze politiche delle persone (“lui voterà Ingroia”), le paure (“lui teme l’invasione degli Unni”), i gusti (“a lui piacciono molto i grassi saturi”) e le opinioni (“per lui la Terra è trapezoidale”), poi ha spedito il foglione a Trump, facendosi dare in cambio un po’ di soldi;
-Trump ha preso questo foglione Excel e sulla base dei dati in esso contenuto ha mostrato delle pubblicità su Facebook e su altri siti in giro per il web, spiegando:
*a Guiseppe che, se Trump avesse vinto le elezioni, avrebbe ucciso i clandestini con la fibia della cinta e avrebbe regalato tarallucci al casello di Civitanova Ovest;
*a Mariabudella che, se Trump avesse vinto le elezioni, avrebbe invece liberalizzato l’uso personale della Bonino e regalato labrador ai poeti poveri;
-la signora Mariabudella e il giovane Guiseppe, guardando con attenzione queste pubblicità, in virtù di un complicato calcolo di costi/benefici, hanno deciso quindi di votare Trump;
-Trump ha vinto le elezioni.
Ed ecco con un’infografica quello che avviene (a destra), e in cosa differisce dalle “normali” truffe che avvengono sulla Rete (a sinistra): l’azienda o il politico (o Cambridge Analytica, o chicchessia) che comprano lo spazio su FB, non entrano direttamente in contatto con Mario Rossi in persona come farebbe un ladro, bensì con le sue preferenze, il suo stile di vita, i suoi gusti, le sue paure, etc.; e non sono nemmeno l’azienda o il politico (o Cambridge Analytica, o chicchessia) a interagire di persona con la faccenda, bensì i sistemi automatici di profilazione pubblicitaria, che “sanno” dove andare a piazzare quel determinato annuncio — ossia, a quale “Mario Rossi” farlo apparire, in base ai gusti di “Mario Rossi”, ricavati a loro volta in base ai Like di “Mario Rossi”.

Perciò in questa vicenda in fin dei conti il vero dramma sarebbe la nostra stupidità.
Questi cazzo di americani avrebbero deciso per chi votare sulla base delle pubblicità viste su Facebook. Le persone han preso a decidere il proprio voto con lo stesso processo mentale che fino a qualche anno fa serviva solo per scegliere il detersivo e i pannolini. Ossia, lagggente vota a cazzo di cane, sulla base di paure, promesse, convenienze personali, notizie finte, teorie sbagliate, idee sceme di ogni sorta. D’altronde sapevamo che fosse la fine delle ideologie: l’epoca è quella dell’«uno vale uno», della soggettività, della politica “liquida”, dei cittadini e non dei partiti, chi più di un cittadino dell’Oregon col colesterolo a 250 per i troppi panini McDonald’s può decidere della politica estera della superpotenza nucleare?
Alla fine della fiera, quindi, è il classico concetto: se usate la testa, nessun social network e nessun markettaro vi possono fare chissà che. Come dice ancora Azael, «i vostri dati personali, detto per inciso e fuori dall’enfatica rappresentazione che in genere ne fanno i conduttori dei talkshow, sono una montagna di merda, composta per lo più da citazioni con refusi di Fabio Volvo e foto di voi che mangiate il sushi a Pavia. I vostri dati personali non contano un santissimo cazzo. Voi non contate un cazzo. Non avete nulla da proteggere, e dovreste preoccuparvi di una sola cosa: informarvi, studiare, cercare di capire qualcosa prima di scegliere se votare per un imbecille».
Se invece sui social vi lasciate rincoglionire come quelli che stanno a bocca aperta davanti alle TV berlusconiane da 20 anni, be’, allora nessuno potrebbe comunque salvarvi. Siete fottuti proprio in partenza.
Per dirla più finemente… Come ha sottolineato brillantemente Giacomo Papi sul Post, nei mercati le parole sono usate per vendere, e hanno di mira la persuasione, mentre nell’«agorà libera» sono usate per capire, e hanno di mira la verità. La confluenza tra questi due spazi è in atto da decenni, ma è culminata nei social network: oggi la piazza del mercato ha inglobato la piazza della politica, al punto che i due ambiti ormai sono di fatto indistinguibili. La sfera pubblica è diventata a tutti gli effetti pubblicitaria.
La politica è l’attività umana che dovrebbe armonizzare la vita individuale con quella sociale. Per questo si fonda sulla distinzione tra pubblico e privato. I mezzi di comunicazione di massa hanno corroso questo confine, che si era faticosamente formato con la modernità e ne aveva definito la struttura politica profonda. Coi social il confine è definitivamente andato in malora.
Lo “scandalo” dell’uso politico (l’elezione di Trump, la Brexit) dei dati degli utenti di Facebook raccolti da Cambridge Analytica si basa perciò sulla credenza superstiziosa e autoassolutoria che esista ancora un confine tra la sfera pubblica e quella pubblicitaria, che la piazza del mercato e quella della politica non siano diventate una cosa sola, che la differenza tra quello che consumiamo e quello che votiamo non possa essere cancellata dall’unico gesto del Like, che è così potente da mettere sullo stesso piano — come su un bancone del mercato —, giornali, app di car sharing, partiti politici, squadre di calcio, petizioni ecologiche, sportivi e musicisti dilettanti, video di comici cinesi, viaggi in Patagonia, ditte che consegnano frutta biologica, marche di jeans, candidati Presidente.
Ma ci sarebbero ben altri piani da mettere sotto la lente d’ingrandimento.
Un esempio: come le tecnologie digitali stiano modificando il cervello umano. Da varie ricerche emerge come gli utilizzatori di Facebook siano più soddisfatti delle proprie vite quando pensano che i propri amici di Facebook siano un pubblico personale a cui trasmettere unilateralmente informazioni, rispetto a quando hanno scambi reciproci o più relazioni offline con contatti ottenuti online (è la famosa “bolla di filtraggio”, ne ho già parlato varie volte su questo blog). Le relazioni digitali sarebbero quindi legate a una minore depressione, a una ridotta ansia e a un maggior grado di soddisfazione alla propria vita. Esattamente quello che intendeva Zuckerberg quando stilò il suo “Manifesto”, dove parlava della possibilità di governare gli effetti nefasti della Globalizzazione attraverso la Rete, esaltando le relazioni personali virtuali: «Tutte le soluzioni non arriveranno solo da Facebook ma noi credo che potremo giocare un ruolo». Un po’ quello che temeva George Orwell in “1984”. Il problema è capire che ruolo ha la Rete nei disturbi della personalità, nel momento in cui non ci si valuta come persona ma come “informant” che serve al mercato, non ci si valuta per quello che si è ma per quello che ognuno vale. Quando si entra in un database fornendo le proprie informazioni personali — per esempio quello di Cambridge Analytica —, si accede a un universo di categorie che verranno definite: ci si potrà chiedere che uso verrà fatto delle informazioni che ci riguardano e chi saranno coloro che utilizzeranno questi dati per pianificare le nostre vite. Può cioè prendere corpo uno scenario appunto orwelliano, un mondo distopico in cui si è costretti a vivere dove viene meno il senso agente di sé perché qualcun altro decide del nostro futuro senza che ne abbiamo consapevolezza. In campo psichiatrico per descrivere l’esperienza di spersonalizzazione vissuta dai malati mentali si fa riferimento al concetto di “pseudocomunità paranoide”, nella quale ci si sente preda di cospirazioni e raggiri senza sapere chi siano gli attori e i protagonisti, per cui è impossibile riuscire a orientarsi e difendersi. Ecco, probabilmente coi social media ci siamo infilati in pseudocomunità paranoidi.
Oggi si conosce con stupefacente precisione cosa accade in sessanta secondi sul web: in un giro di lancette si effettuano 900.000 login su Facebook, si inviano 452.000 “cinguettii” su Twitter, si vedono 4,1 milioni di video su YouTube, si effettuano 3,5 milioni di ricerche su Google, si postano 1,8 milioni di foto su Snapchat, si inviano 16 milioni di messaggi. Numeri abnormi che fanno riflettere ma che non dicono quanto di se stessi si lascia nel momento in cui si riversano nell’agorà digitale inclinazioni, paure, desideri. Una risposta l’ha fornita proprio l’ex socio di Mark Zuckerberg, Sean Parker, ben prima che scoppiasse il Datagate: Facebook sarebbe un «loop di validazione sociale» basato su una vulnerabilità psicologica umana che cambia letteralmente la relazione di un individuo con la società e con gli altri.
C’è da chiedersi se a ribaltare la situazione basterà l’applicazione, prevista per il 25 maggio, della GDPR (General Data Protection Regulation), il complesso di norme messe a punto dall’Unione Europea al fine di garantire un quadro entro il quale i dati degli utenti siano immagazzinati in modalità corrette e trattati nel rispetto della volontà delle parti coinvolte. Il regolamento comunitario rafforza le informative per la raccolta dei consensi, limita il trattamento automatizzato dei dati personali, stabilisce nuovi criteri sul loro trasferimento fuori dell’Unione e, soprattutto, colpisce le violazioni.
In sostanza pone le basi per il riconoscimento di una sorta di “diritto d’autore” sui Big Data. Sarebbe un passo decisivo, perché risulta difficile accusare qualcuno di aver utilizzato la propria auto come un taxi, intascando i profitti, senza poter dimostrare la proprietà del mezzo.
(Che poi, comunque, tutto questo gran parlare della protezione dei dati come se si trattasse di qualcosa che ci appartiene interamente, un bene di proprietà come altri: però le cose sono più complicate di così. Come ha notato Alex Tabarrok, professore di economia alla George Mason University, molti di quelli che chiamiamo i “nostri dati” non esisterebbero senza Facebook. I contatti che abbiamo, le relazioni coi cugini lontani, con gli amici delle medie, o con sconosciuti che vogliono leggere quello che scriviamo sono una co-creazione nostra, dei nostri “amici”, e di Facebook. Prima di Facebook non esistevano e senza Facebook non esisterebbero. Sono davvero “nostri”? In che cosa consiste, perciò e dopotutto, questo “diritto d’autore”?)
La questione, in realtà, va oltre la privacy, e anche oltre le complesse schede di consenso che appariranno in Rete, e che quasi tutti compileranno come accade oggi alla prima visita su un sito, ovvero acconsentendo senza nemmeno leggerle. La questione riguarda la nostra capacità di discernere tra le offerte, commerciali e non, che la Rete ci imbandisce dopo averci profilati perbene. Riguarda la nostra capacità di cercare informazioni, in Rete e altrove, che non siano necessariamente confezionate per noi. Riguarda il fatto che tutto ciò che cerchiamo, guardiamo, compriamo, scriviamo e pubblichiamo in Rete si trasforma in dati permanenti e commerciabili. E riguarda il lavoro che compiamo producendo dati per società americane che nemmeno pagano le nostre tasse. La questione riguarda i nuovi sistemi di domotica, capaci di estrarre dati anche dai nostri gesti quotidiani, e riguarda i ben noti sistemi di geolocalizzazione, che registrano non solo i nostri percorsi, ma anche i locali e i negozi che visitiamo e le foto che scattiamo in quei luoghi. Riguarda la sensazione di poter essere analizzati, riconosciuti e catalogati da una macchina. Riguarda la possibilità che una profilazione sempre più accurata venga in futuro usata in maniera discriminatoria, nei confronti di chi cerca un lavoro, chiede un prestito, vuole affittare una casa o stipulare un’assicurazione. E riguarda perfino il fatto che chi viene individuato come consumatore abbiente possa vedersi offrire prodotti più costosi, o che gli vengano presentati prezzi più alti per gli stessi prodotti.
~~~
Fin qui le questioni di principio, diciamo.
In quelle reali, della “vita come accade veramente”, e più squisitamente tecniche, qualcosa per cui allarmarsi e stare in pensiero c’è davvero.
Non foss’altro che per il fatto che esiste un grosso problema tecnologico che solo i più avveduti sviluppatori e programmatori conoscono, e che riguarda le cosiddette “API” di Facebook.
Un problema che nessun giornalista è in grado di capire — e dunque non leggerete mai nulla in merito sui media —, ma che è in effetti ben più clamoroso di quel che avrebbe combinato Cambridge Analytica: con la “Graph API” di Facebook si poteva fra le altre cose estrarre anche i messaggi privati scambiati dagli utenti su Messenger. Dunque saremmo di fronte a uno scenario ben più grave, se si volesse davvero andare in fondo a questa situazione, che per adesso, a livello di sostanza, sembra rimanere confinata più a una questione di lana caprina o di sesso degli angeli, per dirla come si usa nella nostra arretrata penisola (la grana della grave falla della GraphAPI è in questo spiegone in inglese su Medium).
La problematica raccolta delle informazioni personali degli utenti di Facebook — e la possibilità di ottenere informazioni insolitamente ricche sugli “amici” di questi utenti — è dovuta al design e alla funzionalità dell’API “Graph” di Facebook. La cosa curiosa è che fino allo scandalo la stragrande maggioranza dei problemi che sono sorti a seguito di questa integrazione sono stati spacciati come “caratteristiche, non falle”; nerd più addentro con la programmazione molto particolare del software che sta “sotto il cofano” di Facebook, invece, sanno che le cose stanno un po’ diversamente.
La “Graph API” di Facebook è un’interfaccia a livello di sviluppatore o di applicazione che ha seguito una precedente versione “REST” dell’API di Facebook, e la sua introduzione è stata annunciata da Facebook come un modo rivoluzionario per capire e accedere alla vita sociale delle persone — come proclamava trionfalmente Zuckerberg: «Stiamo costruendo un web dove il valore predefinito è la Condivisione».

(Cos’è un’API? “Application Programming Interface”: insieme di procedure disponibili al programmatore, in genere raggruppate a formare un set di strumenti specifici per l’espletamento di un determinato compito all’interno di un certo programma. Spesso con tale termine si intendono le “librerie” disponibili in un certo linguaggio di programmazione. In breve: è la serratura software per semplificare l’interfacciamento fra due cose.)
Marketing, aziende, ricercatori e forze dell’ordine sono stati dotati di accesso alle informazioni personali e di funzionalità di ricerca avanzate nelle attività degli utenti di Facebook a livello industriale: connessioni e stati emotivi che vanno ben oltre quello che semplicemente si “posta” sulla piattaforma e tramite le applicazioni. Dal 2017, anche Instagram (che, ricordiamolo, ha lo stesso proprietario di Facebook) ha una funzionalità simile a “Graph API”.
PERSONE = OGGETTI
L’API “Graph” di Facebook è stata effettivamente una rivoluzione nella raccolta di dati su larga scala. Ha convertito le persone e i loro gusti, le connessioni, le posizioni, gli aggiornamenti, le reti, le storie in — letteralmente — “oggetti”.
La prima versione, “1.0”, di Graph API è stata lanciata il 21 aprile 2010. È stata “deprecata” (abbandonata) nel mese di aprile 2014 e chiusa completamente alle applicazioni legacy (cioè, le applicazioni esistenti che hanno utilizzato l’API prima di aprile 2014) il 30 aprile 2015. Sono cinque anni interi: un sacco di tempo per app e quiz per estrarre grandi quantità di dati personali degli utenti e di informazioni da tutti i loro social network.
Facebook ha visto quasi subito i problemi con la quantità di informazioni personali disponibili nella prima implementazione del “Graph”. Ma comprensibilmente non ha voluto tagliare il flusso di entrate enormi che finalmente arrivava dal canale del marketing e dei partner commerciali (ricordiamo che nei suoi primi anni Facebook, pur con una stratosferica quotazione a Wall Street, era una società in perdita che andava avanti solo grazie ai finanziamenti dei “venture capitalist”). Il 30 aprile 2014 la società ha annunciato che la prima versione di queste API sarebbe stata liquidata a favore di una molto più restrittiva versione “2.0”. Lo stesso giorno di aprile però l’azienda lanciava la sua più grande iniziativa di monitoraggio e targeting degli annunci pubblicitari: “Facebook Audience Network”. Per dirla molto basic, era l’estensione della profilazione dei dati e del targeting pubblicitario degli utenti dalla sola Facebook al resto di Internet.
«Il potere della pubblicità su Facebook, fuori da Facebook», recitava trionfale l’annuncio al mondo del marketing e del business.
In pratica, fu l’estensione del potere del “Graph” — coi suoi pregi e (grossi) difetti —, fino ad allora confinato al solo social network blu, al resto del mondo. L’apertura del vaso di Pandora.
Ciò che rendeva molto problematica e “pericolosa” la versione “1.0” del “Graph” era l’estensione dei “permessi”: le applicazioni (come quella da cui è partito lo scandalo di Cambridge Analytica) potevano richiedere una vasta gamma di informazioni agli “amici” degli utenti senza troppi “attriti” con l’API, né oltretutto comunicando il motivo per fornire il consenso. Una volta autorizzata con un’unica richiesta, l’applicazione “1.0” poteva potenzialmente rimanere in background PER ANNI, raccogliendo ed elaborando i dati delle persone e dell’intera rete di amici. Inoltre, le app che si appoggiavano al “Graph” potevano anche richiedere per esempio messaggi privati degli utenti, tramite la semplice stringa API “read_mailbox”. (Sì, avete capito bene: un solo comando, “leggi la mailbox”, e tutte le nostre conversazioni private su Messenger potevano finire in pasto a qualsiasi app che avessimo fra le nostre applicazioni, da Candy Crush Saga a In Quale Posto Meraviglioso Sei Stato Ultimamente, da Calcola Il Tuo Quoziente Intellettivo a A Quale Animale Somigli Per Carattere?…)
Queste erano per esempio le info di default sugli “amici” a disposizione delle app: Informazioni su di me, azioni, attività, compleanno, check-in effettuati, istruzione, eventi, giochi, gruppi, città natale, interessi, gusti, posizione geografica, note, stato online, tag, foto, domande, relazioni, religione/politica, abbonamenti, sito web, storia lavorativa. (Non cose importanti come le chiavi del conto corrente o il pin del Bancomat, ripetiamolo: a meno che non siamo così scemi da mettere queste cose in un post su Facebook. Però una mamma in vacanza potrebbe aver dato il pin del Bancomat alla figlia usando Messenger…)
E le possibilità non finivano qui. A seguito dello scandalo, Facebook ha avviato un percorso di revisione della piattaforma con lo scopo di minimizzare le possibilità di profilazione esterna degli utenti. Tra le funzionalità disattivate nei giorni scorsi ce n’è una che è forse il segreto di Pulcinella meglio custodito di Facebook: immettendo un numero di telefono o un indirizzo email nel campo di ricerca del social network era possibile risalire al profilo del loro proprietario.
Una sorta di elenco telefonico al contrario, che veniva regolarmente usato da investigatori e giornalisti, ma anche da malintenzionati e hacker. La ricerca inversa con il numero di telefono si poteva infatti automatizzare, dando così la possibilità agli spammer di arricchire i propri database associando dati personali a un’email o a un numero di cellulare già in loro possesso. La ricerca funzionava sempre, anche con quegli utenti che avevano scelto esplicitamente di mantenere privato il proprio numero o la propria email. Un singolo numero o un indirizzo di posta elettronica valgono poco sul mercato nero della profilazione illegale: se associati a un nome, un indirizzo o altre informazioni pubbliche raccolte da un profilo Facebook, invece, il valore cresce perché si ha in mano un pacchetto di informazioni utile a condurre attacchi mirati ed efficaci (con tecniche di social engineering, o col phishing).
La domanda sorge spontanea: perché Facebook ha reso possibile questa funzione, inevitabilmente destinata a trasformarsi in uno strumento di profilazione illegale? La risposta è semplice ma non banale: perché il social network è globale e ha una forte presenza in Paesi dove il nome e il cognome spesso non sono sufficienti a trovare il profilo di un amico: se pensate che chiamarsi Mario Rossi sia complicato, provate a portare il cognome Nguyen in Vietnam, come il 40% dei vostri connazionali. In Bangladesh (uno dei tanti Paesi dove Facebook è sinonimo di Internet) la funzione incriminata era utilizzata addirittura per il 7% delle ricerche totali.
Se non fosse ancora chiaro: Facebook non si è preso la mia carta di credito né il mio conto in banca; però gli errori nella programmazione software hanno potenzialmente consentito a chissà quanti attori esterni di entrare in possesso, per esempio, dei miei messaggi privati scambiati su Facebook o del mio numero di telefono. E la cosa più fastidiosa è che, al di là di quel che sostiene FB, non è possibile sapere se ciò sia avvenuto o meno, e specialmente fra il 2010 e il 2015 (quando FB era governata dalla versione più permissiva del “Graph”), né quali di questi miei dati siano finiti a chissà chi.
L’interfaccia di Facebook è stata costruita intorno alla falsa pretesa di dare agli utenti il controllo su ciò che è condiviso. Ma l’attenzione è concentrata sul “postare”, ossia la condivisione verso l’esterno, quello che attivamente SCEGLIAMO di condividere. In realtà, gli utenti Facebook hanno l’abilità esattamente opposta di controllare ciò che è condiviso passivamente SU DI LORO, cioè le informazioni e i metadati che gli altri possono estrarre. Ossia, nulla. Non abbiamo controllo, semplicemente.
In questo senso, le “impostazioni di privacy” di Facebook sono una grande illusione. Il controllo sulla condivisione dei post — sulle persone verso le quali condividiamo — dovrebbe essere chiamato “Impostazioni di Pubblicità”. Allo stesso modo, il controllo sulla condivisione passiva — le informazioni che le persone possono prendere da noi — dovrebbe essere chiamato, quello sì, “Impostazioni sulla privacy”.
Ma la cosa più buffa di tutte, infine, è che l’intera Internet è basata su tali tecnologie. Queste preoccupazioni sono valide ma non dovrebbero essere nuove: quasi tutte le principali società che si occupano di vendite online negli ultimi anni hanno subìto una violazione dei dati. Per dirne una: a fine 2017 Yahoo!, il secondo servizio di posta elettronica al mondo, ha comunicato che tutti i suoi 3 miliardi di account-utente sono stati violati. È pura ingenuità credere che il fenomeno dei dati di profilazione e del loro traffico (lecito o meno) sia “limitato” alla sola Facebook!
Quando si parla di dati degli utenti, si sa dove si inizia ma non dove si finisce. Di sicuro, non si può limitare il discorso né ai confini della piattaforma social per eccellenza né a quelli dell’azienda che ne è dietro. Ci sono infatti una miriade di società che si occupano di tracciare e monitorare tutto quello che facciamo in Rete e fuori. Gli stessi “data broker” (legali) hanno enormi database in cui segmentano i consumatori sulla base di una quantità di informazioni diverse. Per esempio, “Mosaic” è uno strumento di Experian che classifica la popolazione britannica secondo 450 variabili, con “dati transazionali, demografici, comportamentali e psicografici”, recita la brochure. Psicografici: il tipo di targeting attribuito con molta enfasi a Cambridge Analytica. Ovvero, in buona sostanza, dati che tengono conto di abitudini, stili di vita, atteggiamenti, attitudini dei consumatori. Ma non mancano segmentazioni per reddito, stato sociale, disponibilità creditizia, ovviamente.
Da diversi anni ci sono pezzetti di Facebook disseminati in buona parte dei siti che visitiamo. I più evidenti sono i “social plugin”, i tasti per condividere e mettere “Mi piace” agli articoli che stiamo leggendo (presenti anche in questo blog), i sistemi per registrarsi in un sito usando il riconoscimento di Facebook e gli strumenti di analisi del traffico generato dai siti e dagli annunci pubblicitari, in questo caso con linee di codice non visibili all’utente e presenti nell’impalcatura della pagina. Ogni grande servizio online, da Google a Twitter ad Amazon, ha soluzioni analoghe per tenere traccia di parte delle cose che leggiamo e facciamo online. Lo stesso vale, con qualche differenza tecnica, per le app che prevedono di potersi collegare a servizi esterni per essere riconosciuti dalla stessa applicazione.
Quando si visita un sito, il proprio browser invia una richiesta al server (il computer che fa funzionare quello spazio web) nella quale è compreso un numero (indirizzo IP) che permette al server di capire a quale destinatario mandare le informazioni. In questo scambio, il server apprende di solito diverse altre cose: che tipo di browser si sta utilizzando (Chrome, Firefox, Safari, etc.), con quale sistema operativo (Windows, iOs, etc.), se si naviga da PC o da telefono o da tablet. Il server può anche scoprire se quel browser aveva già fatto visita in passato al sito, rilevando la presenza di un “cookie”, un piccolo file che contiene informazioni sulle precedenti visite (i cookie aiutano a rendere personalizzata la navigazione per ogni utente). È per esempio grazie ai (o, a seconda dei punti di vista, per colpa dei) cookies, se ci vediamo riapparire le pubblicità di un sito o di un prodotto in un altro sito che non c’entra nulla.
Lo scambio di informazioni avviene in poche frazioni di secondo e permette di visualizzare la pagina desiderata, che a sua volta contiene altre istruzioni per il browser, che invia richieste per servizi esterni e gestiti da terzi. Se nella pagina sono presenti tasti per la condivisione o sistemi di analisi di Facebook/Twitter/Google e tutti gli altri, le informazioni finiscono anche a loro, che possono quindi sapere quale sito si sta visitando o quale applicazione si sta utilizzando. La questione è come vengono utilizzati tali dati da tutte queste società.
Be’, ragazzi, ma è il prezzo da pagare per mantenere FREE il world wide web, per continuare a fruire gratuitamente di Internet, il pozzo senza fondo della conoscenza! Senza la pubblicità a finanziare le varie Google e Facebook o i vari siti di informazione, ogni cosa sarebbe a pagamento — minimo, ma sempre pagamento —. E Internet diventerebbe un posto infinitamente più piccolo, e accessibile solo ai ricchi. Quindi andiamoci piano con la demonizzazione.
Le magagne sono altre, come sottolinea Carlo Blengino sul Post.
Per capirlo bisogna partire da lontano, da un articolo apparso su “The Foreign Affairs” oltre trent’anni fa a firma George P. Shultz, all’epoca Segretario di Stato degli Stati Uniti d’America.
L’articolo dal titolo “Shaping American Foreign Policy: New Realities and New Ways of Thinking” è del 1985: c’erano Reagan e la Guerra Fredda e il termine “social network” non esisteva nemmeno; non c’era il Web e dunque non c’era ciò che oggi i più identificano con Internet, ma Internet c’era e c’erano i computer.
Nella parte finale dello scritto, Shultz lega le politiche neoliberiste della presidenza Reagan a quello che appariva, in America, come l’onda impetuosa della società dell’informazione: la rivoluzione digitale e il neoliberismo della “reaganomics” sarebbero diventate la più temibile arma di espansione degli Stati Uniti nel mondo.
Lo Stato aveva fatto un passo indietro, riducendo il proprio potere di governo e controllo sui mercati, dando libero sfogo all’imprenditoria, e la rivoluzione tecnologica, con la sua dimensione globale, cadeva nel momento giusto e soprattutto sul giusto terreno.
Dire oggi che la rivoluzione digitale ha cambiato ogni aspetto della nostra vita e che la dimensione globale della Rete e una nuova distribuzione del potere sui dati e sulle informazioni hanno intaccato il concetto stesso di sovranità nazionale, modificando il ruolo dei governi e della politica, è una banalità. Non c’è Stato sovrano che non debba in qualche modo confrontarsi con il potere della Silicon Valley e in generale delle tech company. Leggerlo in un manifesto programmatico di politica estera scritto 33 anni fa, quando Google, Facebook o Twitter non erano neanche immaginabili, fa una certa impressione.
La visione di Shultz ha grande lucidità: «gli Stati “democratici” — quelli all’epoca al di qua del Muro di Berlino, ndr — potranno beneficiare del progresso e di una prorompente crescita economica a una condizione: che allentino il loro controllo sui mercati evitando di regolamentare o tassare il libero flusso delle informazioni elettroniche; nel contempo, gli Stati “totalitari” — all’epoca quelli comunisti del Patto di Varsavia, ndr — cadranno inevitabilmente nel dilemma del dittatore: o soffocare le nuove tecnologie e rinunciare alla nuova rivoluzione industriale, oppure aprirsi alla società dell’informazione e vedere inevitabilmente eroso il loro potere. Avranno più timore della rivoluzione digitale che della forza militare dell’occidente».
Nel 1985 (in realtà fin dagli anni ’60) in America avevano ben chiaro che la “rivoluzione digitale” sarebbe stata una questione non solo tecnologica, di efficienza e di mercato, ma soprattutto una questione di potere. Avevano chiaro che con Internet, disporre e controllare grandi quantità di dati e possedere capacità di calcolo sarebbe diventata un’arma globale in grado di erodere e modificare i centri del potere, economico e statuale.
La scelta di delegare questo potere alle proprie imprese commerciali liberando e sfruttando il loro potenziale grazie all’architettura aperta della Rete è stata una scelta politica, lucida e consapevole. E vincente.
Non ci si può stupire oggi del ruolo che Facebook, Google e in generale le tech company americane esercitano in Europa e non solo. Capire il valore delle tecnologie digitali voleva dire fin dall’origine se non cogliere l’esistenza di un nuovo potere, certamente intuire la profonda mutazione nell’esercizio del potere, tanto economico quanto sociale. I nostri politici non l’hanno capito neanche oggi, mentre starnazzano contro Facebook.

Buona parte del manifesto di Shultz si è realizzata.
L’Europa ha commesso esattamente l’errore preconizzato nell’articolo: negli ultimi trent’anni, per ragioni astrattamente condivisibili, dalla tutela della proprietà intellettuale alla (parziale e inefficace) protezione dei dati personali fino alle politiche fiscali, si è da subito tentato di governare e regolamentare il flusso di dati e contenuti, e nel far ciò si è ottenuto un unico risultato: deprimere e comprimere le imprese europee che operano sul web avvantaggiando le imprese statunitensi. Il risultato è sotto gli occhi di tutti.
La colonizzazione di quel territorio globale che è l’infosfera si è realizzata come pianificato e quella “sfida al concetto stesso di sovranità nazionale e al ruolo dei governi nella società” preconizzata da Shultz oltre 30 anni fa emerge evidente nello schizofrenico dibattito su fake news e propaganda, sui giganti del web, su Facebook nel caso Cambridge Analytica e in generale sul ruolo dei social network e dei “Big Data”.
Dove Shultz ha sbagliato è nell’ottimistica previsione del “dilemma del dittatore”, nella visione di Internet come salvifico veicolo di democrazia. Gli Stati autoritari, liberi da vincoli costituzionali, hanno infatti colto meglio e prima di altri le opportunità di propaganda e controllo di massa offerti dalla Rete e dalla digitalizzazione, sfruttando efficacemente il potere dei dati per consolidare i loro regimi (con una sola vivida eccezione: la “primavera araba”, partita su Twitter, anche se dalla vita brevissima, basti guardare a come sono “ridotti” oggi Paesi come l’Egitto o la Libia, la Tunisia, l’Algeria). Non è un caso se sul tema della disinformazione aleggia sempre, a torto o a ragione, lo spettro di Putin.
Gli Stati democratici si stanno organizzando, ma soffrono inevitabilmente di maggiori vincoli. Il potere conferito dalla rivoluzione digitale, ben chiaro a Shultz, è saldamente nelle mani (rectius, nei server e nelle macchine) delle imprese commerciali (prevalentemente statunitensi) ed è un potere ben superiore a quanto ipotizzabile nel 1985, prima che il world wide web, gli smartphone e la “internet delle cose” producessero la capillare digitalizzazione delle nostre vite (e la capacità di calcolo raggiungesse l’attuale potenza).
Oggi la stessa delega di potere scientemente conferita dal governo degli Stati Uniti alle proprie imprese vacilla.
L’immagine dei rappresentanti di Facebook, Twitter e Google in piedi che giurano davanti alla Commissione del Senato USA nel 2017 per il Russiagate, e di Mark Zuckerberg che si “prostra” in giacca e cravatta davanti a Senato e Camera USA, ne sono la rappresentazione più evidente: anche negli USA qualcosa sta cambiando. E il fatto che la guerra alle grandi piattaforme sia esplosa, anche in America, sul tema artefatto e strumentale delle fake news, la dice lunga.
Stiamo assistendo da tempo, e in questi giorni con toni parossistici nei confronti di Facebook, a una guerra di potere che ha poco o nulla a che fare con la difesa dei diritti fondamentali dei cittadini.
Gli Stati stanno solo tentando di controllare e sfruttare i medesimi dati abilmente generati e “lavorati” dalle tech company per fini commerciali e di recuperare un divario di potere che loro stessi, più o meno consciamente, hanno generato.
Il caso Cambridge Analytica ha rilevato la porosità di Facebook con le sue interfacce di programmazione, ma è solo un tassello nel “mercato della sorveglianza distribuita”. Che ora quel caso diventi il cavallo di battaglia contro le tech company da parte dei vari governi nazionali e dei media tradizionali che improvvisamente si ergono a difensori della privacy dei cittadini non è credibile.
Non c’è Stato democratico che negli ultimi anni non abbia richiesto una backdoor, una vulnerabilità o un accesso diretto ai server dei propri provider. E non possiamo dimenticare le rivelazioni di Snowden, o le molte battaglie che i “malvagi” provider americani hanno condotto, magari solo per ragioni commerciali eh!, contro la voracità dei governi, dal noto caso Apple vs NSA sino alle meno note battaglie di Microsoft sulle perquisizioni nel cloud.
Noi cittadini/utenti siamo come pesci in barile. Necessariamente trasparenti, desolatamente senza difese nei confronti del nuovo potere dei dati (i nostri), a chiunque appartenga.
C’è solo ipocrisia nella tempesta di questi giorni, e sono francamente intollerabili le indignate dichiarazioni dei politici sul non-caso Cambridge Analytica, ben conoscendo la bulimia informativa dei governi e delle agenzie di Stato.
È intollerabile, quando il bue dà del cornuto all’asino.
Addendum
L’11 aprile Mark Zuckerberg ha partecipato alla sua seconda audizione al Congresso degli Stati Uniti per parlare del caso Cambridge Analytica; questa volta davanti alla Commissione dell’energia e del commercio della Camera dei Rappresentanti. Quando Zuckerberg aveva parlato davanti alla Commissione per l’energia e il commercio del Senato non gli era andata male: era stato interrotto raramente e la cosa che si era notata di più era la scarsa esperienza dei senatori, persone di mezza età, sui meccanismi con cui funziona Facebook. Alla Camera è andata un po’ meno bene: i deputati lo hanno incalzato e interrotto più volte, pretendendo spesso delle risposte “sì o no” che in molti casi Zuckerberg non è riuscito a dare.
Be First to Comment