Nelle mille bolle social

print

di Francesca Colaiori

Kreuzberg, Berlino, 2018 – ph Riccardo Contrino

Nel 1993, agli albori di Internet, il New Yorker pubblicò una vignetta di Peter Steiner poi diventata molto celebre, raffigurante un cane seduto davanti ad un computer che rivolgendosi ad un altro cane dice “Su Internet, nessuno sa che sei un cane”. Riferendosi alla capacità degli utenti di navigare e scambiarsi messaggi in totale anonimato, la vignetta catturava in pieno lo spirito originario della rete. I protocolli Internet infatti non obbligano gli utenti a identificarsi. La frase nella didascalia è diventata un vero e proprio “internet meme” sull’anonimato online. La vignetta è la più riprodotta in assoluto nella storia del New Yorker ed ha fruttato al suo autore oltre cinquantamila dollari di diritti. Nel frattempo Internet è cambiato. Tre anni fa, lo stesso magazine pubblicava una vignetta di Kaamran Hafeezraff di nuovo con protagonisti due cani. Stavolta seduto al computer c’è il loro padrone e un cane chiede all’altro: “Ti ricordi quando su internet nessuno sapeva chi fossi?”

Le piattaforme di social networking fanno profitto attraverso le pubblicità. Ci offrono servizi “gratuitamente” in cambio dei nostri dati. Nella frazione di secondo necessaria a caricare una pagina Web, si svolge dietro le quinte un’asta automatica iper-veloce tra decine di migliaia di acquirenti per aggiudicarsi gli spazi pubblicitari. Nel momento in cui un utente accede ad un sito, il suo profilo viene inviato agli inserzionisti che tramite sofisticati algoritmi valutano quanto sono disposti a pagare per inserire il proprio annuncio mirato a quel profilo e fanno un’offerta. Il miglior offerente avrà il suo annuncio sulla nostra pagina. Questo processo avviene in tempo reale, per ogni nostro accesso ad una pagina Web e per ogni singolo spazio pubblicitario su quella pagina. Si chiama RTB, real-time bidding, cioè offerta in tempo reale. Tra il nostro click e la pubblicazione dell’annuncio pubblicitario passa meno di un decimo di secondo, il tempo di un battito di ciglia.

Le piattaforme di social networking come Facebook hanno interesse a massimizzare il tempo che trascorriamo su loro sito. Più tempo significa per loro più clic e quindi più profitti. Per questo ci propongono contenuti personalizzati. Raccolgono enormi quantità di dati durante la nostra attività online: cronologia di navigazione, età, sesso, posizione nella rete sociale e tanto altro. Con questi dati costruiscono il nostro profilo che, oltre ad essere inviato agli inserzionisti per l’RTB, viene usato da un algoritmo per selezionare contenuti che ci piaceranno. Ricevere informazioni che avvalorano le nostre opinioni è gratificante. L’algoritmo che produce i nostri feed lo sa, e cerca di accontentarci: non fa altro che tracciare e analizzare la nostra attività per capire cosa ci piace e mostrarcene di più. Il risultato è un flusso di articoli e post che supportano le nostre attuali opinioni e prospettive, selezionati per garantire che ne saremo soddisfatti.

L’informazione a cui abbiamo accesso ci arriva dunque filtrata (secondo criteri non trasparenti e continuamente modificati) da algoritmi che cercano di indovinare cosa ci piacerebbe vedere. Il meccanismo è reso efficace dal “confirmation bias”, un fenomeno cognitivo noto per cui tendiamo ad accogliere con fiducia e piacere informazioni che avvalorano le nostre idee. Essere sottoposti ad flusso di informazioni selezionate in questo modo dà dipendenza. Spesso non possiamo evitare di seguire un link o di scorrere in modo compulsivo i newsfeed. Così la rete oltre ad essere il più potente strumento per accedere e condividere informazioni e saperi finisce per trasformarci in cavie che reagiscono automaticamente ad uno stimolo intellettuale in attesa di una ricompensa.

Questa modalità di accesso all’informazione crea attorno ad ogni utente una cosiddetta “filter bubble”, una bolla in cui entrano solo contenuti coerenti col profilo dell’utente. Nel suo libro “Filter Bubbles” (2011) Eli Pariser, chief executive di Upworthy e attivista, conia questo termine per indicare lo stato di isolamento intellettuale che può derivare dall’essere sottoposti a contenuti filtrati tramite profilazione. A partire dalle ricerche personalizzate di Google che forniscono risultati diversi a seconda della storia dell’utente, Pariser spiega come attorno a noi viene creato un “ecosistema personale di informazioni” che, isolandoci da ogni possibile dissonanza cognitiva, altera in maniera significativa la nostra percezione del mondo. Il continuo flusso di informazione personalizzata crea universi paralleli, internamente molto coerenti ma tra loro ben separati.

Come diceva il celebre fisico Richard Feynman, la persona che ci è più facile ingannare siamo noi stessi. Come i pesci non sanno di essere nell’acqua noi spesso non sappiamo di trovarci in una bolla e tendiamo a pensare che ciò che vediamo sia rappresentativo di ciò che esiste, anche quando ciò che vediamo è invece accuratamente preparato per noi. Questo non fa che amplificare l’effetto delle filter bubble: finiamo per prendere in considerazione solo le informazioni, vere o no, che confermano le nostre opinioni. Circondati da persone che ci assomigliano e con cui condividiamo convinzioni, gusti e prospettive politiche ci ritroviamo intrappolati nella nostra rassicurante bolla, confortati da contenuti che supportano le nostre idee sul mondo e isolati da quelli che li mettono in discussione. Così, mentre noi, tramite i nostri click e i nostri like, modifichiamo il newsfeed, i contenuti filtrati trasformano noi.

L’effetto delle filter bubble si somma al fatto che spesso noi stessi tendiamo a circondarci di persone le cui opinioni sono in linea con le nostre creando “echo chambers”. Il termine “echo chamber”, è usato in analogia alla camera di eco acustica in cui i suoni si riverberano in un ambiente cavo, per indicare metaforicamente l’effetto per cui notizie e opinioni vengono rafforzate e amplificate dalla ripetizione all’interno di un sistema chiuso. In una rete di persone “simili” queste informazioni, che tornano come un eco, vengono prese a conferma della validità dell’informazione stessa. Il risultato è che finiamo per assumere che tutti la pensino come noi e fatichiamo sempre più a vedere le cose da prospettive diverse. Intrappolati in questo paradosso comunicativo siamo nel contempo iper-connessi e isolati.

All’ MIT un esperimento tenta una soluzione mediata dalla tecnologia. Si tratta di “Connect”, una piattaforma che organizza incontri faccia a faccia tra persone sconosciute durante la pausa pranzo. Come altre piattaforme di incontri, Connect crea un profilo per gli utenti registrati, raccogliendo dati come hobby, interessi, preferenze alimentari, disponibilità di tempi e luoghi. L’algoritmo di matching è però diverso: Connect non cerca infatti di trovare corrispondenze perfette, ma di far incontrare tra loro persone diverse pur con qualcosa in comune, ad esempio persone che condividono una passione o un interesse ma hanno differenti prospettive politiche, o persone con simili visioni del mondo ma diversi profili demografici o socioeconomici. Creato il match, Connect suggerisce un luogo e un orario per il pranzo, e addirittura uno spunto per far partire la conversazione. Il 90% degli utenti ha valutato positivamente le esperienze di questi incontri, che in circa un terzo dei casi hanno dato vita ad amicizie durature.

La percezione distorta della realtà che deriva dall’accesso filtrato all’informazione ha conseguenze sulla società tutta. Alla base di una convivenza democratica c’è la capacità di ciascuno di assumere il punto di vista degli altri, a sua volta fondata sulla possibilità di condividere fatti ed esperienze. Le echo chambers contribuiscono invece a polarizzare le opinioni: più riceviamo conferme della nostra prospettiva, più le tante voci individuali di una parte convergono in una sola voce che perpetuata rischia di perdere la relazione con la realtà e con i fatti.

Cass R. Sunstein, professore di economia comportamentale e politiche sociali alla Harward Law School, aveva intuito le potenziali conseguenze di questa segregazione ideologica sul tessuto sociale e sulla vita democratica già nei primi anni 2000, in epoca pre-social. Nel suo saggio Republic.com (2001), Sunstein parla di echo chamber riferendosi alla possibilità data dai media all’utente di selezionare i contenuti creando una specie di giornale personalizzato, che chiama ironicamente il “Daily Me”. Sunstein avvisava già dei potenziali effetti di questi meccanismi che inducendo a restringere le proprie fonti a punti di vista affini e riducendo l’opportunità di confronto occasionale con punti di vista diversi, favorirebbero frammentazione ed estremismi.

Internet era un tempo la nostra finestra sul mondo, oggi si sta trasformando in una finestra sul cortile. La consapevolezza di essere immersi in un microcosmo costruito ad hoc è importante ma non basta. Per uscire dalla bolla dobbiamo scegliere di confrontarci, magari faccia a faccia, con persone anche molto diverse da noi. Pensiamoci quando facciamo incontri occasionali. Dietro l’irritante vicino di ombrellone può nascondersi un’opportunità.

 

Francesca Colaiori

Francesca Colaiori, Ph.D. in fisica, si occupa di sistemi complessi. E’ interessata a comprendere l’emergere di comportamenti collettivi in sistemi composti da molte parti interagenti studiando la rete di relazioni tra le parti (siano esse atomi in un sistema fisico, neuroni o molecole in uno biologico, o anche individui in un contesto socio-economico).
Dopo la laurea in fisica all’Università Sapienza di Roma ed il Ph.D. conseguito alla SISSA di Trieste ha fatto ricerca all’estero per alcuni anni (MIT di Boston, US, University of Oxford, UK, University of Manchester, UK) prima di tornare in Italia dove attualmente è ricercatrice all’Istituto dei Sistemi Complessi (ISC-CNR). Si occupa in particolare di teoria delle reti, social networks, dinamica di opinioni, dinamica del linguaggio, processi epidemici (biologici e non).