FILTER BUBBLE EFFECT: gli effetti della personalizzazione online

La “bolla di filtraggio” è il risultato del sistema di personalizzazione dei risultati di ricerche su siti che registrano la storia del comportamento dell’utente. Questi siti sono in grado di utilizzare informazioni sull’utente (come posizione, click precedenti, ricerche passate) per scegliere selettivamente, tra tutte le risposte, quelle che vorrà vedere l’utente stesso. L’effetto è di escluderlo da informazioni che sono in contrasto con il suo punto di vista, isolandolo in tal modo nella sua bolla culturale o ideologica. Esempi importanti sono la ricerca personalizzata di Google e le notizie personalizzate di Facebook. Il termine è stato coniato dall’attivista internet Eli Pariser nel suo libro “The Filter Bubble: What the Internet Is Hiding from You”, secondo cui gli utenti vengono esposti di meno a punti di vista conflittuali e sono isolati intellettualmente nella propria bolla di informazioni.

Dopo questa spiegazione introduttiva, per cui ringrazio Wikipedia, vorrei illustrarvi in breve modalità e conseguenze di questo sistema.

La percezione umana è selettiva: prestiamo più attenzione ai contenuti in linea con le nostre credenze pregresse, memorizziamo con più facilità questi contenuti e tendiamo a ignorare ciò che si scontra con la nostra posizione (in alcuni casi addirittura interpretiamo in modo favorevole alla nostra idea anche affermazioni oggettivamente contrarie).

Spontaneamente la nostra mente quindi produce quello che nelle scienze psico-sociali è chiamato confirmation bias: le persone tendono a muoversi entro un ambito delimitato dalle loro convinzioni acquisite. La personalizzazione dei contenuti online rafforza questo bias e causa, appunto, un effetto “bolla”: vediamo quasi solo esclusivamente contenuti che ci danno ragione. Ciò ci impedisce di scontrarci con idee opposte alle nostre e quindi di valutare queste idee, di mettere alla prova le nostre convinzioni, di dibattere con chi la pensa in modo differente e di confrontarci con il pensiero altrui.

Immaginate le seguente situazione: un giorno leggo un articolo in cui affermano che bere solo caffè fa bene alla salute; io già avevo una mezza idea simile e questo articolo mi dà ragione; nei giorni successivi Facebook mi consiglia tanti post sul tema, Amazon mi propone libri sull’argomento, YouTube fa lo stesso con i video e poi mi arrivano anche annunci di seminari da Google. Alla fine io sono assolutamente convinto di ‘sta cazzata. E bevo solo caffè per due settimane. Poi muoio male. Esempio palesemente idiota… ma pensatelo applicato ai temi più disparati, dalla politica al lifestyle. Chi ha simpatie per un partito non vedrà mai la controparte (se non da punti di vista che tenderanno a sminuire le sue affermazioni), chi ha una credenza religiosa non saprà mai che qualcuno la pensa diversamente, chi crede in un qualche strano complotto ci crederà sempre di più…

[Qui trovate un articolo di Wired sulla relazione tra Filter Bubble Effect e democrazia e QUI un articolo su Trump e i sondaggi “sbagliati” in favore della Clinton.]

“Ma io posso cercare appositamente il punto di vista opposto al mio”, mi direte voi. Certo, tutti possiamo farlo… Siamo, però, sinceri: quanti lo fanno davvero? L’uso che gli utenti fanno del web è ancora piuttosto passivo e siamo portati a cercare di ridurre i pensieri contrastanti. Sfidare le proprie credenze non è da tutti. A livello di psicologia cognitiva gli esseri umani sono considerati ottimizzatori di risorse cognitive, ovvero tendiamo a scegliere condotte di pensiero che ci costano la minor fatica possibile… perciò informarci e cambiare posizione è una fatica cognitiva enorme. Ciò viene spiegato da un altro bias, ovvero il bias allo status quo. Inoltre questo filtro è ulteriormente pericoloso perché asseconda almeno una delle tre euristiche di Khaneman, ovvero quella di disponibilità. [Emme vi consiglia di approfondire l’argomento: QUI l’euristica della disponibilità]

Gli effetti sono così disastrosi? Il meccanismo non lascia via d’uscita? Ovviamente no, perché gli algoritmi non funzionano in modo così rigido e una serie di interventi di altri utenti o nostri possono modificare questo processo in modo inconsapevole. E no, anche gli studiosi non sono concordi nel definire la portata di questo effetto.

Sarebbe però cosa buona e giusta che tutti tenessimo a mente l’esistenza di questo meccanismo e ci impegnassimo a espandere gli orizzonti del nostro sapere. 

[Emme commenta: una diversa architettura delle scelte potrebbe essere di certo una manna per quegli individui che sono di indole più aperta e disposti ad accogliere informazioni che disconfermano le loro convinzioni.]

Se siete interessati a leggere qualche risultato di ricerche in merito, vi consiglio di scaricarvi questo testo. Tranquilli, è un link sicuro 😉


Spero di non avervi annoiati troppo.

Fateci sapere cosa ne pensate. Se avete qualche domanda o considerazione, dite pure. 
Nel caso l’argomento risultasse di vostro interesse, in futuro provvederemo a scrivere qualcosa di specifico sui vari bias e su alcune teorie che riguardano gli effetti dei media.

ALEX

9/11/19

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Iscriviti alla nostra Newsletter:

Contatti

EMAIL

info.vcuc@gmail.com

Seguici

«Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001»