Che Facebook sia il luogo dell’information overload è ormai storia nota.
Adam Mosseri, tra le più autorevoli voci in materia di gestione dei prodotti sul news feed, riporta alcuni numeri molto interessanti.
Quotidianamente il news feed rilascia per ogni utente 2000 storie da visualizzare.
Un numero decisamente alto, frutto evidentemente della grande produzione di contenuti di pagine, amici, gruppi a cui si partecipa e, inevitabilmente, inserzioni a pagamento.
Di queste 2000 solo il 10% vengono realmente viste da ciascuno di noi.
Vale la pena precisare che non si tratta di uno schema rigido, ma di una stima su valori medi. Va da sé che se trascorressimo l’intera giornata a scorrere il news feed, probabilmente riusciremmo a vederne molte di più.
Questi dati dicono molto sia sull’attività importante che si registra su questo media, ma anche sull’approccio che bisogna avere nelle valutazioni di ciò che vi accade all’interno.
Ciò che vediamo è una porzione di ciò che accade intorno a noi, dovutamente selezionato da un algoritmo che cerca di gratificare i nostri interessi e inevitabilmente legato al tempo che dedichiamo alla piattaforma nel giorno medio.
Possono sembrare concetti scontati, eppure talvolta si continua a cadere nell’errore di fare valutazioni (anche sui massimi sistemi) su ciò che “succede su Facebook”.
Da parte di Facebook, nel frattempo, si lavora sempre al perfezionamento della gestione dei contenuti che ci vengono mostrati, in una lotta che è ormai caso mediatico al click baiting, così come nel dichiarato intento di mostrare più contenuti dagli amici piuttosto che dalle pagine.
I primi dati raccontati da Mosseri certificherebbero un processo di miglioramento dell’esperienza, con l’aumento dei tempi di permanenza e delle interazioni.
Certo, facebook non ha mai avuto di questi problemi.
Il pericolo, secondo molti, è che l’algoritmo, seguendo i nostri gusti, ci rinchiuda in “bolle ideologiche”, spazi impermeabili al confronto con chi la pensa diversamente, e in grado anche di favorire il diffondersi di bufale, teorie del complotto…
Grazie per il commento AndyT.
Non posso che concordare. Il problema è proprio questo: ridurre (ma non troppo) il pluralismo informativo, creando il paradosso per cui chi si “alimenta” di bufale continuerà a farlo e ci sarà una certa difficoltà a scoprire cosa c’è oltre. Gli algoritmi lo mostrano poco e c’è bisogno di uno slancio personale
Per questo occorre uno sforzo nel costruire cultura e consapevolezza digitale.
Questo lo si fa anche fuori da Facebook. Una persona tende ad informarsi con il telegiornale del canale che è da la sua parte ed interagire con le persone che la pensano nello stesso modo.
Un individuo che cerca la pluralitá la trova pure dentro Facebook, perché segue pagine complementari e interagisce con persone ideologicamente variegate.
Non penso che il compito di Facebook sia cambiare le abitudini dell’utente, sarebbe comunque arbitrario.
Il punto è che il TG lo si sceglie, spesso, in base ai propri orientamenti o preferenze. Il feed di Facebook invece seleziona, in automatico, per te tutti i contenuti che ritiene possano esserti più congeniali.
Rispetto alla TV, dopo anni, si ha una maggiore consapevolezza, mentre per quanto riguarda Facebook, e i social in genere, c’è ancora molta gente che approccia il feed in modo acritico, basandosi unicamente su ciò che viene confezionato per noi dall’algoritmo.
Il punto è proprio “educare” le persone a cercare la pluralità, conoscendo le dinamiche che creano il flusso informativo che ci viene proposto.
Grazie per il feedback Matteo 🙂
Che qualcuno selezioni per me mi spaventa. A maggior ragione mi intimorisce che, a farlo, sia un sistema automatizzato, che non registra ovviamente stati di animo, curiositá e naturali variazioni dello spirito umano. La piattaforma deve fare cassetto ovvio, la monetizzazione spinge verso la stretta profilazione degli utenti, che personalmente trovo ancora troppo ingenui sulla considerazione e l’uso dello strumento. Da chi si abbandona a diario personale (foto minori, racconti privati) a chi posta per lavoro in modo quasi maniacale. Non esistono orari, con la programmazione si posta a qualunque ora, si é sempre connessi e quasi si sente il dovere di stare sempre sul pezzo. Ma come? Senza approfondimenti, leggendo (fraintendendo) solo gli strilli. Personalmente credo che maggiore quantitá di informazione comporti meno approfondimento, che a sua volta genera l’alimentazione di pregiudizi (o bufale) e falsi miti. La cultura digitale é necessaria, concordo in pieno. Come farla peró? A chi delegarla? Si aprono questioni etiche non indifferenti…
è una questione molto spinosa. Le persone che dovranno (dovrebbero) guidare questo processo vanno selezionate con dovizia e attenzione.
Siamo di fronte a un passaggio che mi permetto di definire storico e che non possiamo permetterci di lasciar correre con troppa faciloneria.
Grazie per il Feedback, Katia 🙂
Il rischio dell’algoritmo, anche in termini di gestione delle nostre coscienze da parte dell’algoritmo, è che l’algoritmo ce la canti e ce la suoni, cioè che finisca poi per farci vedere regolarmente solo le cose che ci gratifichino, ma anche in termini di “lavaggio del cervello”.
Se ad es. io sono per la Brexit e seguo determinati mezzi di comunicazione di parte che la sostengono, si rischia davvero di farci incamerare in un loop che ci faccia vedere SOLO il nostro “mondo”, la nostra “Weltanschauung”.
Secondo me questo va molto vicino al concetto di “Grande Fratello” di orwelliana memoria ed è per questo che a me Facebook sta stancando e lo uso solo per lavoro, lì sì che può essere utile per farmi vedere solo ciò che riguarda i temi di lavoro.
Ma sotto l’aspetto delle opinioni lo trovo deleterio.
C’è sicuramente il rischio che le opinioni possano essere mediate da un livello superiore di gestione.
Questo è anche il motivo per cui bisogna coltivare un’educazione digitale che prescinda dal mero esercizio di insegnare e apprendere solo tutto ciò che è esclusivamente tecnica.
Grazie per il feedback, Fabrizio.