L’ambiziosa (e poco credibile) censorship policy dei video su facebook

Facebook immagina un futuro unicamente video da qui a 5 anni.
Questo lungimirante ed interessante piano prevede una pianificazione di attività a tutto tondo che consentano a questo sistema di non diventare vittima di sé stesso.
Al di là delle implementazioni tecniche, che continuano a dimostrarsi lodevoli e attrattive per gli utenti, si pone l’importante problema della verifica dei contenuti, talvolta sopra le righe o non esattamente adatti ad essere palesati al grande pubblico, specie se si tratta di video con le aggravanti di autoplay e riproduzione in loop.
È il caso dei contenuti che contengano elementi di violenza o comunque immagini forti, per cui si rende necessaria la pubblicazione (e il rispetto) di una policy ben precisa che ne regolamenti la presenza su un social che si avvia verso i 2 miliardi di utenti.

Facebook si dota già da tempo di tutta una regolamentazione di pubblicazione dei contenuti, oltre a una variegata possibilità di segnalazione di tutto quanto dovessimo ritenere non consono. Uno staff (ed evidentemente dei sistemi automatici) governa questo flusso di segnalazioni con provvedimenti non sempre impeccabili.

Ma non tutti i video con contenuti forti inneggiano necessariamente all’odio o alla violenza. Cosa accade in casi in cui i contenuti forti pubblicati sono afferenti alla sfera del citizen journalism?

Techcrunch è riuscito a raccogliere una serie di regole ben precise, che però lasciano ampi margini ai dubbi.

Particolare attenzione meritano i video live, che fanno emergere le maggiori criticità del sistema.

Regole e commento di seguito.

1 Le linee guida applicate per i video live sono le stesse usate per foto video etc.
Ok, ma visti i tempi biblici (per i social, si intende) di valutazione delle segnalazioni sui contenuti non live e supposta anche una priorità data al live, non parliamo certamente di un sistema troppo efficace nel brevissimo periodo.

2 I video con contenuti violenti vengono eliminati solo se questi sono “glorificati”. Ciò non accade se si tratta  di contenuti pubblicati con l’intento di dare rilievo a una notizia.
La differenza sostanziale starebbe nelle didascalie
(sempre presenti?) da distinguersi tra “Bellissimo! Dovrebbero farlo a tutti” e  “Terribile, questa cosa dev’essere fermata!”.

Anche qui ottime intenzioni, ma sappiamo tutti che spesso questa cosa non corrisponde a realtà.
C’è un limite tecnico: banalmente non tutti coloro che disseminano contenuti in rete lo fanno inserendo a margine una didascalia che consenta di discriminare le intenzioni di chi pubblica.
Inoltre, Facebook è pieno di post e pagine giustamente segnalate per contenuti indegni che sono ancora tutte lì, non esattamente per citizen journalism.

3 Ogni singola segnalazione viene vagliata da uno staff che lavora h24 e 7 giorni su 7. Non c’è criterio di priorità di analisi né eliminazione automatica in base al numero di segnalazioni.

Bugia.
Potrei fermarmi qui, ma permettetemi di approfondire.
Facebook è stracolmo di casi in cui contenuti che avevano indubbiamente diritto di essere online sono stati eliminati unicamente in virtù di un cospicuo numero di segnalazioni. Esistono addirittura delle pseudo “organizzazioni” che operano al furto di account puntando in una prima fase al ban temporaneo di quest’ultimo. Come lo ottengono? Con un fuoco incrociato di tentativi di log-in multipli e segnalazioni a pioggia.
Il recente caso di Matteo G.P. Flora, bannato per due giorni (e consecutivamente riabilitato con tanto di scuse) per aver postato uno stato relativo a un caso di  omofobia è emblematico. Qualsiasi soggetto sano di mente avrebbe capito che si trattava di un’opinione (un racconto, per precisione) argomentata e presentata con toni forti ma assolutamente accettabili. In virtù di un’onda anomala di “attivismo” da parte di chi non risultava essere della sua stessa opinione, il post è stato prontamente eliminato e sono quasi sicuro di poter affermare che sia stato un sistema automatico a farlo, proprio in virtù del flusso di segnalazioni a cui poi è seguita una verifica e la consecutiva riabilitazione.
Quindi, cortesemente, non prendiamoci in giro.

È giusto che esistano e si predispongano sistemi automatici di gestione delle segnalazioni, specie se si punta ad avere una piattaforma che basi le sue interazioni su produzioni visuali in real time. È giusto che si continuino a sviluppare sofisticati sistemi di rilevazione di ogni cosa che potrebbe essere  sgradevole mandare online.
Non è giusto negare l’evidenza, intanto che questo sistema continua a mostrare le sue pecche, ragionevolissime in virtù del complesso ambito in cui si trova ad operare.

4 La schermata nera che va in preview su contenuti contenenti immagini forti prevede che il video non parta in autoplay e che ne sia inibita la visione a un pubblico minorenne.

Nulla da eccepire, sembrano assolutamente ottimi espedienti per gestire una situazione così rischiosa. La sfida sarà addestrare un sistema che sia capace in autonomia di capire quale contenuto dovrà riportare questa immagine. Facebook sta facendo enormi passi in materia di image detection.
Noi stessi con tutti i sistemi di captcha in cui siamo portati a individuare fiori, strade, etc. stiamo rendendo un ottimo servizio all’addestramento degli algoritmi.

5 Facebook dichiara di monitorare tutti i video (se segnalati) anche in corso di pubblicazione, oltre a qualsiasi altro servizio di streaming che raggiunga consistenti soglie di audience.

Il ruolo degli utenti risulta ancora una volta fondamentale. Da parte nostra Facebook ci vuole attivi nel monitorare quali contenuti si palesano dal nostro feed. Per tutto quanto precedentemente detto, è lecito attendersi progressi dall’altra parte del monitor.

6 Facebook quando individua casi in cui qualche persona sta mettendo a rischio la propria salute o quella di altri provvede prontamente a contattare le forze dell’ordine.

Ho avuto recentemente modo di verificare questa informazione e posso confermarla senza timore di smentita. Le segnalazioni di situazioni critiche sono tra i servizi di maggior interesse ed efficacia che la piattaforma mette a disposizione delle forze dell’ordine.

Lungi da me voler fare le pulci a un sistema che tecnologicamente al momento fatica a trovare concorrenti.
Il tema della cura dei contenuti pubblicati online a tutela dei minori, dei soggetti offesi e più in generale del buon costume deve sicuramente essere al centro del dibattito. Intanto vale la pena tenere a mente che persistono dei limiti e che, in fondo, parte del processo di miglioramento risiede anche nella nostra volontà di renderci protagonisti di un’attenta attività di segnalazione.

Segui Social Listening sui social e condividi se l’hai trovato interessante.

buzzoole code

Leave a Reply