Facebook non ostacolerà le notizie false e vi spiego il perché

Dal 23 gennaio 2018 il mio blog non ha più banner pubblicitari e viene sostenuto dalle vostre donazioni che potete inviare qui: https://www.paypal.me/DavidPuenteit

Vedo condivisi dai miei contatti un articolo di IlPost.it dal titolo “Google e Facebook bloccheranno le loro pubblicità sui siti di notizie false“:

Facebook ha da poco aggiornato le regole per l’utilizzo del suo sistema di annunci pubblicitari, chiarendone meglio il funzionamento, con risultati simili a quanto fatto da Google. Con un comunicato, la società ha spiegato che i siti di notizie false e bufale rientrano nella categoria di siti cui viene impedito di utilizzare Facebook Audience Network per la pubblicità: “In accordo con le policy di Audience Network, non integriamo o mostriamo pubblicità nelle app e nei siti che pubblicano contenuti illegali, ingannevoli o fallaci, incluse le notizie false. Sebbene fosse sottinteso, abbiamo aggiornato la policy per chiarire in modo esplicito che questo vale anche per le notizie false. Il nostro team continuerà ad esaminare attentamente tutti i potenziali editori e a monitorare tutti quelli già esistenti per garantirne la conformità”.

Un comunicato? Dove? Sono andato nel sito di Facebook Audience Network e non ho trovato nulla a riguardo, l’ultima comunicazione è del 13 ottobre 2016 dal titolo “Ensuring More Quality Outcomes with Audience Network“, mentre nella sezione Newsroom di Facebook (il blog principale) l’ultimo articolo è dell’11 novembre 2016 dal titolo “Improving Enforcement and Promoting Diversity: Updates to Ethnic Affinity Marketing“. In entrambi i casi, nessuno parla di notizie vere o false.

Parliamoci chiaro: magari! Magari accadesse! Ci sono però delle criticità evidenti, come ad esempio:

  • Se a diffondere notizie false è un sito legato ad un partito politico che esprime le sue idee e le convinzioni, o meglio la sua propaganda?
  • Se a diffondere notizie false è una testata giornalistica con una chiara linea editoriale?
  • Chi farà il controllo della veridicità dei contenuti dei siti? Facebook non cancella nemmeno le pagine razziste, figuriamoci se farà un controllo sulle bufale!

Ho seguito attentamente l’argomento cercando e trovando ulteriori informazioni a riguardo. C’era anche chi sosteneva che Facebook potesse acquistare Snopes, ma ciò non succederà mai perché il portale antibufala per eccellenza continuerà a mantenere la sua totale indipendenza (politica ed economica).

Posso dirvi che Facebook non ha alcuna intenzione a compiere una vera e propria lotta contro le bufale e che i “tool antibufale” tanto annunciati e messi in atto dal 2015 non sono serviti a niente, solo un illuso può credere che un algoritmo aiuti a risolvere il problema (e credetemi, di creduloni di questa teoria ne ho visti parecchi e non si rendono conto di un’ulteriore problema che loro stessi stanno incentivando). Di seguito riporterò un’analisi completa delle considerazioni poste dagli stessi protagonisti del noto social Network.

 

Perché Facebook non bloccherà le bufale

Avevo già trattato l’argomento in un mio precedente articolo, dove criticavo profondamente il presunto “tool anti bufale” introdotto da Facebook nel 2015 ritenendolo completamente inutile, infatti dopo quasi un anno non era cambiato assolutamente niente:

Non serve fare un tool che “diminuisca” le possibilità di visualizzare un sito o una pagina Facebook, attraverso un blocco praticamente personale, se esistono casi come quello da me trattato settimane fa nel mio articolo “I bufalari e i loro target: il caso di studio LeRepubblica.info e il Club Luigi Di Maio” che riguarda il quinto punto da me elencato qui sopra. Altri gruppi vengono creati appositamente per raccogliere utenti più “attivi” e “fidelizzati” affinché questi condividano determinati contenuti (come ad esempio il defunto gruppo Facebook “Tutti i crimini degli immigrati” amministrato dal gestore di Catena Umana e che quelli di Gazzetta della Seratentarono di ricreare).

Finché ci sarà gente che crederà alle bufale e non metterà da parte quel fottuto orgoglio che li porta a difenderle con scuse del tipo “è satira” (senza neanche comprendere cos’è realmente la satira), “è verosimile”, “anche se è falsa potrebbe essere successa”, il tool come quello offerto da Facebook è inutile e risulta essere una falsa consolazione per chi vorrebbe contrastare le bufale.

I sistemi di segnalazione di Facebook non sono efficaci del tutto, basti vedere anche l’episodio accaduto agli amici di Butac su Butacmag.it nell’articolo intitolato “Censura e moderazione su Facebook“.

[…]

Il problema è culturale e non si risolve con un algoritmo.

A confermare ulteriormente il problema e a sostenere che il noto social Network non lo ha affatto risolto è stato Bobby Goodlatte, già product designer di Facebook, con questo suo post del 9 novembre 2016:

bobby-goodlatte-facebook

I’m really disappointed by what’s going on tonight.
Highly partisan, fact-light media outlets blinded us on the left (HuffPo, Vox), and propelled Donald Trump into the lead on the right (Breitbart). Sadly, their fuel is the social internet: FB, Twitter, Reddit too.
Breitbart and countless other conservative publications have thrived over the last few years. In some cases they’ve multiplied 10X or more.
Sadly, News Feed optimizes for engagement. As we’ve learned in this election, bullshit is highly engaging. These outlets, and Donald Trump, have no concern for the truth, and really only care for engagement.
A bias towards truth isn’t an impossible goal. Wikipedia, for instance, still bends towards the truth despite a massive audience. But it’s now clear that democracy suffers if our news environment incentivizes bullshit.
This isn’t anybody’s fault. Nobody predicted this. But this must be a wake up call. My aim here is not to point fingers. Again, this isn’t about blaming or accusing. But this election is a clear mandate to act

Ebbene si, “le bufale sono altamente coinvolgenti” e i feed di Facebook si basano sul coinvolgimento, non c’è affatto l’interesse per la verità! Infatti, a maggior conferma di ciò c’è stato il commento al post da parte di Robert D’Onofrio, Facebook Data Editor:

robert-donofrio

Ahh, yes, blame the machines for tricking the dumb voters. Sigh. 128 million unique VAP Americans engaged in the conversation about the election since it started, and that doesn’t include today. Media companies distributing content drives some of that engagement, but a substantial portion comes from everyday FB folks talking about the election in substantive terms with friends and family. A quick look at the top issues being discussed heading into one of the debates (or even today real-time) shows the discussion on FB, as surfaced by feed, is much richer than you describe. We need to remain humble as a company as nearly 1.8 billion people turn to us for expression … the last thing we need to try and do is define “truth”.

Insomma, per D’Onofrio devono rimanere umili e che l’ultima cosa che devono fare è definire “la verità”. Tuttavia, per quanto mi riguarda, il botta e risposta migliore è quello tra Adam Wolff, Facebook Engineering, e Goodlatte:

wolff-goodlatte

Wolff: “I agree that Facebook played a role in this election and it would be nice if turning a knob on some machine learning algorithm could help people agree on basic “facts.” But it seems more likely to me that what we need is more dialog between opposing points of view and less of a filter bubble”.

Goodlatte: “You’re right that healthy dialog is gone. But before that can happen, we need ground rules. Collectively deciding what is fact and what is bullshit would be a good start. And this isn’t just a sin of the right, the left has embraced this trend just as much—that’s why we were blinded by this”.

Insomma, per Wolff sarebbe bello che bastasse girare una manopola per far avviare degli algoritmi utili ad aiutare le persone, ma quello che serve è il dialogo tra i punti di vista opposti e meno filtri. Goodlatte è d’accordo sul fatto che il dialogo, quello sano, non è presente e andrebbe recuperato, ma per farlo bisognerebbe porre delle regole di base, mentre riconoscere e decidere quale notizia sia un fatto e quale una bufala sarebbe già un buon inizio. Il concetto è sempre lo stesso: è un problema culturale non risolvibile attraverso un algoritmo.

Non manca, tuttavia, il commento più importante (non presente nel post di Goodlatte), ossia quello del loro datore di lavoro. Ecco il post di Mark Zuckerberg del 12 novembre 2016, dove sostiene che il 99% delle notizie che appaiono su Facebook sono autentiche e che identificare ciò che è vero da ciò che è falso è difficile e complicato (se è così, come fa ad affermare con tanta certezza quel 99%?), ma soprattutto ci sono le opinioni che possono piacere o meno (infatti, sottolinea che per puro disaccordo possono essere segnalate come false, anche se non lo sono):

mark-zuckerberg

I want to share some thoughts on Facebook and the election.
Our goal is to give every person a voice. We believe deeply in people. Assuming that people understand what is important in their lives and that they can express those views has driven not only our community, but democracy overall. Sometimes when people use their voice though, they say things that seem wrong and they support people you disagree with.
After the election, many people are asking whether fake news contributed to the result, and what our responsibility is to prevent fake news from spreading. These are very important questions and I care deeply about getting them right. I want to do my best to explain what we know here.
Of all the content on Facebook, more than 99% of what people see is authentic. Only a very small amount is fake news and hoaxes. The hoaxes that do exist are not limited to one partisan view, or even to politics. Overall, this makes it extremely unlikely hoaxes changed the outcome of this election in one direction or the other.
That said, we don’t want any hoaxes on Facebook. Our goal is to show people the content they will find most meaningful, and people want accurate news. We have already launched work enabling our community to flag hoaxes and fake news, and there is more we can do here. We have made progress, and we will continue to work on this to improve further.
This is an area where I believe we must proceed very carefully though. Identifying the “truth” is complicated. While some hoaxes can be completely debunked, a greater amount of content, including from mainstream sources, often gets the basic idea right but some details wrong or omitted. An even greater volume of stories express an opinion that many will disagree with and flag as incorrect even when factual. I am confident we can find ways for our community to tell us what content is most meaningful, but I believe we must be extremely cautious about becoming arbiters of truth ourselves.
As we continue our research, we are committed to always updating you on how News Feed evolves. We hope to have more to share soon, although this work often takes longer than we’d like in order to confirm changes we make won’t introduce unintended side effects or bias into the system. If you’re interested in following our updates, I encourage you to follow our News Feed FYI here: http://bit.ly/2frNWo2.
Overall, I am proud of our role giving people a voice in this election. We helped more than 2 million people register to vote, and based on our estimates we got a similar number of people to vote who might have stayed home otherwise. We helped millions of people connect with candidates so they could hear from them directly and be better informed. Most importantly, we gave tens of millions of people tools to share billions of posts and reactions about this election. A lot of that dialog may not have happened without Facebook.
This has been a historic election and it has been very painful for many people. Still, I think it’s important to try to understand the perspective of people on the other side. In my experience, people are good, and even if you may not feel that way today, believing in people leads to better results over the long term.

Come potete ben comprendere, l’idea di bloccare le bufale è ben lontano dalla galassia Facebook siccome, per voce del suo stesso proprietario, sono a malapena l’1% dei contenuti e il problema che vengano segnalate notizie vere come false per puro disaccordo è molto probabile.

Riporto, infine, la nota finale presente nel mio articolo del 15 giugno in merito al “tool antibufala di Facebook”:

NOTA aggiuntiva: “Arginare”, come sostiene anche il collega Il Ninth in una nostra conversazione, non contrasta il problema della pseudoinformazione, bensì crea paradossalmente una echo chamber (le cosiddette “camere di risonanza”, delle stanze chiuse in cui si amplifica solo ed esclusivamente un unico pensiero) e che bisogna piuttosto potenziare l’educazione. Concordo pienamente con il collega.

Più avanti scriverò un articolo con una mia analisi del fenomeno e dei danni che stanno compiendo, nella loro totale presunzione di consapevolezza di essere nel giusto, in certi gruppi Facebook.

David Puente

Nato a Merida (Venezuela), vive in Italia dall'età di 7 anni. Laureato presso l'Università degli Studi di Udine, opera nel campo della comunicazione e della programmazione web.
REGOLAMENTO DELLA DISCUSSIONE
Non sono consentiti:
- messaggi off-topic (tradotto: non inerenti al tema trattato)
- messaggi anonimi (registratevi almeno a Disqus)
- messaggi pubblicitari o riportanti link truffaldini (verranno sempre moderati i commenti contenenti link esterni)
- messaggi offensivi o contenenti turpiloquio
- messaggi razzisti o sessisti
- messaggi il cui contenuto costituisce una violazione delle leggi italiane (istigazione a delinquere o alla violenza, diffamazione, ecc.)
Se vuoi discutere in maniera costruttiva ed educata sei il benvenuto, mentre maleducati, fanatici ed esaltati sono cortesemente invitati a commentare altrove.
Comunque il proprietario di questo blog potrà in qualsiasi momento, a suo insindacabile giudizio, cancellare i messaggi che violeranno queste semplici regole. I maleducati (soprattutto se anonimi) verranno bloccati. In ogni caso il proprietario del blog non potrà essere ritenuto responsabile per eventuali messaggi lesivi di diritti di terzi.

Regolamento in vigore dal 5 settembre 2016 - Aggiornato 26 agosto 2017.