FATTI NON FOSTE A VIVER DI FAKE NEWS

Internet e libertà di espressione nel Ventunesimo secolo

La diffusione di fake news tramite i social network e il web è diventata un questione di considerevole importanza negli ultimi anni. L’entità del problema è dimostrata dal fatto che aziende del calibro di Facebook, Twitter, Microsoft e Youtube si sono adoperate per rimuovere dalle loro piattaforme contenuti pericolosi.

Le fake news ai tempi del COVID

Negli ultimi mesi, con la crisi scatenata dal Coronavirus, l’importanza di una comunicazione chiara che mettesse al bando bufale di ogni sorta si è fatta ancora più pressante. Tanto da spingere il Ministero della Salute ad aprire una pagina dedicata a smentire le fake news sul COVID-19 che si trovano più frequentemente online.

Oggi più che mai una notizia falsa può avere conseguenze molto gravi, mettendo a rischio la salute del singolo nonché di un’intera comunità. Viene spontaneo, dunque, chiedersi quale sia l’impegno profuso da aziende e nazioni per combattere questo fenomeno tanto diffuso quanto deleterio.

Libertà e sicurezza

La questione, però, «è delicata e riguarda l’annosa e complicata tematica del rapporto tra libertà e sicurezza, con particolare riferimento alla libertà di espressione», ci spiega Carla Bassu in Internet e democrazia: le frontiere della libertà di espressione nell’articolo scritto per AREL la rivista: PIAZZE. Nella regolazione dei post e delle notizie pubblicate sul web ci si scontra con la difficoltà di decidere fino a che punto sia lecito «limitare la libertà di espressione per proteggere la sicurezza».

La domanda non è banale, perché si tratta di stabilire il confine tra legittima manifestazione del pensiero del singolo e diffusione di messaggi potenzialmente pericolosi. In Europa è ammessa la possibilità di limitare la libertà di espressione dei cittadini, nel caso in cui questa leda i princìpi della democrazia. Un po’ come avviene nel caso del paradosso della tolleranza esposto da Karl Popper: perché venga salvaguardata la libertà di espressione non si possono permettere movimenti che incitano all’intolleranza.

Gli algoritmi non sanno scherzare

Nella pratica, però, sorge un ulteriore problema. Per monitorare le piattaforme, data l’enorme quantità di contenuti pubblicati, ci si avvale di sistemi automatici come algoritmi implementati per riconoscere i materiali potenzialmente pericolosi. Purtroppo per la macchina non è sempre facile individuare notizie effettivamente dannose o offensive, soprattutto quando i sistemi devono fare i conti con messaggi satirici o spiritosi.

La soluzione non è semplice e le leggi in materia non sono esenti da criticità, ma a livello sovranazionale sembra esserci la volontà di affrontare la questione nel modo più efficace possibile.