L’Unione Europea attraverso il suo braccio esecutivo, la Commissione Europea, ha avviato da circa un decennio una strategia per manipolare l’informazione globale sul web. Non è “complottismo”, non è “dietrologia” e purtroppo non è neanche una minaccia di un pericolo futuro: basta leggere il report relativo a un’indagine svolta in merito della Commissione Giustizia della House of Representatives statunitense (l’equivalente della nostra Camera dei Deputati), documentata in un rapporto uscito a inizio febbraio, per rendersi conto che quanto denunciato da J. D. Vance un anno fa non rappresenta un ipotetico rischio né un’esagerazione propagandistica, ma una cruda realtà. Sia chiaro: la manipolazione dell’informazione è uno strumento onnipresente nell’amministrazione del potere, e gli stessi Stati Uniti non sono innocenti in questo senso, basti ricordare le pressioni dell’amministrazione Biden-Harris su Meta, ammesse in seguito da Zuckerberg, per censurare determinati tipi di contenuti. Ma grazie all’esistenza di una pluralità di poteri e sovranità nazionali dagli interessi in parte divergenti, queste manipolazioni possono venire alla luce, nell’interesse primario di qualcuno, certo, ma a beneficio di tutti. Il motore che ha spinto la Commissione Giustizia della Camera USA a intraprendere quest’inchiesta e pubblicarne i risultati è proprio la necessità di tutelare l’autonomia politica statunitense, anche nel campo dell’informazione e del dibattito pubblico sul web (tutelato dal Primo Emendamento che garantisce la libertà di pensiero e di espressione, ponendola al di sopra degli stessi poteri dello Stato).
Il report si intitola “La minaccia della censura straniera: la campagna europea per censurare l’Internet globale, e il suo impatto sulla libertà di espressione negli Stati Uniti” e si basa sull’analisi di «migliaia di documenti non pubblici, tra comunicazioni interne e con la Commissione Europea» ottenuti con mandato giudiziario presso dieci compagnie tecnologiche che si occupano di web, informazione e social media, tra cui Meta (che controlla Facebook e Instagram), Alphabet (che controlla Google e YouTube), Amazon, X, TikTok, Microsoft, Apple. Sono infatti le “Very Large Online Platforms” (VLOPs), piattaforme con un numero molto elevato di accessi mensili il bersaglio del Digital Service Act (DSA) emesso dall’Unione Europea nel 2022 (ne avevamo parlato qui) per regolamentarne – leggi: oscurarne, se ritenuto necessario – i contenuti. Come si legge nel report: «Il DSA richiede alle VLOPs di identificare e neutralizzare i “rischi sistemici” di “contenuti ingannevoli o disinformatori” e “discorsi d’odio” che comportino “un impatto negativo, attuale o potenziale, sul dibattito pubblico, sui processi elettorali e sulla pubblica sicurezza”: questa definizione è abbastanza ampia e vaga da comprendere non solo i contenuti oggettivamente illeciti, ma anche qualsiasi contenuto ritenuto negativo dai burocrati UE». Nella maggioranza dei casi, le grandi piattaforme web costituiscono ormai il principale strumento del dibattito pubblico e per collegare l’utente medio con siti e soggetti di minor portata, tra cui le testate giornalistiche: un intervento di questo tipo può rendere praticamente invisibile un contenuto “sgradito” pubblicato da una di queste realtà.
Il “Ministero della Verità” dell’Unione Europea.
Ma il report documenta come il DSA sia “solo” il culmine, il completamento di una struttura censoria – come il “Ministero della Verità” di orwelliana memoria, uno dei cui slogan era Ignorance is strenght, “l’ignoranza è forza” – attiva già da circa un decennio, e i cui tentacoli arrivano appunto a manipolare la regimentazione e la fruizione dei contenuti del web in ogni parte del mondo. Com’è possibile? Semplice, con la scusa che sebbene una compagnia abbia sede fuori dall’Europa, quando un contenuto va su una sua piattaforma online esso è potenzialmente fruibile da utenti di tutto il mondo, quindi anche europei: e per la compagnia in questione sarebbe estremamente complesso e antieconomico implementare dei meccanismi che individuino i contenuti da oscurare e applichino tali censure in modo selettivo per l’utenza europea. Inoltre non sarebbe sufficiente, perché tramite le reti VPN (Virtual Private Network) si può nascondere l’origine geografica della propria utenza, quindi anche misure selettive di questo tipo non darebbero all’UE la garanzia che nessun utente sul proprio territorio possa essere esposto ai contenuti “sgraditi”. Alle grandi compagnie, di qualsiasi parte del mondo, se vogliono restare sul mercato UE e non rischiare le sanzioni esorbitanti previste dal DSA (fino al 6% del fatturato globale), conviene risolvere il problema alla radice applicando in modo generalizzato i criteri di regimentazione dei contenuti richiesti dall’Unione Europea: è il cosiddetto “effetto Brussels”, analogo e parallelo alle dinamiche della finanza ESG (che abbiamo illustrato qui).
Tutto inizia nel 2015 quando la Direzione Generale della Commissione Europea sulla Migrazione e gli Affari Interni fonda l’EU Internet Forum, una rete che collega il direttivo UE, le compagnie tecnologiche e varie organizzazioni non governative, inizialmente allo scopo di coordinare misure contro l’uso illecito del web da parte di reti terroristiche e “estremisti violenti”. Ben presto, però, questi strumenti vengono ampliati al fine di regimentare anche contenuti leciti, ma contrari alla narrazione politica desiderata, con le solite scuse del contrasto alla “disinformazione” e ai “discorsi d’odio” che costituirebbero un “rischio sistemico” di radicalizzazione. Da questi forum vengono stilati due “codici di condotta”: quello per il contrasto all’Hate speech nel 2016 e due anni dopo quello per il contrasto alla Disinformation. Sulla carta, l’adesione e l’applicazione di criteri e misure prescritte in questi “codici di condotta” è volontaria da parte delle grandi compagnie tecnologiche, e basata su valutazioni autonome (stabilire cosa sia “discorso d’odio” e cosa no, cosa sia “informazione scorretta” e cosa no, implica spesso elementi soggettivi e arbitrari di valutazione). Ma i documenti svelati dalla Commissione Giustizia statunitense dimostrano che, fin da subito, questi “codici” sono stati trattati dalla dirigenza UE come regolamenti vincolanti, sotto la minaccia delle sanzioni economiche, e vincolati, ai criteri specifici dettati dalla stessa dirigenza europea.
Il ricatto dietro l’“adesione volontaria”.
L’adesione a questi “codici di condotta” è stata specificamente indicata come il criterio principale per valutare se una compagnia stia applicando o meno le misure ritenute idonee a garantire la non violazione del DSA, trasformato in questo modo in un meccanismo ricattatorio: o aderisci ai nostri “codici di condotta”, oppure sarai “particolarmente attenzionato” per una sanzione. E questo ricatto è stato, fin da subito, esplicito. Ad es. in un post della Commissione UE del giugno 2022 si legge: «Il Codice di condotta sulla disinformazione sarà applicato mediante il DSA: in altre parole, le compagnie che non aderiscono potranno rischiare sanzioni fino al 6% del fatturato globale». Di nuovo in un meeting del settembre 2024 con i firmatari dei codici di condotta, Renate Nikolay, vice-direttore di DG-Connect (la Direzione generale della Commissione Europea per le “reti di comunicazione, contenuto e tecnologia”), specifica ai delegati delle compagnie che «l’adesione ai codici di condotta UE costituisce una forte misura di riduzione del rischio» e che la mancata adesione «sarà tenuta di conto nel valutare se una compagnia stia ottemperando o meno agli obblighi previsti dal DSA». E data la vaghezza dei criteri implicati e l’estrema complessità dei grandi sistemi web, volendo qualche magagna si trova sempre.
Lo dimostra il caso della multa da 120 milioni di dollari comminata a X, il social media di Elon Musk, a fine anno scorso, al termine di un’inchiesta iniziata casualmente due mesi dopo il ritiro da parte di X dell’adesione al “Codice di condotta contro la disinformazione”, adducendo motivazioni poco credibili (trattate in modo dettagliato alle pagg. 125-135 del report). Oltre all’implementazione di tali criteri nelle proprie linee-guida, risultanti in una selezione preventiva dei contenuti da oscurare (di cui le compagnie sono tenute a dar conto dettagliatamente in periodici meetings con i commissari UE), le VLOPs sono obbligate a dare immediata e compiacente risposta alle segnalazioni di “fact-checkers” (“verificatori della correttezza dell’informazione”) e “trusted flaggers” (“segnalatori affidabili”) certificati e foraggiati dalla dirigenza europea, spesso in conflitto di interessi. La censura in questione non è da intendersi necessariamente nella forma della rimozione del contenuto o dell’account dell’utente, ma più spesso assume la forma, più subdola perché difficilmente individuabile, di un “oscuramento” tale che il contenuto o l’utente resta online, ma non è visibile nei feeds degli altri utenti; oppure di “demonetizzazione” dei contenuti “incriminati”, in modo da disincentivare i “content creators” dal proseguire quel tipo di narrazione. Nel report sono documentate svariate applicazioni concrete di questi meccanismi: nella seconda e ultima parte di questo articolo forniremo alcuni esempi in dettaglio, rimandando i lettori interessati alla lettura integrale del documento.