Viene invece svuotata lentamente, normalizzata, resa invisibile. A Bruxelles non la chiamano censura: la chiamano “sicurezza”. La Von der Leyen non la chiama controllo, ma la chiama “moderazione”, una sorveglianza a “protezione dei cittadini”. E così, quasi senza accorgercene, la sfera privata diventa territorio amministrato.
E proprio in Europa nelle stanze di quei tecnocrati non scelti dal popolo, questo processo ha preso forma e gli è stato dato un nome tecnico: Chatcontrol, intendiamoci loro lo dicono che è su base volontaria, peccato però che proprio l’11 marzo questa “volontarietà” è stata prorogata fino al 6 agosto del 2027 quando invece sarà definitiva e obbligatoria.
La finalità ufficiale indicata dai promotori è il contrasto alla diffusione di materiale illegale legato allo sfruttamento dei minori sul web. Il provvedimento però nella realtà prevede l’impiego di strumenti automatici capaci di analizzare conversazioni, posta elettronica e materiali scambiati attraverso i canali privati di tutti i cittadini.
Dietro il linguaggio burocratico delle istituzioni quello che davvero ci deve preoccupare, è che si nasconde un progetto che, secondo molti giuristi e difensori dei diritti digitali, apre la strada alla scansione sistematica delle comunicazioni private, ovvero la fine della privacy di tutti i cittadini. Messaggi, immagini, conversazioni: tutto analizzato da algoritmi, di cui non è dato sapere chi li abbia creati per chi e per quale vero uso finale, prima ancora di arrivare al destinatario. Il principio su cui si fonda la comunicazione privata, la confidenzialità, sarà completamente finito. Non più cittadini liberi che comunicano, ma utenti osservati preventivamente.
La domanda che dovremmo porci è semplice: quando la sorveglianza diventa la norma, cosa resta della libertà?
Ma il controllo dell’informazione non passa solo dalle leggi. Passa anche dalle infrastrutture attraverso cui oggi quasi tutto il discorso pubblico si svolge: le piattaforme digitali. Un tempo le piazze erano fisiche; oggi sono algoritmiche. E chi controlla gli algoritmi controlla la visibilità del pensiero.
Piattaforme globali come Facebook hanno sviluppato sistemi di moderazione che decidono cosa può circolare e cosa no. In teoria ci raccontano che si tratta di proteggere gli utenti da odio, disinformazione e violenza. In pratica, sempre più spesso emergono accuse di arbitrarietà, di opacità, di interventi che limitano la diffusione di contenuti politici o giornalistici scomodi.
Ci sono casi di pagine e testate online come la nostra che possono dimostrare di non poter promuovere contenuti critici verso governi o conflitti internazionali. Altri raccontano di inserzioni rifiutate perché contenevano satire politiche o immagini considerate “sensibili”. È difficile stabilire dove finisca la tutela delle regole e dove inizi la selezione ideologica. Ma una cosa è certa: quando il dibattito pubblico dipende da piattaforme private, la libertà di parola diventa subordinata ai loro criteri interni.
Negli ultimi anni lo stesso fondatore di Meta ha ammesso che, durante i momenti di grande tensione politica e sanitaria dovuti alla pandemenza Covid-19, le piattaforme, in particolare lui si riferisce alla sua, hanno ricevuto forti pressioni da parte dell’allora governo Biden, di togliere e limitare contenuti inappropriati nell’intento della conoscenza delle verità e della comunicazione tra persone che avevano lanciato da subito potenti e pesanti dubbi alla gestione della pandemenza e dei suoi protocolli. Va ricordato che alcune di queste sono anche morte in circostanze davvero poco nitide. Non è un dettaglio secondario. Significa che lo spazio informativo globale può essere influenzato da decisioni prese lontano dagli utenti che lo abitano.
Eppure, il punto più inquietante non è soltanto il potere delle istituzioni o delle piattaforme. Il punto più inquietante è il silenzio della società.
Viviamo nell’epoca dell’informazione infinita, eppure la capacità critica sembra contrarsi. Il mainstream viene consumato come un flusso continuo: titoli, notifiche, commenti rapidi. Pochi si fermano a interrogarsi sulle strutture che determinano ciò che vediamo. Pochi chiedono trasparenza su chi decide quali notizie diventano virali e quali scompaiono.
La vera crisi non è tecnologica, ma è culturale.
Una democrazia non muore quando qualcuno propone una legge discutibile. Muore quando i cittadini smettono di reagire. Quando la sorveglianza diventa “normale”. Quando la censura viene percepita come un dettaglio tecnico. Quando la libertà di parola viene difesa solo finché riguarda opinioni innocue.
Perfino le istituzioni morali e spirituali come il Papa che un tempo avrebbero potuto rappresentare una voce critica sembrano spesso muoversi con cautela estrema. Il risultato è un vuoto: nessuna grande autorità culturale che parli con forza della libertà, della dignità della coscienza, del diritto di dissentire.
Così si consolida la nuova architettura del controllo: governi che invocano sicurezza, piattaforme che regolano il discorso pubblico, cittadini che scrollano lo schermo.
Ma la libertà non scompare tutta insieme. Si restringe millimetro dopo millimetro, fino a quando ci si accorge che il perimetro è diventato troppo stretto e a quel punto, è già troppo tardi.
Per questo la domanda non riguarda soltanto le leggi europee, gli algoritmi delle piattaforme o le scelte dei governi. La domanda riguarda noi. La nostra capacità di dubitare, di informarci, di difendere il diritto di parlare, anche quando le parole sono scomode.
Perché una società che rinuncia alla vigilanza critica consegna spontaneamente la propria libertà. E la storia insegna che nessun potere, una volta ottenuto il controllo delle coscienze, lo restituisce facilmente.
Foto copertina: immagine generata dall’AI
Link utili:
https://www.europarl.europa.eu/news/en/press-room/20260306IPR37531/child-sexual-abuse-online-support-for-extending-rules-until-august-2027
https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=celex%3A32002L0058











































































