Tuttavia, un nuovo strumento sta facendo discutere per il suo approccio innovativo e controverso: si chiama Impact, un’app sviluppata negli Stati Uniti da Sean Thielen e Dimitry Shapiro, che si autodefinisce come il prodotto definitivo per “plasmare la realtà”.
A differenza delle operazioni tradizionalmente segrete o dissimulate legate alla manipolazione digitale, i creatori di Impact scelgono la trasparenza. Il loro obiettivo dichiarato è ambizioso: combattere gli abusi dell’informazione online, favorendo comportamenti coordinati autentici per contrastare odio, disinformazione e xenofobia.
“I ‘cattivi’ stanno imbastendo comportamenti coordinati inautentici. Impact permette di organizzare comportamenti coordinati autentici”, affermano con enfasi nei loro comunicati ufficiali.
La proposta di Impact, se da un lato appare come una risposta etica agli abusi della rete, dall’altro apre un vaso di Pandora su cosa significhi davvero essere “autentici” in un contesto digitale.
A differenza dei bot o dei profili falsi impiegati per diffondere messaggi prefabbricati, l’app utilizza l’intelligenza artificiale per coordinare persone reali, suggerendo loro contenuti da pubblicare e strategie comunicative da seguire.
Questo approccio rende i messaggi molto più difficili da identificare come operazioni di propaganda, poiché l’interazione avviene attraverso individui veri, con storie e identità verificabili. Ma la domanda resta: è giusto considerare autentico un messaggio che nasce da una direttiva coordinata, anche se eseguita da persone reali?
Un altro aspetto critico riguarda la dicotomia tra “buoni” e “cattivi” evocata dai fondatori. Se le intenzioni di Thielen e Shapiro possono sembrare nobili, la definizione di chi rientri in una categoria o nell’altra dipende inevitabilmente dalla visione politica e ideologica di chi utilizza la piattaforma. Chi decide quali cause meritano supporto e quali no?
Questo dilemma pone Impact al centro di un dibattito più ampio sulla libertà d’espressione e sulla responsabilità delle piattaforme tecnologiche nel modellare il discorso pubblico. Lungi dal risolvere il problema della manipolazione online, l’app rischia di diventare essa stessa uno strumento potente nelle mani di chi desidera influenzare opinioni e decisioni su larga scala.
Oltre ai risvolti etici, Impact solleva questioni tecniche e amministrative di non poco conto.
Come regolamentare un sistema che opera al confine tra coordinazione e manipolazione?
Attualmente, i social network considerano manipolativi i contenuti provenienti da account falsi o bot, ma il modello proposto da Impact obbligherebbe a ridefinire questi standard.
Impedire la diffusione dei messaggi suggeriti dall’app significherebbe infatti colpire persone reali, potenzialmente ostacolando qualsiasi forma di attivismo digitale. Un rischio che potrebbe avere conseguenze imprevedibili, andando a minare la libertà di coordinarsi per cause collettive, dalle campagne politiche alle battaglie per i diritti umani.
Impact rappresenta un case study unico nel suo genere, un tentativo deliberatamente trasparente di utilizzare l’intelligenza artificiale per modellare il discorso pubblico. Ma la sua esistenza solleva interrogativi fondamentali sul futuro della comunicazione digitale: fino a che punto è accettabile coordinare il pensiero online? E chi dovrebbe avere il diritto di farlo?
Mentre l’app si prepara a essere lanciata su larga scala, il mondo osserva con curiosità e apprensione.
Impact potrebbe essere uno strumento per bilanciare le distorsioni del passato, oppure una nuova arma per manipolare la realtà, questa volta con il consenso degli utenti stessi?
Il tempo di agire è ora, prima che il consenso diventi una trappola e la manipolazione una norma accettata.