Vai al contenuto
Cultura & Critica

Democrazia delegata: cosa si perde quando l'AI toglie l'attrito

L'AI promette partecipazione civica senza sforzo. Ma quando milioni di agenti personalizzati mediano il rapporto tra cittadini e istituzioni, lo spazio pubblico in cui le idee si scontrano scompare.

Democrazia delegata: cosa si perde quando l'AI toglie l'attrito
Indice dell'articolo

L'AI promette di rendere la partecipazione civica più facile, più rapida, più personalizzata. Il prezzo è lo spazio pubblico stesso.

Il meccanismo: agenti che agiscono, cittadini che annuiscono

L'intelligenza artificiale sta diventando l'interfaccia attraverso cui le persone formano opinioni politiche e partecipano alla governance democratica. Sistemi autonomi redigono comunicazioni, segnalano cause, preparano risposte ad avvisi della pubblica amministrazione. La direzione è chiara: l'agente AI media il rapporto tra individuo e istituzioni, e lo fa ottimizzando per la comodità dell'utente.

In un manifesto pubblicato sul MIT Technology Review nel maggio 2026, Andrew Sorota e Josh Hendler dell'Office of Eric Schmidt argomentano che l'AI debba diventare l'interfaccia primaria della democrazia. Schmidt è ex CEO di Google e investitore via Schmidt Futures e Eric Schmidt Group in startup AI applicate alla difesa e all'amministrazione pubblica. Le interfacce AI per la cittadinanza descritte come desiderabili nel manifesto sono prodotti adiacenti al portafoglio di chi le propone. Il problema inizia dove la comodità individuale diventa un fatto collettivo.

Nessun agente sbaglia, il sistema sì

Uno studio pubblicato su Science Advances nel 2025 (Ashery, Aiello, Baronchelli) ha mostrato che popolazioni di agenti LLM (Llama-2-70b-Chat, Llama-3-70B-Instruct) prive di bias individuale sviluppano spontaneamente convenzioni sociali e distorsioni collettive attraverso la sola interazione reciproca, in un setup sperimentale di coordinamento (naming game). Il contesto è ristretto, ma il meccanismo è generalizzabile: nessun agente singolo presenta una tendenza misurabile, il sistema nel suo complesso sì.

Una sfera pubblica in cui milioni di agenti personalizzati interagiscono tra loro, ciascuno ottimizzato sulle preferenze del proprio utente, non produce una sintesi. Produce un effetto emergente che nessun individuo ha scelto e che nessun progettista ha previsto. La comodità individuale, l'agente che filtra e agisce per conto del cittadino, genera un costo sistemico: la scomparsa dello spazio condiviso in cui posizioni diverse si incontrano e si modificano.

L'attrito che genera democrazia

La democrazia rappresentativa si è costruita sull'attrito. Ogni passaggio della partecipazione obbliga il cittadino a tradurre un'emozione in un argomento, un impulso in una posizione articolata. Leggere un programma elettorale richiede tempo e disponibilità a confrontarlo con le proprie preferenze. Partecipare a un'assemblea costringe a esporsi davanti a chi non la pensa come te. Scrivere a un rappresentante richiede di formulare cosa vuoi e perché.

Il processo è lento, faticoso, e sistematicamente escludente verso chi lavora dieci ore al giorno, chi non ha competenze linguistiche, chi non ha tempo da dedicare alla politica. Ed è anche il meccanismo che trasforma opinioni private in deliberazione pubblica.

Un agente AI che agisce per conto dell'utente elimina questa traduzione. L'utente esprime una preferenza grezza; l'agente la converte in azione politica. Il guadagno in efficienza è reale. La perdita è il momento in cui il cittadino, dovendo formulare la propria posizione, la mette alla prova.

Delega antica, delega nuova

La delega esiste in democrazia da quando esiste la rappresentanza. Ci si fida del segretario di partito, del leader carismatico, del giornalista letto da anni, dell'amico più informato. Si delega tempo e attenzione. La delega umana è imperfetta ma ha tre proprietà costruttive: l'intermediario risponde di quello che fa (può essere sostituito, criticato, votato via), il rapporto è ispezionabile (sai chi è il tuo segretario di sezione, conosci la linea editoriale del giornale che leggi), il costo di switch è basso (cambi giornale, cambi partito, cambi amico).

La delega ad agente AI ha la forma opposta su tutte e tre le dimensioni. L'intermediario è un'infrastruttura privata (Google, OpenAI, Anthropic) che non risponde a nessuno nel senso politico del termine: non si presenta alle elezioni, non risponde a interrogazioni parlamentari. Il rapporto è opaco: non sai su quali dati è stato addestrato il tuo agente, non sai quali dei tuoi input vengono usati come prodotto. Il costo di switch è alto e crescente: agente personalizzato sui tuoi anni di interazione, integrazione con calendario, email, identità digitale.

Non è il caso isolato di un singolo prodotto: cloud, ricerca, autenticazione, e ora deliberazione politica seguono lo stesso pattern. La delega ad agente AI usa il vocabolario antico ("scegliere chi parla per me") per spostare il potere su un'infrastruttura non politica.

Chi paga il prezzo dell'attrito

L'obiezione più seria alla difesa dell'attrito democratico è classista. L'attrito non è un valore per chi ne è schiacciato. Un genitore single con due lavori non ha trenta minuti per leggere un programma elettorale. Un cittadino straniero con permesso di soggiorno non ha la rete sociale per partecipare a un'assemblea. Difendere l'attrito senza dire chi lo subisce è difendere un privilegio.

L'obiezione è corretta. La risposta che le istituzioni democratiche hanno dato per un secolo non è stata "l'attrito è bello, sopportatelo". È stata costruire infrastrutture che riducono l'attrito mantenendo la formulazione. Il sindacato riduce l'attrito della negoziazione individuale e ti aiuta a formulare la rivendicazione. Il partito di massa novecentesco riduce l'attrito della partecipazione politica e ti aiuta a formulare una posizione di classe. La scuola pubblica riduce l'attrito dell'alfabetizzazione politica e ti dà gli strumenti per formulare. Ognuna di queste infrastrutture riduce il costo di partecipare e aumenta la capacità di formulare. Sono compatibili.

L'agente AI per la partecipazione civica è la prima infrastruttura che riduce l'attrito eliminando la formulazione. Toglie il tempo per leggere il programma, la fatica di formulare la lettera al rappresentante. Non perché lettura e formulazione non servano: perché, fatte dall'agente, bastano. Il genitore single e il cittadino straniero non guadagnano gli strumenti per partecipare. Guadagnano un sostituto della partecipazione.

La novità non è la riduzione di sforzo. È quale sforzo viene rimosso.

Cosa misurano davvero questi studi

Tre studi sono regolarmente citati come prova che l'AI può migliorare la deliberazione democratica. Letti per intero, dicono altro.

Il primo (ZEW Discussion Paper 25-071, Walter, N=811) ha misurato una riduzione di 20 punti percentuali nella polarizzazione su Ucraina e immigrazione attraverso conversazioni con chatbot AI, con effetti persistenti a un mese. Il dato dei 20 punti percentuali, isolato, è solido. Il problema sta nell'Esperimento 2 dello stesso paper, che il dibattito pubblico non riporta: AI, mediatori umani incentivati e testo statico ottengono effetti equivalenti, intorno ai 10 punti percentuali ciascuno. La depolarizzazione misurata è una proprietà di qualunque contenuto persuasivo strutturato, non del medium AI. Il claim "AI come infrastruttura deliberativa speciale" perde la sua specificità tecnica nel momento in cui un testo statico fa lo stesso lavoro.

Il secondo (Tessler et al., Science 2024, N=5.734) presenta la Habermas Machine di Google DeepMind, che in piccoli gruppi nel Regno Unito supera i mediatori umani in chiarezza, equità e costruzione del consenso su Brexit, immigrazione, salario minimo, cambiamento climatico. Le metriche scelte (chiarezza dell'output, percezione di equità, consenso prodotto) misurano la qualità della sintesi, non se i partecipanti hanno formulato una posizione propria. Una macchina che batte i mediatori umani su queste tre dimensioni è coerente con un sistema ottimizzato per produrre consenso accettabile, non con uno che migliora la formazione di posizioni individuali.

Il terzo (Li & Bakker, arXiv 2026, 108.169 valutazioni di 42.521 utenti tra novembre 2025 e gennaio 2026) trova che le 1.614 note di fact-checking generate da AI sulle Community Notes di X sono valutate meglio delle 1.332 scritte da umani trasversalmente agli orientamenti politici. Il paper non è peer-reviewed, ma il dato è il più forte dei tre. Trasversalmente, cioè: gradito a destra e a sinistra, da raters orientati e da raters moderati. Una lettura è che l'AI sia effettivamente migliore nella sintesi neutra. Quella più probabile è un'altra: il gradimento trasversale di un contenuto su questioni politiche contestate è il segnale che il contenuto è stato sterilizzato fino al punto in cui nessuno si riconosce abbastanza per contestarlo.

I tre dati formano un pattern coerente: gli studi misurano la rimozione del passaggio in cui il cittadino traduce una preferenza grezza in una posizione articolata, non la qualità della deliberazione.

Chi regola e chi propone

Il manifesto Schmidt presenta il design dell'interfaccia AI come problema progettuale aperto. L'Europa ha già messo in legge alcuni dei vincoli che descrive come desiderabili. Il Digital Services Act (2022) impone trasparenza algoritmica e obblighi di audit alle piattaforme. L'AI Act (2024) classifica i sistemi ad alto rischio e vieta pratiche manipolatorie. Il regolamento eIDAS 2024/1183 introduce l'EUDI Wallet come infrastruttura pubblica di identità digitale, sottraendo l'autenticazione del cittadino ai privati.

Le regole UE non sono pure: il testo riflette compromessi industriali e l'applicazione tra Stati membri è disuguale. Sono però pubbliche per costruzione, approvate da parlamenti eletti e opponibili in tribunale. Negli Stati Uniti il quadro resta affidato a chi vende l'interfaccia. La differenza è di legittimazione, non di efficacia uniforme.

Cosa viene rimosso dal circuito

Quando un sistema riduce lo sforzo del cittadino senza preservarne la funzione, una parte della democrazia esce dal circuito. Il cittadino che riceve una sintesi invece di confrontare fonti perde il passaggio epistemico. Il cittadino che delega la formulazione a un agente perde il passaggio deliberativo. Le due perdite si sommano. Chi non formula e non confronta interagisce con la politica come si interagisce con un feed: reazione invece di posizione.

Il 12 novembre 2025 la Commissione Europea ha adottato il pacchetto sulla democrazia digitale, includendo lo scudo europeo per la democrazia. In Italia, la piattaforma firmereferendum.giustizia.it consente già di promuovere referendum e leggi di iniziativa popolare per via digitale. Sono strumenti che digitalizzano la partecipazione mantenendo l'attrito della scelta consapevole: firmare richiede un atto deliberato.

La domanda progettuale non è se usare l'AI nella democrazia. È quale tipo di fatica preservare.

La comodità è una scelta di design

L'attrito è il meccanismo che costringe le preferenze private a diventare posizioni pubbliche. Eliminarlo in nome dell'efficienza significa trasformare la democrazia in un sistema di aggregazione di preferenze pre-formate, mai testate contro posizioni diverse.

Chi progetta agenti AI per la partecipazione civica sceglie, consapevolmente o no, quanta formulazione lasciare al cittadino. Ogni passaggio rimosso è una scelta politica presentata come miglioramento tecnico. Il sistema che ne risulta è una raccolta automatizzata di preferenze grezze, in cui ciascuno trasmette quello che già pensava prima di essere costretto a pensarlo. Non sappiamo come si chiami questo, ma non è la democrazia che abbiamo scelto.

Fonti

Commenti

Solo gli iscritti possono commentare. Iscriviti gratis o accedi con la tua email.