Uno degli shock collaterali della Grande Guerra fu la scoperta collettiva della propaganda come strumento di mobilitazione attraverso i mezzi di comunicazione. Scriveva Marc Bloch, a pochi anni dal ritorno dal fronte (2014, p. 107):

È tempo di aprire un’inchiesta seria sulle false notizie della guerra, perché i quattro anni terribili già si allontanano verso il passato e, prima di quanto si creda, le generazioni che li hanno vissuti cominceranno lentamente a sparire.

Tra le due Guerre Mondiali, gli Stati Uniti divennero il laboratorio della fabbrica del consenso (Lippmann, 1922), a cui lavorarono e si formarono quelli che Edward Bernays (1947) chiamò gli ingegneri del consenso.

A un secolo di distanza, fra il 2016 e il 2018, la scoperta delle fabbriche dei trolls sponsorizzate da stati, come l’Internet Research Agency (IRA) russa, e lo scandalo di Cambridge Analytica, hanno evidenziato la rinnovata attualità di alcuni di quei temi: la propaganda, divenuta computazionale, e l’uso massivo dei dati e dei saperi per orientare (o manipolare) l’opinione pubblica.

Quali sono le caratteristiche della nuova fabbrica del consenso, rispetto al “periodo classico” della propaganda e della sociologia “amministrativa”?

La fabbrica del consenso e i suoi critici

Protagonisti del “laboratorio” furono lo stesso Bernays, Harold Lasswell, George Gallup e Paul Lazarsfeld, che contribuirono alla nascita di una ricerca sociale “amministrativa” (la definì così lo stesso Lazarsfeld: 1941), e cioè organizzata con criteri burocratico-aziendali, orientata a rispondere a domande pratiche, e a produrre conoscenza utile per le istituzioni1.

A sottolineare le conseguenze dell’ethos burocratico di questo tipo di ricerca, e della dipendenza dai finanziatori, fu Charles Wright Mills, nel saggio del 1959 The Sociological Imagination. Note anche le critiche di Adorno all’uso della statistica nell’industria culturale e alla “sociologia astratta”.

Anche in Blumer (1956), la critica alla “variabile” non riguardava (solo) la quantificazione come tale, ma l’idea dell’ingegnerizzazione del consenso e di pubblico come massa indistinta, il phantom public di Lippman (Lippmann, 1925): l’apparente “oggettività” della variabile è l’artefatto che oscura i processi interpretativi che costituiscono il mondo sociale, e i temi di dibattito in quanto significativi per gli attori.

Il dibattito successivo, tra metodi quantitativi e qualitativi, che Mills avrebbe probabilmente liquidato come disputa tra cricche accademiche, ha forse oscurato il tema del rapporto fra scienze sociali e potere, e il ruolo dell’intellettuale.

Il potere dei dati: lezioni dal passato

Il ruolo delle piattaforme

I dati sono per loro natura “tecnocratici”, in quanto richiedono istituzioni specializzate per essere prodotti, organizzati e diffusi.

Se però nel Novecento la generazione, la raccolta e la diffusione dei dati era appannaggio quasi esclusivo dello Stato, delle università o istituti che svolgevano ricerca indipendente o su commissione, oggi il peso di queste istituzioni si è ridotto rispetto a quello delle piattaforme.

I nuovi (veri) “ingegneri del consenso” sono sempre più spesso data scientist e ingegneri veri e propri, che lavorano per Meta, Google, TikTok e X2.

La ricerca si è ritrovata in una posizione di dipendenza dalle piattaforme che possono cambiare le regole di accesso ai dati in qualunque momento (Venturini & Rogers, 2019).

La politica computazionale, fra l’altro, non è più quella di Cambridge Analytica: le piattaforme (e i loro proprietari) hanno assunto un ruolo ancora più centrale, in quanto, con la progressiva chiusura delle API, monetizzano su dati oramai largamente indisponibili all’esterno, offrendo campagne sulle quali anche gli stessi committenti hanno poco controllo.

I dati: dal collecting all’harvesting

Il primo aspetto che vorrei sottolineare, è che la cura del processo di ricerca, dalla definizione delle domande di ricerca alla costruzione delle variabili, che caratterizzava la “ricerca amministrativa” di Lasswell e Lazarsfeld, contrasta con gli assunti epistemologici del moderno “datismo”, o “dataismo” (Van Dijck, 2014), e le pratiche di ricerca computazionali.

Tale contrasto può ben essere rappresentato dalle espressioni usate per indicare la raccolta dei dati: data gathering (o collecting) e data harvesting. Collecting implica una attività di organizzazione intenzionale, spesso ex ante, e comunque teoricamente orientata, dei dati. Harvesting rimanda invece al “raccolto” dei dati che “si sono generati” nei processi online: tanti, veloci e non strutturati.

Le grandi survey hanno contribuito in maniera fondamentale allo sviluppo della teoria sociale, perché erano i problemi (di chiunque fossero) a guidare la ricerca, e i dati erano “costruiti” o “scelti” alla luce della teoria.

Oggi, al contrario, i dati sono raccolti in maniera automatica, e i problemi sono dettati se non da ciò che è stato raccolto, da ciò che è “raccoglibile”. Si studiano “l’engagement”, la “viralità”, i “network di utenti”, perché quelli sono i dati che vengono offerti (Venturini & Rogers, 2019), accettando l’ontologia della piattaforma, e rischiando di non cogliere la dimensione simbolica e relazionale, il contesto che sostiene convinzioni e fake news, o l’economia politica delle piattaforme che rende possibile tali processi.

Si tratta precisamente della “scelta lassista delle variabili” di Blumer (1956) o del “feticismo” di Adorno. Il passaggio a questo nuovo secolo sembra aver confermato le più pessimistiche previsioni di Mills, Blumer e Adorno.

Oltre le tecniche: scienze sociali e potere

Ridurre il dibattito da metodologico a “tecnico” (quantità / qualità ) è quindi un classico esempio di depoliticizzazione, o, nei termini di Adorno, di “mistificazione”. La questione è quella che poneva Lynd nel 1939, ovvero Knowledge for What? , che José van Dijck (2014) ripropone: “Conoscenze utili, ma per chi?”.

Si possono usare i big data per decostruire i processi delle piattaforme, mentre sappiamo che la propaganda computazionale più efficace combina l’automazione con l’“osservazione partecipante”: i trolls, in fondo, fanno etnografia delle reti sociali, per potersi meglio inserire nelle comunità e nelle culture presenti online, e creare e diffondere contenuti disinformativi efficaci.

La differenza, per riprendere ancora Mills, sta tutta nel “tipo di praticità” a cui vengono messi al servizio tecniche e saperi: la “praticità illiberale” che ingegnerizza il consenso, o la “praticità liberale” di strumenti per comprendere e discutere liberamente, che era poi l’idea di pubblico e democrazia che Blumer difendeva con la sua critica alla variabile.

PDF del paper presentato il 3 luglio 2025.

Riferimenti bibliografici

Bernays, E. L. (1947). The Engineering of Consent. The Annals of the American Academy of Political and Social Science, 250(1), 113–120. https://doi.org/10.1177/000271624725000116

Bloch, M. (2014). La guerra e le false notizie. Ricordi e riflessioni. Fazi.

Blumer, H. (1956). Sociological analysis and the" variable". American Sociological Review, 21(6), 683–690.

Deleuze, G. (1992). Postscript on the Societies of Control. October, 59(Winter), 3–7.

Lazarsfeld, P. F. (1941). Remarks on Administrative and Critical Communications Research. Zeitschrift für Sozialforschung, 9(1), 2–16.

Lippmann, W. (1922). Public Opinion. Harcourt, Brace.

Lippmann, W. (1925). The Phantom Public. Transaction Publishers.

Mills, C. W. (1995). L’immaginazione sociologica. Il Saggiatore.

Rouvroy, A. (2016). La governamentalità algoritmica: Radicalizzazione e strategia immunitaria del capitalismo e del neoliberalismo? La Deleuziana, 3, 31–36.

Van Dijck, J. (2014). Datafication, Dataism and Dataveillance: Big Data between Scientific Paradigm and Ideology. Surveillance & Society, 12(2), 197–208.

Venturini, T., & Rogers, R. (2019). “API-Based Research” or How can Digital Sociology and Journalism Studies Learn from the Facebook and Cambridge Analytica Data Breach. Digital Journalism, 7(4), 532–540. https://doi.org/10.1080/21670811.2019.1591927


  1. Una curiosità: l’espressione “fabbrica del consenso”, coniata da Walter Lippman, è stata resa famosa dall’omonimo saggio di Chomsky e Herman, pubblicato originariamente nel 1988. ↩︎

  2. Questo passaggio può essere letto nel quadro della transizione dalle società disciplinari a quelle di “controllo” (Deleuze, 1992); sulla governamentalità algoritmica, si veda anche Rouvroy (2016). ↩︎