Chiunque si occupi seriamente di conoscenza —quella rigorosa, intesa come percorso faticoso, critico, razionale e non come consumo d’informazioni preformattate— non può osservare con leggerezza il passaggio epocale che stiamo vivendo. La transizione dalla ricerca attiva tramite browser alla risposta sintetica mediata da un Large Language Model (LLM) non è un’evoluzione naturale, ma una mutazione sistemica.
In ambito domestico, le ricerche più utili e quotidiane sono da sempre quelle pratiche —come le ricette di cucina— per cui il browser aveva sostituito da tempo il vecchio quaderno scritto a mano della nonna. Oggi, anche questa intermediazione scompare: l’utente non cerca più tra le pagine, ma si affida a una risposta unica, immediata, elaborata da un modello predittivo. La conoscenza diventa un raviolo al vapore: sigillata, pronta da ingerire, ma opaca nei suoi ingredienti. Seducente nella forma, ma inaccessibile nella genesi.
Non è solo questione di accuratezza o di bias: è l’architettura epistemica che sta cambiando. Il modo in cui l’umanità costruisce, trasmette, verifica e condivide la conoscenza.
L’ispirazione a scrivere questo articolo mi è venuta durante un pranzo, in apparenza banale, con un giovane interlocutore —un ragazzetto convinto di poter partecipare a una conversazione filosofica e astratta interrogando compulsivamente un’AI dal telefonino nascosto sotto il tavolo. Mentre un adulto consapevole stava elaborando pensieri complessi con il tempo e il rigore che il pensiero richiede, lui interrompeva con dati estrapolati all’istante, senza alcuna digestione intellettuale. Voleva “dire la sua”, ma lo faceva senza un vero processo critico, tentando di sovrapporre all’argomentazione un flusso di pseudo-conoscenze generate altrove. Il risultato era una distopia che, a tratti, rasentava la perfetta imbecillità —non per mancanza di intelligenza, ma per assenza di relazione tra le idee, di connessioni sinaptiche costruite nel tempo. Più si sentiva inascoltato, più il suo umore si incupiva, fino a diventare quasi idrofobo, rabbioso. Cosa gli stava succedendo? Cosa sta accadendo, più in generale, a una generazione che nasce nativa digitale ma rischia di diventare ostaggio del linguaggio preconfezionato dei modelli generativi? Di cosa avrebbe avuto bisogno per non trasformarsi egli stesso in un’estensione del dispositivo che lo stava usando —e che lui credeva di usare? Questa domanda mi risuona ancora nella mente.
Il tramonto della ricerca come atto umano
Per trent’anni, l’interazione con il sapere digitale è passata attraverso il browser. La sua natura imperfetta e asincrona, per quanto lenta, imponeva all’utente un comportamento cognitivo attivo: scegliere fonti, discernere voci, confrontare contenuti. Era, in un certo senso, un atto di libertà e responsabilità. Oggi, con l’integrazione profonda degli LLM nelle esperienze informative quotidiane —da Perplexity a ChatGPT, da Gemini a Copilot Web— questa pluralità si contrae. Il motore semantico non suggerisce più link, ma pronuncia una risposta. Apparentemente esaustiva, apparentemente naturale. Ma, in realtà, derivata da un modello matematico stocastico, allenato su corpus opachi e ottimizzato per piacere, più che per dimostrare.
Non abbiamo più il diritto di scegliere: ciò che leggiamo è ciò che ci viene proposto da una macchina che ha appreso come rispondere, non perché rispondere. Il paradigma della domanda aperta viene sostituito da quello della risposta chiusa. Ed è qui il cuore del problema.
L’antico spettro del monoteismo informativo
La storia della conoscenza non è nuova a questi passaggi critici. Dopo la caduta dell’Impero Romano, nei lunghi secoli medievali, la verità veniva amministrata da pochi. I testi venivano copiati a mano dai monaci, modificati, censurati, adattati per soddisfare i dettami dei poteri religiosi e monarchici. L’interpretazione era riservata agli “eruditi”, l’accesso al sapere era filtrato, il popolo si affidava a ciò che vedeva nei dipinti: un’immagine, un dogma.
Oggi siamo di fronte a un analogo pericolo. Solo che il monastero è ora un data center, e lo scriba è un modello autoregressivo. E il potere che orienta non è più quello spirituale, ma quello economico. L’addestramento dei modelli è condizionato da ciò che è disponibile —e da ciò che è stato escluso. La scelta non è neutra. Chi finanzia, chi controlla le pipeline di addestramento, chi definisce i parametri etici e semantici, plasma il risultato. Il rischio? Una nuova teocrazia dell’algoritmo.
https://www.youtube.com/watch?v=tIb0OUrJf4I
L’illusione dell’accesso universale
Possiamo pensare che l’AI democratizzi la conoscenza. È una mezza verità. Se da un lato l’accesso si fa più rapido, più inclusivo (si può porre una domanda in qualsiasi lingua, a qualsiasi ora, e ricevere una risposta plausibile), dall’altro lato si verifica una profonda erosione dell’atto critico. Non cerchiamo più. Non valutiamo più le fonti. Ci limitiamo a “chiedere” —e ad “accettare”. Come se ci fossimo dimenticati che il cuore della conoscenza non è ricevere risposte, ma formulare domande.
È qui che la società civile democratica dovrebbe alzare il sopracciglio. Perché senza alfabetizzazione epistemica, senza capacità di comprendere i limiti strutturali di questi modelli, senza trasparenza sulle fonti, non si è davanti a uno strumento, ma a un oracolo.
Verso una nuova etica algoritmica o una nuova Inquisizione?
I sistemi attuali sono ancora basati su machine learning stocastico, ossia modelli che apprendono correlazioni, non causalità. La macchina non “capisce”, ma “predice”. Il suo scopo non è la verità, ma la probabilità. Continuare a chiamarla intelligenza può portarci fuori strada. È tempo di ripensare il paradigma. Superare l’ideologia dell’apprendimento passivo e verso un’epistemologia computazionale trasparente, verificabile, e pluralista.
Dobbiamo evitare che questa nuova infrastruttura cognitiva diventi una riedizione digitale delle cattedrali medievali, dove l’informazione è centralizzata, sacralizzata, inaccessibile, e la massa viene sedotta da risposte meravigliosamente… false.
Conclusione: serve un Rinascimento dell’informazione
Il vero compito di chi ama la conoscenza oggi non è esaltare l’AI come strumento magico, ma interrogarla. Chiederci: chi genera, chi decide, chi filtra? Quali sono le metriche? Quali gli interessi? Dove finisce l’efficienza e comincia la manipolazione?
Infine, vale la pena chiedersi: questa società più assistita, più informata, più automatizzata… è davvero più felice? Più ricca? Più equa? O stiamo solo affidando le chiavi della nostra coscienza collettiva a un nuovo tipo di clero, questa volta fatto di data scientist, investitori e policy maker?
È il momento di scegliere: o diventiamo cittadini della conoscenza, oppure torniamo sudditi del sapere altrui.
LE FONTI
Fonti accademiche e teoriche sulla conoscenza e l’epistemologia digitale
Neil Postman – Technopoly: The Surrender of Culture to Technology (1992)
Riflessione critica sul modo in cui le tecnologie determinano la cultura e il sapere, utile per comprendere il ruolo sociale della mediazione tecnica.
Shoshana Zuboff – The Age of Surveillance Capitalism (2019)
Fondamentale per il concetto di “economia dell’informazione” e su come gli algoritmi e le AI siano influenzati da logiche economiche e di potere.
Nicholas Carr – The Shallows: What the Internet Is Doing to Our Brains (2010)
Descrive come il browser e l’esperienza digitale abbiano modificato la nostra attenzione e la costruzione del sapere.
James Bridle – New Dark Age: Technology and the End of the Future (2018)
Approfondisce la crisi della conoscenza e la delega della verità agli algoritmi.
Fonti sul funzionamento e le implicazioni degli LLM (Large Language Models)
OpenAI Technical Reports (es. GPT-4 Technical Report, 2023)
Documentazione ufficiale sulla costruzione e i limiti degli LLM, inclusi bias, allucinazioni e comportamento stocastico.
Bender, Gebru et al. – “On the Dangers of Stochastic Parrots” (FAccT 2021)
Paper accademico fondamentale per comprendere i rischi di LLM che generano linguaggio senza comprensione reale.
Timnit Gebru – Ricerca sull’etica dell’AI e l’impatto sociale degli LLM
Ha sottolineato l’opacità e la concentrazione di potere nei sistemi AI.
Fonti storiche e paralleli culturali
Umberto Eco – Il nome della rosa e le riflessioni sui monaci copisti e il controllo del sapere nel Medioevo
Utilizzato metaforicamente per riflettere sul controllo e la mediazione del sapere oggi.
Marshall McLuhan – Understanding Media (1964)
Il medium come messaggio: utile per analizzare la transizione dall’interfaccia (GUI) al dialogo linguistico con le AI.
Fonti attuali su AI, browser e interfacce
Articoli di riferimento su Perplexity, Copilot Web, Gemini, Alexa GenAI (2023–2025)
TechCrunch, Wired, MIT Technology Review
Annunci ufficiali di Microsoft, OpenAI, Google
Studi su SEO e GenAI SEO (Search Engine Optimization nell’era AI)
Moz Blog, Search Engine Journal
Rapporti di settore 2024–2025 su come gli LLM alterano la visibilità delle fonti e dei contenuti web.
Fonti e riflessioni sulla democrazia e il potere nella conoscenza
Jürgen Habermas – Teoria dell’agire comunicativo
Importante per la distinzione tra comunicazione orientata al consenso e alla manipolazione.
Noam Chomsky – Interventi critici su AI, linguaggio e conoscenza
Ha messo in guardia sull’uso dell’AI come sostituto non cosciente della mente umana.
UNESCO – Recommendation on the Ethics of Artificial Intelligence (2021)
Un documento guida sul ruolo delle AI in relazione ai diritti umani e alla trasparenza.

