Editoriali

Oltre l'efficienza

La battaglia per il significato nell'era algoritmica

Come stiamo perdendo la capacità di pensare (e perché nessuno se ne accorge)

Qualcuno si è chiesto dove siano finiti i pensatori? Non i commentatori, non gli influencer, non i tuttologi da rotocalco. I pensatori. Quelli capaci di tenere insieme un ragionamento per più di tre capoversi senza cedere alla tentazione del tweet definitivo. Quelli che sanno ancora cosa significhi dubitare invece di scrollare.
Non li troverete. Si sono estinti. E non solo per colpa loro.

Sta accadendo qualcosa di più radicale di una crisi economica o di un cambio di regime politico. Sta avanzando un’espropriazione che non ha bisogno di carri armati né di leggi liberticide. Un’espropriazione che apparentemente non toglie nulla ma in realtà svuota tutto. Ci stanno derubando della facoltà di pensare autonomamente. E noi paghiamo l’abbonamento per farci derubare.

Il paradosso è perfetto: le tecnologie che promettevano di democratizzare la conoscenza hanno concentrato il potere di decidere cosa significhi sapere. L’intelligenza artificiale che doveva liberarci dalla fatica cognitiva sta atrofizzando la nostra capacità di ragionare. L’efficienza che guadagniamo la paghiamo in libertà. Ma siccome la transazione è invisibile, nessuno protesta. Anzi, molti applaudono.

Il nuovo dominio

Abbiamo smesso di produrre. Ora controlliamo. È questo il grande spostamento del post-capitalismo contemporaneo, la mutazione che rende obsolete tutte le categorie del Novecento. Non conta più chi fabbrica smartphone o scrive software. Conta chi controlla l’accesso: ai chip, all’energia, ai dati, alla capacità computazionale.
Guardate i numeri. La crescita globale ristagna attorno al 3%, trainata da pochi settori ad altissima concentrazione di capitale. La liquidità abbonda ma non trova sbocchi reali. La produttività cresce “a macchie di leopardo”: qualche enclave ipertecnologica circondata da deserti produttivi.

È un sistema economico che amministra inerzia e non genera mobilità. Un immenso apparato che ha smesso di espandersi e ha iniziato a estrarre rendite da posizioni di monopolio.
L’intelligenza artificiale è l’apice di questa logica. Nata, si diceva, per democratizzare il sapere, sta producendo l’opposto: una gerarchia di accesso dove chi controlla l’infrastruttura decide chi può innovare e chi no. Serve energia per addestrare i modelli. Serve calcolo per farli funzionare. Serve capitale per comprare entrambi. Il risultato? Poche aziende, in pochi paesi, concentrano un potere che nessun impero del passato ha mai conosciuto. Un potere che non si esercita con la forza ma con la necessità: se vuoi esistere nell’economia digitale, devi passare da loro.

E qui sta il punto. Non è solo una questione di dollari o di brevetti. È che quell’infrastruttura in cui cavi, data center, algoritmi non sono neutrali. Incorporano scelte. Definiscono cosa è visibile e cosa no, cosa è possibile e cosa no, cosa ha senso e cosa no. Chi controlla l’infrastruttura controlla le condizioni stesse del pensabile.
La geopolitica lo ha capito prima della filosofia. Gli Stati Uniti e la Cina non si fanno la guerra per i mercati. Si contendono l’egemonia computazionale. Chi controlla la capacità di calcolo controlla la traiettoria dell’innovazione e quindi il futuro. Per questo il mondo si sta spezzando in blocchi non cooperativi, duplicando filiere tecnologiche a costi folli pur di mantenere la sovranità. La sicurezza, dicono, prevale sull’efficienza. In realtà, prevale la paura di restare tagliati fuori dall’infrastruttura del dominio.

Ma noi, cittadini comuni, utenti finali, consumatori paganti, dove stiamo in questo gioco? Ci hanno detto che avremo accesso illimitato alla conoscenza. Ci hanno dato la possibilità di scegliere tra dieci risultati preselezionati da un algoritmo che non capiamo. Ci ripetono che saremo più liberi. Ci hanno dato la libertà di cliccare su “accetto” senza dover leggere.

La cattura del significato

Ora però dobbiamo scendere più in profondità. Perché l’espropriazione non è solo materiale. Non è solo questione di chi possiede i server o detiene i brevetti. È che insieme al controllo dell’infrastruttura tecnologica si sta concentrando qualcosa di più sottile e insieme più decisivo: il controllo della nostra capacità di generare significato.

Chiamiamolo come vogliamo: capitale simbolico, patrimonio semantico, risorse cognitive. Il punto è che gli esseri umani non vivono solo nel mondo fisico. Viviamo in universi di senso. Siamo animali che interrogano, che negano, che immaginano. 

Un gatto vede una ciotola, un umano vede un oggetto con una storia, un valore, un’estetica, una funzione che può essere messa in discussione. Questa distanza tra il dato e il significato è ciò che ci rende umani. E questa distanza sta collassando.
Pensate a come leggiamo oggi. Scorriamo. Scansioniamo. Cerchiamo keyword. Il testo non è più qualcosa da attraversare, è qualcosa da estrarre. Non meditiamo le idee, le consumiamo. E poi? Poi chiediamo a una macchina di riassumercele. Perché dovremmo sforzarci quando c’è un sistema che lo fa meglio, più veloce, senza fatica?

Eccolo, il cortocircuito. La macchina non sta sostituendo il nostro lavoro fisico. Sta sostituendo il nostro lavoro di pensiero. E noi stiamo delegando volentieri. Perché chi ha più tempo? Chi ha più energie? Chi ha ancora voglia di annoiarsi dentro un ragionamento complesso quando può avere la sintesi in tre secondi?
Ma quella sintesi non è neutra. È già una scelta. È già un’interpretazione. È già un punto di vista incorporato nell’algoritmo. E noi, senza accorgercene, stiamo perdendo la “grana fine” del significato. Quella sensibilità che ci permette di distinguere una sfumatura da un’altra, un contesto da un altro, un’intenzione da un’altra. Stiamo diventando analfabeti del senso.

È uno scenario che già occupa la contemporaneità. Le nuove generazioni rischiano di crescere in ambienti dove la distinzione tra significato generato umanamente e output algoritmico sarà sempre più sfumata. Non è che non sappiano distinguere perché (non sempre e non bene) insegniamo loro a distinguere. Il problema è che si sta perdendo la sensibilità per il processo stesso del significare. Per quale motivo dovrebbero chiedersi perché il mondo sia così? Basta domandarlo a Google. Non si nega più il presente. Si accetta il suggerito. L’individuato. Il selezionato.

C’era un tempo in cui educare significava tramandare un patrimonio culturale. Poi si è trasformato in un trasmettere competenze. Ora rischia di ridursi al semplice affidare la capacità di interfacciarsi con sistemi che pensano al posto nostro. La scuola del futuro, quella che già esiste in molti luoghi, forma utenti, non pensatori. Forma consumatori di output, non generatori di domande.

E qui emerge l’asimmetria definitiva. Un tempo si parlava di asimmetria informativa: chi ha i dati ha il potere. Oggi siamo oltre. L’asimmetria è semantica: chi ha l’infrastruttura computazionale ha il potere di definire cosa significhi conoscere, capire, sapere. Non è solo che alcuni sanno più di altri. È che alcuni possono ancora pensare autonomamente, mentre altri possono solo scegliere tra opzioni preconfezionate.

La trappola del tempo

C’è un’altra fregatura in questa storia: il tempo.
Non nel senso che ci manca. Il tempo c’è, eccome. Ventiquattro ore al giorno, come sempre. Il problema è che ce l’hanno trasformato in qualcos’altro. In una corsa dove l’unica regola è non fermarsi mai.
Proviamo a fare questo esperimento: osserviamo Mario Rossi mentre apre un articolo lungo. Più di mille parole. Prova a leggerlo tutto, senza interrompersi. Senza controllare le notifiche. Senza aprire un’altra scheda. Senza “salvare per dopo” (che significa mai). Quanto ci metterà prima di cedere? Due minuti? Tre?

Non è colpa sua. Mario Rossi è stato addestrato a un altro tipo di tempo. Quello fatto di refresh continui, di scroll infinito, di contenuti che si consumano in secondi. Il tempo digitale non ha pause. Non ha respiro. È un flusso che ti trascina e se ti fermi sei già vecchio.

E qui sta il trucco. Pensare richiede fermarsi. Richiede annoiarsi. Richiede stare dentro un problema senza avere subito la soluzione. Ma chi ha più il coraggio di annoiarsi? Chi accetta più l’incertezza di non capire subito? Abbiamo la risposta a portata di click. Perché dovremmo tribolare?
Il risultato è che viviamo in un eterno presente dove tutto è urgente e niente è importante. Dove rispondiamo prima di aver pensato. Dove il like sostituisce il giudizio. Dove la reazione conta più della riflessione.

Non è velocità. È azzeramento. Del dubbio, della distanza, della possibilità stessa di mettere in discussione. Perché per dubitare serve tempo. E tempo è esattamente quello che non ci danno.

L’illusione della scelta

Qualcuno dirà: ma io scelgo. Scelgo quale motore di ricerca usare, quale social frequentare, quale assistente virtuale consultare. Certo. Come si sceglie tra dieci marche di dentifricio nello scaffale del supermercato. La libertà del consumatore. L’illusione perfetta.

La vera scelta non è tra prodotti. La vera scelta è tra architetture. E le architetture le progettano altri. Quelle interfacce, quei menu, quegli algoritmi di raccomandazione non sono neutrali. Ogni click è già guidato. Ogni percorso è già tracciato. 

Ti danno l’impressione di navigare liberamente, ma stai seguendo binari invisibili progettati da qualcun altro per scopi che non sono i tuoi.
Questo è il neoliberismo delle piattaforme. Niente più prodotti, beni e nemmeno lavoratori. Il post-capitalismo vende accessi, gestisce flussi, estrae valore da utenti che lavorano gratis. E soprattutto: non lascia alternative. Prova a vivere senza Google, senza Amazon, senza le app che “tutti usano”. Puoi farlo, tecnicamente. Ma praticamente? Praticamente sei tagliato fuori.
Questa è la nuova forma di potere che all’apparenza non obbliga, non vieta né censura. Ma ci rende dipendenti e manipolabili. Guidati da un potere che non si vede, che non si nomina, che non si combatte. È un potere infrastrutturale impossibile da contrastare con le categorie del Novecento.
Il bello, si fa per dire, è che questo potere si presenta come servizio. Ti aiuta. Ti semplifica la vita. Ti risparmia fatica. Come potresti opporti? Sarebbe come opporsi all’elettricità o all’acqua corrente. Eppure quella “comodità” ha un prezzo. E il prezzo non è solo la privacy o i dati. Il prezzo è l’autonomia. La capacità di fare da soli. La possibilità di scegliere davvero.

Cosa ci resta?

Arriviamo al punto. Cosa rende umano l’umano quando le macchine fanno tutto meglio di noi? Non è una domanda filosofica né un cavillo da salotto. È la domanda politica del nostro tempo.
La risposta non può essere: “siamo più creativi”. Le macchine generano arte. Non può essere: siamo più intelligenti. Le macchine ci battono in quasi tutti i test cognitivi. Non può essere: siamo più veloci. Questo è ovvio.
Allora cosa? La risposta classica è: abbiamo l’anima, abbiamo i sentimenti, abbiamo la coscienza. Bellissimo. Ma concretamente?

Concretamente, abbiamo qualcosa di più banale e insieme più decisivo: sbagliamo. Ci contraddiciamo. Cambiamo idea. Ci dimentichiamo le cose. Ci innamoriamo di idee e persone (aaaagh!) sbagliate. Ci intestardiamo per motivi che nemmeno noi capiamo.

Tutta questa “imperfezione” non è un limite da celebrare. È il punto di partenza. È da lì che impariamo davvero. L’errore non è il traguardo, è la porta d’ingresso verso il sapere meglio. Perché pensare non è processare dati in modo efficiente. È confrontarsi con l’incertezza. È vagare per poi trovare. È fare domande che non hanno risposta immediata. È sopportare di non sapere per arrivare a capire.

Le macchine non sbagliano in questo senso. Danno risposte sbagliate, certo. Ma non dubitano. Non esitano. Non attraversano l’errore per il desiderio di uscirne trasformate. E proprio per questo non scoprono niente che non sia già nella loro programmazione.

Ma ecco il punto dolente. Se noi smettiamo di esercitare questa capacità – di sbagliare per imparare, di dubitare per comprendere, di perderci per trovare – quella capacità si atrofizza e si spegne. Non è come andare in bicicletta, che una volta imparato non lo dimentichi più. È come suonare uno strumento: se non pratichi, perdi la mano. E noi pratichiamo davvero poco. Perché dovremmo sforzarci quando c’è un sistema che ci dà subito la risposta giusta?

È così che svanisce la potenza della domanda. È così che scompare la critica. È così che è morta la politica e siamo rimasti con amministratori burocrati che si muovono pilotati, nell’ombra, dai veri dominanti.

Eccoci al nocciolo: l’espropriazione della capacità di pensare autonomamente è anche espropriazione della capacità di fare politica. Non nel senso banale di votare o manifestare. Nel senso profondo di immaginare un mondo diverso da questo. Se il pensabile è definito dall’algoritmo, il possibile è definito dal sistema. E il sistema non vuole cambiare. Vuole ottimizzarsi.

 

Resistenze possibili

Che fare, allora? Tornare indietro? Impossibile. Rifiutare la tecnologia? Infantile. Il punto non è demonizzare l’intelligenza artificiale o le piattaforme digitali. Il punto è riprendere il controllo delle loro architetture.

Primo: serve una battaglia per i beni comuni digitali. Calcolo pubblico, dati pubblici, algoritmi trasparenti. Se l’infrastruttura resta privata, la libertà è illusione. Questo non significa statalizzare tutto. Significa costruire spazi pubblici nel digitale come abbiamo costruito biblioteche, scuole, ospedali nel fisico. Significa che l’accesso alla capacità computazionale non può essere merce. È condizione di cittadinanza.

Secondo: serve una pedagogia radicalmente diversa. Non insegnare a usare i tool. Insegnare a pensare con e contro i tool. Formare persone capaci di interrogare gli algoritmi, non solo di utilizzarli. Persone che sappiano leggere criticamente un output di AI come oggi potremmo leggere criticamente (se lo leggessimo) un articolo di giornale. Persone che mantengano viva la capacità di annoiarsi, di perdersi, di sbagliare. Perché l’errore è umano non in senso negativo. È umano perché è il luogo della scoperta e della crescita individuale.

Terzo: serve rallentare. Consapevolmente, politicamente. Opporsi all’accelerazione non per nostalgia ma per necessità. Difendere il tempo qualitativo come si difende uno spazio pubblico dall’edificazione selvaggia. Creare zone franche dall’ottimizzazione. Momenti in cui il tempo non è produttivo né misurabile. Momenti in cui si può semplicemente pensare.

Quarto: serve immaginare democrazie algoritmiche. Se gli algoritmi plasmano le nostre vite, dobbiamo avere voce su come sono progettati. Non basta la trasparenza. Serve partecipazione. Serve che i cittadini possano decidere: quali valori incorporare nei sistemi? Quali priorità? Quali limiti? L’algoritmo non è neutro. È politica cristallizzata in codice. E la politica deve restare democratica.

Quinto: serve costruire architetture di libertà. Progettare sistemi che non guidano ma abilitano. Interfacce che non condizionano ma aprono. Piattaforme che non estraggono ma facilitano. Questo è possibile. È una scelta di design. Ma è anche una scelta di potere. E chi ha il potere oggi non ha interesse a cederne.

L’urgenza

Tutto questo suona forse utopico. Forse ingenuo. Chi può opporsi ai giganti della tecnologia? Chi può rallentare la corsa dell’innovazione? Chi può pretendere di riprogettare il sistema?

Ecco la verità scomoda: o noi o nessuno. Perché il sistema non si autocorregge. Il mercato non trova equilibri. Il capitale non redistribuisce spontaneamente. La tecnologia non si umanizza da sola. Servono scelte. Serve conflitto. Serve politica.

E serve ora. Tra dieci anni sarà troppo tardi. Non perché arriverà la singolarità o perché le macchine si ribelleranno. Molto più banalmente: perché una generazione cresciuta senza aver mai sperimentato il pensiero autonomo non saprà nemmeno cosa si è perso. Non protesterà. Non resisterà. Accetterà.

L’espropriazione più completa è quella che non viene percepita come tale. Quella che sembra un servizio, un progresso, una liberazione. Quella che ti convince che delegare sia saggio, che ottimizzare sia necessario, che accelerare sia inevitabile.

Ma non è vero. Niente di tutto questo è inevitabile. Sono scelte. Incorporate in codice, cristallizzate in infrastrutture, naturalizzate da un discorso che ci dice: così va il mondo. Ma il mondo non va da nessuna parte. Siamo noi che lo spingiamo. E possiamo spingere altrove.

Torniamo alla domanda iniziale

Dove sono finiti i pensatori?
Non si sono estinti. Si sono arresi o sono stati neutralizzati. Magari, in molti hanno accettato l’idea che pensare sia inefficiente. Che dubitare sia un lusso. Che interrogare sia perdere tempo. Hanno ceduto al ricatto dell’accelerazione: o stai al passo o resti indietro.

Ma forse restare indietro, oggi, è l’unica forma di avanguardia. Forse rallentare è l’unico modo per vedere dove stiamo andando. Forse opporsi all’efficienza è l’unico modo per rimanere liberi.

La battaglia per i beni comuni digitali è la battaglia per i beni comuni del pensiero. Senza sovranità sull’infrastruttura non c’è autonomia cognitiva. Senza autonomia cognitiva non c’è libertà. E senza libertà non siamo umani. Siamo utenti.

La scelta è ora. E la scelta siamo noi. Ancora.

Stefano Pierpaoli
22 novembre 2025

Stefano Pierpaoli

IL FUTURO PILOTATO
Il potere contemporaneo tra algoritmi e oligarchie

“Il Futuro Pilotato” è il risultato di anni di osservazione critica dei processi contemporanei. Un’analisi interdisciplinare che connette ciò che viene solitamente trattato in modo frammentario: dalla geopolitica dell’interdipendenza al dominio algoritmico, dalle oligarchie finanziarie all’erosione democratica. In uscita a novembre 2025

Mario Pascale Editore • Novembre 2025

Ultimi articoli pubblicati

Iscriviti
Notificami
guest

0 Commenti
Meno recenti
Più recenti Most Voted
Inline Feedbacks
View all comments