Intelligenza artificiale
Chi sei uomo?
La delega infinita
Deresponsabilizzazione vs automazione
La delega è il naturale proseguimento logico dell’individualismo italiano: chi non si fida degli altri ma non può fare tutto da solo finisce per delegare mantenendo l’illusione del controllo. Ma la delega italiana ha assunto forme patologiche che la trasformano in deresponsabilizzazione sistemica: un infinito scaricabarile in cui nessuno è mai responsabile di nulla.
Lo scaricabarile come sistema di sopravvivenza
Il meccanismo della delega infinita in Italia funziona secondo una logica precisa: ogni livello di responsabilità delega al livello superiore la decisione, ma al livello inferiore l’esecuzione. Il risultato è che le decisioni si prendono sempre “altrove” e i problemi si risolvono sempre “da qualche altra parte”.
Max Weber, nella sua analisi della burocrazia moderna, aveva previsto i rischi di quella che chiamava “gabbia d’acciaio”: la burocratizzazione che trasforma l’azione sociale in routine priva di responsabilità personale. Ma il caso italiano presenta caratteristiche peculiari che vanno oltre la semplice burocratizzazione.
Dalle nostre parti la delega funziona secondo logiche clientelari: non si delega per efficienza, ma per protezione. Chi delega mantiene il controllo informale su chi riceve la delega, creando catene di dipendenza che attraversano tutti i livelli sociali.
In questo circo di dominio e subalternità si accumula una miriade di piccole e grandi irresponsabilità che creano disfunzioni sistemiche. Una sorta di “male banale quotidiano”, per citare Hannah Arendt, che nella “Banalità del Male” ha mostrato come la deresponsabilizzazione burocratica può avere conseguenze drammatiche.
La delega digitale: algoritmi come capri espiatori
L’avvento del digitale ha creato nuove forme di delega che amplificano quelle tradizionali. Gli algoritmi diventano i delegati perfetti: prendono decisioni al posto nostro ma esternalizzano la responsabilità: Si può sempre dire che “il sistema non funziona” o che “l’algoritmo ha sbagliato”.
Shoshana Zuboff, in “Il capitalismo della sorveglianza” (2019), ha documentato come le piattaforme digitali abbiano creato un sistema di “delega comportamentale”: deleghiamo alle macchine non solo decisioni cognitive, ma anche scelte comportamentali. Cosa comprare, cosa leggere, con chi uscire, dove andare.
Nel contesto italiano, questo fenomeno assume caratteristiche particolari. La delega agli algoritmi si innesta su una cultura della delega già consolidata, amplificandola. Non è solo comodità tecnologica, ma rinuncia consapevole all’autonomia decisionale.
Un’indagine del 2022 dell’Osservatorio Digitale Italiano ha rilevato che il 73% degli utenti italiani accetta le raccomandazioni algoritmiche senza verificarle, contro una media europea del 54%. Ma allo stesso tempo, il 68% si lamenta quando le raccomandazioni non corrispondono alle aspettative.
Il confronto con l’IA: Automazione vs automatismo
L’intelligenza artificiale ci pone di fronte alla distinzione tra automazione e automatismo. L’automazione è la delega consapevole di compiti a macchine più efficienti; l’automatismo è la perdita di controllo sui processi delegati.
L’automazione può liberare tempo e energie per attività più creative e significative. L’automatismo produce dipendenza e perdita di competenze. La differenza sta nella consapevolezza: nell’automazione so cosa sto delegando e perché; nell’automatismo delego senza sapere cosa sto perdendo.
Nel contesto italiano, c’è il rischio che l’incontro con l’IA amplifichi tendenze automatistiche già presenti. Invece di usare l’IA per aumentare le nostre capacità, rischiamo di usarla per giustificare la nostra rinuncia alle capacità.
Il filosofo della tecnologia Albert Borgmann distingue tra “device paradigm” (paradigma del dispositivo) e “focal practices” (pratiche focali). Il primo riduce la realtà a strumenti di consumo immediato; le seconde mantengono il coinvolgimento attivo e consapevole. L’IA può essere usata in entrambi i modi, ma la cultura italiana della delega spinge verso il primo.
Dall’assistenzialismo all’automazione
L’Italia ha una lunga tradizione di assistenzialismo che ha sempre camminato sul filo sottile tra solidarietà e deresponsabilizzazione. Dal paternalismo post-unitario all’assistenzialismo democristiano, dal clientelismo della Prima Repubblica ai bonus della Seconda, si è creata una cultura dell’attesa in cui i problemi si risolvono sempre attraverso interventi esterni.
Questi processi hanno subito una forte accelerazione negli ultimi decenni. Il sistema ci vuole in sospeso mentre aspettiamo o chiediamo perennemente qualcosa. Chi gestisce il potere è affamato di controllo e la certezza del controllo proviene dalla richiesta, dal bisogno, dalla supplica di protezione, dall’istanza per la soluzione.
L’introduzione delle tecnologie digitali nella pubblica amministrazione italiana rischia di riprodurre questi meccanismi su scala tecnologica. Invece di semplificare i processi rendendoli più trasparenti e responsabilizzanti, si rischia di creare nuove forme di dipendenza da sistemi automatizzati opachi.
Il piano “Italia Digitale 2026” prevede l’introduzione massiccia di IA nell’amministrazione pubblica. Ma senza un cambio di mentalità sulla responsabilità, si rischia di passare dalla delega umana alla delega algoritmica senza mai passare attraverso la responsabilizzazione.
La catena della deresponsabilizzazione
La delega italiana funziona secondo una catena che attraversa tutti i livelli sociali: il cittadino delega al politico, il politico al burocrate, il burocrate al consulente, il consulente al software, il software all’algoritmo. Ogni passaggio riduce la responsabilità e aumenta l’opacità.
Si sviluppa così, ad esempio, un sistema economico in cui la responsabilità si diluisce in catene di intermediazione così complesse che nessuno può essere chiamato a rispondere delle conseguenze. Nel contesto italiano, questo meccanismo si estende dal sistema finanziario a tutto il sistema sociale.
Il risultato è quello che il filosofo Günther Anders chiamava “dislivello prometeico”: la sproporzione tra quello che sappiamo fare (tecnicamente) e quello che sappiamo comprendere (moralmente). Possiamo costruire sistemi sempre più complessi, ma perdiamo la capacità di valutarne le conseguenze.
Un triste parametro offerto da questa disfunzionalità culturale è quello delle morti sul lavoro. Dramma sociale che non accenna ad attenuarsi e che diventa oggetto delle perversioni propagandistiche. Leggi o regolamentazioni mai potranno essere soluzione in assenza di responsabilità consapevole da entrambe le parti.
Recuperare l’agency
Il confronto con l’intelligenza artificiale ci pone di fronte a una scelta fondamentale: vogliamo mantenere quella che i filosofi chiamano “agency” – la capacità di essere agenti consapevoli delle nostre azioni – o vogliamo diventare pazienti di sistemi che agiscono per noi?
L’IA può essere uno strumento di empowerment se la usiamo per aumentare le nostre capacità di comprensione e azione. Ma può diventare uno strumento di ulteriore deresponsabilizzazione se la usiamo per evitare di confrontarci con la complessità delle scelte.
La tradizione filosofica italiana, da Gramsci a Eco, ha sempre insistito sull’importanza della consapevolezza critica. Oggi questa tradizione deve confrontarsi con macchine che possono pensare per noi.
La domanda è: vogliamo pensare con le macchine o farci pensare dalle macchine?
Stefano Pierpaoli
19 giugno 2025
Gli articoli di questa area tematica
- All Posts
- Intelligenza artificiale







