Gli schermi non uccidono la lettura: il problema è come sono progettate le piattaforme

L’errata interpretazione dell’impatto digitale sulla lettura

Chi continua a ripetere che gli schermi stanno distruggendo la lettura spesso parte da un’intuizione reale e arriva alla conclusione sbagliata. È vero che oggi concentrarsi è più difficile. È vero che leggere con continuità, senza interruzioni, per molti è diventato più faticoso. Ma da qui a dire che il problema sia il digitale in quanto tale, si rischia di fare un salto che non regge.

La tesi di Carlo Iacono, bibliotecario alla Charles Sturt University in Australia, parte proprio da qui. Secondo lui stiamo attribuendo agli schermi una colpa che appartiene soprattutto agli ambienti costruiti intorno agli schermi. Lo stesso dispositivo può ospitare Shakespeare, un saggio, un archivio, una lezione universitaria. Può anche ospitare notifiche continue, contenuti pensati per provocare reazioni immediate, scorrimento infinito e una gara permanente per rubare qualche secondo in più della nostra attenzione. Mettere tutto nello stesso sacco è un errore.

La differenza tra carta e display non è nei supporti

Il punto, allora, non è “carta contro display”. Il punto è capire che cosa un ambiente ci chiede di fare e in che modo ci abitua a farlo. Un social progettato per tenerci agganciati non assomiglia a un ebook solo perché entrambi passano da uno schermo. Cambia la logica, il ritmo e il tipo di rapporto che si instaura con ciò che abbiamo davanti.

Iacono osserva una cosa che vale la pena prendere sul serio: molte persone che non riescono a stare dentro un romanzo per mezz’ora sanno dedicare ore a un documentario storico, a un videogioco complesso, a una lezione ascoltata in cuffia, a una discussione molto densa. Questo non vuol dire che tutto si equivalga. Vuol dire, però, che l’attenzione non è evaporata. Spesso si è solo spostata altrove, o trova canali più adatti a certe persone e a certe situazioni.

La responsabilità delle scelte industriali sulla frammentazione dell’attenzione

Qui entra in scena un tema che l’articolo mette bene a fuoco: la frammentazione non cade dal cielo. Questa è il risultato di precise scelte industriali: notifiche, premi intermittenti, scroll senza fine, interfacce fatte per richiamarci ogni pochi minuti sono meccanismi costruiti per trattenere utenti, raccogliere dati, vendere pubblicità. Quando si parla di crisi della concentrazione, sarebbe utile ricordare questo.

Da questa osservazione nasce anche una conseguenza meno ovvia. Se il problema è progettuale, non possiamo continuare a leggerlo soltanto come una debolezza individuale. Molti vivono la difficoltà di concentrarsi come una colpa privata: pensano di essere diventati pigri, distratti, incapaci di leggere come un tempo. In diversi casi, invece, stanno soltanto provando a compiere un lavoro che chiede continuità mentale dentro spazi organizzati per impedire proprio quella continuità.

Diversità nell’apprendimento: oltre il testo scritto

Per questo Iacono insiste sui “contenitori per l’attenzione”. L’espressione è utile perché sposta il discorso dalla morale all’organizzazione concreta della vita quotidiana. C’è chi legge meglio lasciando il telefono in un’altra stanza. C’è chi capisce di più ascoltando un podcast mentre cammina e poi annotando qualche idea al rientro. C’è chi ha bisogno del silenzio fisico del libro stampato. C’è chi entra davvero in un argomento solo passando da audio, testo, immagini e confronto con altri.

Un altro passaggio centrale riguarda l’apprendimento. Per molto tempo la cultura scolastica ha considerato il testo scritto come il canale più nobile e, spesso, il solo davvero legittimo. Tutto il resto veniva dopo. Iacono ribalta questa gerarchia rigida. Non dice che l’audio sia meglio della pagina, né che il video debba sostituire i libri. Dice una cosa più semplice: non tutti elaborano il linguaggio e la conoscenza nello stesso modo. Ci sono persone che con un audiolibro comprendono benissimo un contenuto che sulla carta restava opaco. Ce ne sono altre che hanno bisogno di parlare, muoversi, fare schemi, ascoltare e poi tornare sul testo.

Il rischio del fatalismo nella percezione delle piattaforme digitali

L’articolo prende posizione anche contro un certo tono da tramonto della civiltà. È una parte molto netta, e a ragione. Chi denuncia il potere delle grandi piattaforme ma poi conclude che “ormai è andata” finisce, di fatto, per fare un favore proprio a quel potere. Il fatalismo diventa una resa mascherata da lucidità. Se diciamo che il degrado dell’attenzione è il prezzo inevitabile del progresso, stiamo togliendo dal tavolo la questione politica, educativa e progettuale. Stiamo accettando come naturale ciò che invece è stato costruito.

Progettare ambienti che favoriscano la concentrazione

La via d’uscita, allora, non passa dalla nostalgia per una presunta età dell’oro della lettura pura, tutta silenzio e profondità. Passa da una domanda diversa: come si progettano ambienti che aiutino il pensiero invece di sabotarli? Come si costruiscono strumenti capaci di distinguere tra il tempo dello scorrimento rapido e il tempo della concentrazione? Come si insegna a passare da una modalità all’altra senza perdersi?

il ruolo delle biblioteche nel contesto moderno

In questo quadro la biblioteca torna a essere un’immagine forte. La sala di lettura resta importante, ma accanto possono esserci spazi per l’ascolto, per la registrazione, per il lavoro condiviso, per la visualizzazione delle idee. Può essere un tentativo di dare alla cultura strumenti adatti al presente senza consegnarla al rumore di fondo delle piattaforme.

La domanda finale, in fondo, è semplice: vogliamo un ecosistema che favorisca comprensione, memoria e giudizio, oppure uno che viva di interruzione permanente? La differenza sta nelle regole, nei ritmi, nelle infrastrutture e nelle abitudini che scegliamo di rendere normali.

Claude, ChatGPT e AI militare: cosa sta succedendo tra Anthropic, OpenAI e il Pentagono

Claude supera ChatGPT negli Stati Uniti

Negli Stati Uniti, per la prima volta, l’app di Claude ha superato ChatGPT nei download su smartphone. Il dato arriva dopo una settimana segnata da una polemica politica e militare: Anthropic, l’azienda che sviluppa Claude, ha rifiutato alcune condizioni poste dal Pentagono. In parallelo si è diffusa l’idea che Claude rappresenti una scelta “pacifista”. Anche in Italia sono aumentati gli utenti di Claude mentre, nello stesso periodo, le disinstallazioni di ChatGPT sono cresciute.

Reazione politica e simbolismi legati a Claude

Per una parte del pubblico usare Claude è diventato un gesto “simbolico”: un modo per prendere le distanze dall’impiego militare dell’intelligenza artificiale e, indirettamente, dalle scelte dell’amministrazione Trump. Il presidente statunitense ha reagito attaccando direttamente Anthropic e il suo fondatore, l’italoamericano Dario Amodei, definendo l’azienda “di sinistra radicale” e accusandola di non capire il mondo reale.

La vera posizione di Anthropic sull’uso dell’AI

La polemica nasce però da un equivoco piuttosto grande. Anthropic non si è mai definita un’azienda pacifista e non ha escluso l’uso militare dei suoi sistemi. La posizione ufficiale è diversa: l’azienda accetta alcune applicazioni militari ma rifiuta categorie specifiche di utilizzo.

Conseguenze della disputa tra Anthropic e il governo

Dopo lo scontro, l’amministrazione Trump ha ordinato al Pentagono di interrompere il contratto con Anthropic e alle agenzie federali di smettere di utilizzare Claude entro sei mesi. Lo spazio lasciato libero è stato occupato rapidamente da altre aziende. xAI, la società di Elon Musk, ha firmato un accordo per lavorare su sistemi governativi riservati. OpenAI ha annunciato quasi subito un’intesa con il Dipartimento della Difesa che di fatto sostituisce il ruolo precedentemente affidato ad Anthropic.

La decisione ha provocato una reazione immediata contro ChatGPT. Sull’Apple Store le recensioni con una sola stella sono aumentate di circa il 775% nel giro di un giorno. L’amministratore delegato di OpenAI, Sam Altman, ha ammesso che la comunicazione sull’accordo con il Pentagono è stata gestita male e pubblicata troppo in fretta, dando l’impressione di un’operazione opportunistica.

Implicazioni tecniche e militari dell’uso di Claude

Nel dibattito pubblico si è diffusa l’idea che Anthropic si opponga all’uso militare dell’AI. Le dichiarazioni di Amodei raccontano qualcosa di diverso. L’azienda vieta due applicazioni specifiche: la sorveglianza di massa all’interno degli Stati Uniti e l’impiego dell’AI in armi completamente autonome, i cosiddetti “robot killer”. Il motivo non è morale ma tecnico: secondo Anthropic i sistemi di AI attuali non sono abbastanza affidabili per controllare armi senza supervisione umana.

Questo non significa che Claude sia rimasto fuori dalle operazioni militari. Al contrario. Secondo il Washington Post, l’AI di Anthropic è integrata nel sistema Maven Smart System sviluppato da Palantir, la società di analisi dei dati fondata da Peter Thiel. Maven raccoglie e analizza enormi quantità di informazioni provenienti da satelliti, sistemi di sorveglianza e altre fonti di intelligence.

Il sistema è stato utilizzato durante operazioni militari contro l’Iran. Secondo fonti citate dal giornale, Claude ha contribuito a individuare e classificare centinaia di possibili obiettivi, fornendo coordinate precise e una scala di priorità. L’effetto principale è stato l’accelerazione delle operazioni militari: attività che in passato richiedevano settimane di pianificazione possono ora essere eseguite quasi in tempo reale.

L’uso di Maven non è nuovo. Il sistema era già stato impiegato durante il ritiro americano dall’Afghanistan nel 2021, nel supporto a Israele dopo gli attacchi del 7 ottobre 2023 e nelle operazioni in Venezuela contro il presidente Nicolás Maduro.

La questione della regolamentazione nell’uso dell’AI

Secondo il Washington Post, Maven permette ai comandanti di gestire il campo di battaglia con strumenti che ricordano l’interfaccia di un videogioco. Uno studio della Georgetown University ha stimato che un’unità di artiglieria è riuscita a svolgere il lavoro che normalmente richiederebbe duemila persone con una squadra di circa venti militari.

Il nodo della disputa tra Anthropic e il governo americano non riguarda quindi l’uso militare dell’AI in sé. La questione centrale è chi debba decidere i limiti di questa tecnologia. Il Wall Street Journal ha usato un paragone efficace: se Anthropic producesse munizioni, nessun segretario alla Difesa accetterebbe che l’azienda stabilisca quando e contro chi sparare.

L’intelligenza artificiale però non è una tecnologia tradizionale. Le sue capacità sono ancora in evoluzione e molti governi temono che aziende private possano avere troppo potere nel definire come verrà utilizzata.

Nel caso specifico, alcuni esponenti dell’amministrazione Trump hanno accusato Anthropic di voler imporre restrizioni politiche all’esercito. L’azienda respinge questa interpretazione e sostiene che esistono già leggi e regolamenti che limitano sia la sorveglianza interna sia l’uso di armi autonome.

Critiche e rischi legati all’intelligenza artificiale

Alcuni ricercatori criticano anche l’atteggiamento recente di Anthropic. Missy Cummings, ex pilota della Marina americana e oggi direttrice del centro di robotica della George Mason University, ha osservato che per anni le aziende di AI hanno promosso in modo molto aggressivo le capacità dei loro sistemi. Solo ora, secondo lei, stanno iniziando a riconoscere i rischi.

Cummings ritiene che l’intelligenza artificiale generativa non dovrebbe essere utilizzata per controllare o guidare armi. Il problema principale non riguarda scenari fantascientifici di macchine ribelli, ma qualcosa di molto più concreto: gli errori dei modelli linguistici, le cosiddette “allucinazioni”. In contesti militari, sostiene, questi errori possono provocare la morte di civili o persino di soldati dello stesso esercito.

Il tema non è teorico. Alcuni sistemi di armamento autonomo sono già utilizzati in guerra. L’Ucraina, per esempio, impiega droni letali che operano con livelli crescenti di autonomia e ha iniziato a condividere queste tecnologie con altri eserciti alleati.

Il ruolo degli utenti nello sviluppo dell’AI

Oltre allo scontro tra aziende e governi esiste poi una questione più ampia. A differenza delle industrie belliche tradizionali, l’intelligenza artificiale cresce anche grazie all’uso quotidiano da parte delle persone. Ogni interazione con chatbot come ChatGPT, Claude o Grok contribuisce al miglioramento dei modelli.

Questo significa che milioni di utenti partecipano indirettamente allo sviluppo di sistemi che possono essere impiegati anche in ambito militare. Che piaccia oppure no, l’intelligenza artificiale non è più soltanto una tecnologia civile. Chi la utilizza dovrebbe almeno essere consapevole delle implicazioni.

L’IA non sta ancora distruggendo il lavoro. Ma sta già cambiando chi entra nel mercato

Il 5 marzo 2026 Anthropic ha pubblicato il documento “Labor market impacts of AI: A new measure and early evidence”. Gli autori sono Maxim Massenkoff e Peter McCrory.

Obiettivo del report di Anthropic

Lo scopo del report è stabilire un approccio metodologico per misurare come l’intelligenza artificiale sta alterando l’occupazione. I ricercatori hanno costruito un nuovo framework per analizzare il mercato del lavoro e lo hanno testato sui dati attuali. L’intento è preparare il terreno ora, prima che si manifestino effetti macroscopici. Vogliono strumenti capaci di identificare una potenziale interruzione economica in modo affidabile, evitando le analisi approssimative fatte a posteriori. Si basano sui numeri dell’implementazione reale.

Errori comuni sull’impatto dell’IA sul lavoro

Il panico sull’intelligenza artificiale che distrugge il mercato del lavoro si fonda su un errore logico. Confonde la capacità teorica con l’adozione sul campo.

Ho visto abbastanza progetti di trasformazione aziendale e reingegnerizzazione dei processi per sapere come funziona la realtà operativa. Avere una tecnologia capace di fare qualcosa è il 10% del lavoro. Il restante 90% è convincere un’organizzazione a usarla, integrarla nei sistemi esistenti e superare i vincoli strutturali. Le architetture aziendali sono complesse. Le procedure sono lente.

Questo nuovo report mette i numeri su questo concetto. I ricercatori hanno smesso di fare speculazioni. Hanno misurato cosa i modelli stanno facendo effettivamente nel mondo reale.

Reazioni e interpretazioni del pubblico sull’IA

Da mesi il dibattito pubblico sull’intelligenza artificiale oscilla tra due estremi: da una parte l’annuncio della fine del lavoro impiegatizio, dall’altra la rassicurazione secondo cui non sta succedendo nulla. Il report di Anthropic prova a uscire da questa alternanza un po’ isterica e propone una lettura più utile: guardare meno a ciò che l’IA potrebbe fare in teoria e più a ciò che viene davvero usato nei contesti professionali. È una distinzione meno spettacolare e instagrammabile, ma molto più seria.

Il punto centrale del report è proprio questo. Non basta dire che un modello linguistico è capace di svolgere un compito. Bisogna capire se quel compito viene effettivamente automatizzato nel lavoro reale, con quale frequenza e in quali forme. Gli autori chiamano questa misura “observed exposure”: esposizione osservata. In pratica, combinano tre elementi: i compiti descritti da O*NET per circa 800 occupazioni statunitensi, la fattibilità teorica dei compiti per un LLM, e i dati di utilizzo reale di Claude in contesti lavorativi. Le attività automatizzate pesano più di quelle semplicemente assistite, e l’uso professionale pesa più di quello generico. È una scelta sensata, perché separa il possibile dal concreto. Come già detto, sul mercato del lavoro contano gli usi diffusi, non le demo.

Qui arriva il primo dato che merita attenzione. L’IA è ancora lontana dalla sua capacità teorica. Nel grafico di pagina 6, il divario tra la copertura teorica e quella osservata è netto in quasi tutte le categorie professionali. Nelle occupazioni “Computer & Math”, per esempio, la possibilità teorica di intervento è molto alta, ma la copertura osservata si ferma a circa un terzo dei compiti. Anche dove i modelli sono forti, l’adozione reale resta parziale. Questo ridimensiona molte previsioni automatiche sul collasso imminente dell’occupazione: non basta che una tecnologia esista perché venga assorbita senza attriti da organizzazioni, norme, software, responsabilità legali e processi interni.

Il secondo punto è meno consolante. Le occupazioni più esposte non sono marginali né poco qualificate. A pagina 7 il report elenca tra le più esposte programmatori, addetti al customer service, data entry keyers, specialisti in cartelle cliniche, analisti di mercato, venditori all’ingrosso, analisti finanziari, tester software, analisti di sicurezza informatica e specialisti del supporto utenti. Non stiamo parlando del vecchio cliché secondo cui l’automazione colpirebbe solo mansioni ripetitive e a basso salario. A pagina 9 gli autori mostrano che i lavoratori più esposti tendono a essere più istruiti, meglio pagati, più anziani e più spesso donne rispetto al gruppo senza esposizione. I salari orari medi del gruppo più esposto risultano superiori del 47% rispetto a quelli del gruppo non esposto. Questo sposta il baricentro della discussione: la pressione dell’IA generativa si concentra già su una parte del lavoro d’ufficio e cognitivo.

Vale la pena fermarsi qui. Per anni abbiamo raccontato la trasformazione digitale come un processo che avrebbe premiato chi studiava di più, scriveva meglio, analizzava dati, produceva report, codice, documentazione, presentazioni. L’IA generativa entra precisamente dentro questo spazio. Non sostituisce l’intero mestiere, ma intacca quote crescenti di attività che fino a ieri erano considerate il nucleo del lavoro qualificato. Per questo la domanda giusta non è “quali professioni spariranno”, ma “quali segmenti del lavoro qualificato perderanno valore, ore o potere contrattuale”.

Osservazioni chiave sui dati di disoccupazione

Il report, però, frena le letture affrettate. Finora non emerge un aumento sistematico della disoccupazione tra i lavoratori più esposti. A pagina 11, la serie storica sull’unemployment rate mostra che dopo il lancio di ChatGPT le tendenze tra il gruppo più esposto e quello senza esposizione restano simili; la stima media del cambiamento è piccola e statisticamente indistinguibile da zero. È un risultato importante, perché mette un argine sia al catastrofismo sia alla propaganda. Non ci sono, almeno per ora, prove convincenti di una perdita occupazionale ampia e diretta tra i lavoratori più esposti.

Ma sarebbe un errore leggere questo dato come una piena assoluzione. I mercati del lavoro cambiano spesso in modo graduale. Prima rallentano gli ingressi, poi si assottigliano le opportunità, poi diventano più fragili le carriere iniziali. Ed è proprio qui che il report trova il segnale più interessante. A pagina 13, osservando i giovani tra 22 e 25 anni, gli autori registrano un calo del tasso di ingresso nei lavori ad alta esposizione: nel periodo post-ChatGPT, il job finding rate per i giovani verso queste occupazioni risulta inferiore del 14% rispetto al 2022, con una significatività statistica appena sufficiente. Non è ancora una prova definitiva, ma è un indizio che va preso sul serio. L’IA potrebbe non star espellendo in massa chi è già dentro. Potrebbe invece stare restringendo la porta a chi prova a entrare.

Questo dettaglio cambia molto anche sul piano politico e culturale. Se l’impatto dell’IA passa prima dai nuovi ingressi che dai licenziamenti, allora le statistiche tradizionali rischiano di arrivare tardi. La disoccupazione aggregata può restare relativamente stabile mentre i percorsi di accesso ai mestieri più esposti diventano più stretti, più lenti, più selettivi. Un neolaureato che non trova il primo impiego nel marketing, nell’analisi, nel supporto clienti o nello sviluppo software non compare automaticamente come “vittima dell’IA”. Può restare più a lungo in formazione, accettare un lavoro diverso, rinviare l’ingresso, uscire temporaneamente dal mercato. È un effetto meno visibile, ma non per questo meno reale.

Proiezioni future del mercato del lavoro

C’è poi un altro passaggio del report che merita di essere discusso senza semplificazioni. A pagina 8-9 gli autori mostrano che le occupazioni con maggiore esposizione osservata tendono anche ad avere prospettive di crescita più deboli nelle proiezioni del Bureau of Labor Statistics fino al 2034. La relazione è modesta, non abbastanza forte da autorizzare conclusioni secche, ma va nella direzione attesa: più esposizione, minore crescita prevista. Non è ancora la prova di una sostituzione in atto. È il segnale che il terreno si sta inclinando.

La parte più utile del report, a mio avviso, sta proprio nella sua prudenza. Non pretende di aver dimostrato la grande sostituzione del lavoro “bianco“, né vende la favola opposta secondo cui l’IA sarebbe solo un assistente innocuo. Dice qualcosa di più scomodo: gli effetti forti non si vedono ancora nella disoccupazione, ma la struttura del mercato può già stare cambiando nei punti in cui si formano le carriere e si redistribuisce il valore del lavoro. È un messaggio meno adatto ai titoli, ma più vicino a come di solito avvengono le trasformazioni economiche.

La discussione pubblica farebbe bene a spostarsi da una domanda infantile, “l’IA ci ruberà il lavoro?”, a una più concreta: quali categorie inizieranno a trovare meno occasioni per imparare, entrare, contrattare, crescere? La storia economica ci insegna che le tecnologie non colpiscono tutti nello stesso momento né con la stessa intensità. All’inizio lasciano intatti molti occupati, ma riscrivono le condizioni d’accesso, i margini salariali, la distribuzione delle attività più pagate e di quelle più facilmente comprimibili.

Per questo il dato sui giovani è il vero campanello. Non perché annunci un crollo imminente, ma perché segnala dove guardare adesso. Se l’IA riduce gli spazi d’ingresso nei lavori cognitivi standardizzati, il rischio non è solo occupazionale. Riguarda la formazione, la mobilità sociale, il rapporto tra titolo di studio e sbocchi reali, la qualità dei primi anni di carriera. Una generazione potrebbe trovarsi con più strumenti digitali e meno porte aperte.

È da qui che dovrebbe partire una politica del lavoro all’altezza della situazione. Non con profezie apocalittiche e neppure con slogan sull’innovazione inevitabile. Servono osservazione continua, dati migliori, attenzione ai percorsi di ingresso e alle professioni intermedie. Questo report non dice che l’emergenza è già esplosa. Dice una cosa diversa: che i primi segnali non stanno dove molti si aspettavano.

Riferimenti bibliografici

Massenkoff, M., & McCrory, P. (2026, March 5). Labor market impacts of AI: A new measure and early evidence. Anthropic.

Acemoglu, D., Autor, D., Hazell, J., & Restrepo, P. (2022). Artificial intelligence and jobs: Evidence from online vacancies. Journal of Labor Economics, 40(S1), S293-S340.

Brynjolfsson, E., Chandar, B., & Chen, R. (2025). Canaries in the coal mine? Six facts about the recent employment effects of artificial intelligence. Digital Economy.

Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). GPTs are GPTs: An early look at the labor market impact potential of large language models. arXiv preprint arXiv:2303.10130.

Hui, X., Reshef, O., & Zhou, L. (2024). The short-term effects of generative artificial intelligence on employment: Evidence from an online labor market. Organization Science, 35(6), 1977-1989.

Ps. anche quest’anno, auguri David Gilmour.