Gli schermi non uccidono la lettura: il problema è come sono progettate le piattaforme

L’errata interpretazione dell’impatto digitale sulla lettura

Chi continua a ripetere che gli schermi stanno distruggendo la lettura spesso parte da un’intuizione reale e arriva alla conclusione sbagliata. È vero che oggi concentrarsi è più difficile. È vero che leggere con continuità, senza interruzioni, per molti è diventato più faticoso. Ma da qui a dire che il problema sia il digitale in quanto tale, si rischia di fare un salto che non regge.

La tesi di Carlo Iacono, bibliotecario alla Charles Sturt University in Australia, parte proprio da qui. Secondo lui stiamo attribuendo agli schermi una colpa che appartiene soprattutto agli ambienti costruiti intorno agli schermi. Lo stesso dispositivo può ospitare Shakespeare, un saggio, un archivio, una lezione universitaria. Può anche ospitare notifiche continue, contenuti pensati per provocare reazioni immediate, scorrimento infinito e una gara permanente per rubare qualche secondo in più della nostra attenzione. Mettere tutto nello stesso sacco è un errore.

La differenza tra carta e display non è nei supporti

Il punto, allora, non è “carta contro display”. Il punto è capire che cosa un ambiente ci chiede di fare e in che modo ci abitua a farlo. Un social progettato per tenerci agganciati non assomiglia a un ebook solo perché entrambi passano da uno schermo. Cambia la logica, il ritmo e il tipo di rapporto che si instaura con ciò che abbiamo davanti.

Iacono osserva una cosa che vale la pena prendere sul serio: molte persone che non riescono a stare dentro un romanzo per mezz’ora sanno dedicare ore a un documentario storico, a un videogioco complesso, a una lezione ascoltata in cuffia, a una discussione molto densa. Questo non vuol dire che tutto si equivalga. Vuol dire, però, che l’attenzione non è evaporata. Spesso si è solo spostata altrove, o trova canali più adatti a certe persone e a certe situazioni.

La responsabilità delle scelte industriali sulla frammentazione dell’attenzione

Qui entra in scena un tema che l’articolo mette bene a fuoco: la frammentazione non cade dal cielo. Questa è il risultato di precise scelte industriali: notifiche, premi intermittenti, scroll senza fine, interfacce fatte per richiamarci ogni pochi minuti sono meccanismi costruiti per trattenere utenti, raccogliere dati, vendere pubblicità. Quando si parla di crisi della concentrazione, sarebbe utile ricordare questo.

Da questa osservazione nasce anche una conseguenza meno ovvia. Se il problema è progettuale, non possiamo continuare a leggerlo soltanto come una debolezza individuale. Molti vivono la difficoltà di concentrarsi come una colpa privata: pensano di essere diventati pigri, distratti, incapaci di leggere come un tempo. In diversi casi, invece, stanno soltanto provando a compiere un lavoro che chiede continuità mentale dentro spazi organizzati per impedire proprio quella continuità.

Diversità nell’apprendimento: oltre il testo scritto

Per questo Iacono insiste sui “contenitori per l’attenzione”. L’espressione è utile perché sposta il discorso dalla morale all’organizzazione concreta della vita quotidiana. C’è chi legge meglio lasciando il telefono in un’altra stanza. C’è chi capisce di più ascoltando un podcast mentre cammina e poi annotando qualche idea al rientro. C’è chi ha bisogno del silenzio fisico del libro stampato. C’è chi entra davvero in un argomento solo passando da audio, testo, immagini e confronto con altri.

Un altro passaggio centrale riguarda l’apprendimento. Per molto tempo la cultura scolastica ha considerato il testo scritto come il canale più nobile e, spesso, il solo davvero legittimo. Tutto il resto veniva dopo. Iacono ribalta questa gerarchia rigida. Non dice che l’audio sia meglio della pagina, né che il video debba sostituire i libri. Dice una cosa più semplice: non tutti elaborano il linguaggio e la conoscenza nello stesso modo. Ci sono persone che con un audiolibro comprendono benissimo un contenuto che sulla carta restava opaco. Ce ne sono altre che hanno bisogno di parlare, muoversi, fare schemi, ascoltare e poi tornare sul testo.

Il rischio del fatalismo nella percezione delle piattaforme digitali

L’articolo prende posizione anche contro un certo tono da tramonto della civiltà. È una parte molto netta, e a ragione. Chi denuncia il potere delle grandi piattaforme ma poi conclude che “ormai è andata” finisce, di fatto, per fare un favore proprio a quel potere. Il fatalismo diventa una resa mascherata da lucidità. Se diciamo che il degrado dell’attenzione è il prezzo inevitabile del progresso, stiamo togliendo dal tavolo la questione politica, educativa e progettuale. Stiamo accettando come naturale ciò che invece è stato costruito.

Progettare ambienti che favoriscano la concentrazione

La via d’uscita, allora, non passa dalla nostalgia per una presunta età dell’oro della lettura pura, tutta silenzio e profondità. Passa da una domanda diversa: come si progettano ambienti che aiutino il pensiero invece di sabotarli? Come si costruiscono strumenti capaci di distinguere tra il tempo dello scorrimento rapido e il tempo della concentrazione? Come si insegna a passare da una modalità all’altra senza perdersi?

il ruolo delle biblioteche nel contesto moderno

In questo quadro la biblioteca torna a essere un’immagine forte. La sala di lettura resta importante, ma accanto possono esserci spazi per l’ascolto, per la registrazione, per il lavoro condiviso, per la visualizzazione delle idee. Può essere un tentativo di dare alla cultura strumenti adatti al presente senza consegnarla al rumore di fondo delle piattaforme.

La domanda finale, in fondo, è semplice: vogliamo un ecosistema che favorisca comprensione, memoria e giudizio, oppure uno che viva di interruzione permanente? La differenza sta nelle regole, nei ritmi, nelle infrastrutture e nelle abitudini che scegliamo di rendere normali.

Claude, ChatGPT e AI militare: cosa sta succedendo tra Anthropic, OpenAI e il Pentagono

Claude supera ChatGPT negli Stati Uniti

Negli Stati Uniti, per la prima volta, l’app di Claude ha superato ChatGPT nei download su smartphone. Il dato arriva dopo una settimana segnata da una polemica politica e militare: Anthropic, l’azienda che sviluppa Claude, ha rifiutato alcune condizioni poste dal Pentagono. In parallelo si è diffusa l’idea che Claude rappresenti una scelta “pacifista”. Anche in Italia sono aumentati gli utenti di Claude mentre, nello stesso periodo, le disinstallazioni di ChatGPT sono cresciute.

Reazione politica e simbolismi legati a Claude

Per una parte del pubblico usare Claude è diventato un gesto “simbolico”: un modo per prendere le distanze dall’impiego militare dell’intelligenza artificiale e, indirettamente, dalle scelte dell’amministrazione Trump. Il presidente statunitense ha reagito attaccando direttamente Anthropic e il suo fondatore, l’italoamericano Dario Amodei, definendo l’azienda “di sinistra radicale” e accusandola di non capire il mondo reale.

La vera posizione di Anthropic sull’uso dell’AI

La polemica nasce però da un equivoco piuttosto grande. Anthropic non si è mai definita un’azienda pacifista e non ha escluso l’uso militare dei suoi sistemi. La posizione ufficiale è diversa: l’azienda accetta alcune applicazioni militari ma rifiuta categorie specifiche di utilizzo.

Conseguenze della disputa tra Anthropic e il governo

Dopo lo scontro, l’amministrazione Trump ha ordinato al Pentagono di interrompere il contratto con Anthropic e alle agenzie federali di smettere di utilizzare Claude entro sei mesi. Lo spazio lasciato libero è stato occupato rapidamente da altre aziende. xAI, la società di Elon Musk, ha firmato un accordo per lavorare su sistemi governativi riservati. OpenAI ha annunciato quasi subito un’intesa con il Dipartimento della Difesa che di fatto sostituisce il ruolo precedentemente affidato ad Anthropic.

La decisione ha provocato una reazione immediata contro ChatGPT. Sull’Apple Store le recensioni con una sola stella sono aumentate di circa il 775% nel giro di un giorno. L’amministratore delegato di OpenAI, Sam Altman, ha ammesso che la comunicazione sull’accordo con il Pentagono è stata gestita male e pubblicata troppo in fretta, dando l’impressione di un’operazione opportunistica.

Implicazioni tecniche e militari dell’uso di Claude

Nel dibattito pubblico si è diffusa l’idea che Anthropic si opponga all’uso militare dell’AI. Le dichiarazioni di Amodei raccontano qualcosa di diverso. L’azienda vieta due applicazioni specifiche: la sorveglianza di massa all’interno degli Stati Uniti e l’impiego dell’AI in armi completamente autonome, i cosiddetti “robot killer”. Il motivo non è morale ma tecnico: secondo Anthropic i sistemi di AI attuali non sono abbastanza affidabili per controllare armi senza supervisione umana.

Questo non significa che Claude sia rimasto fuori dalle operazioni militari. Al contrario. Secondo il Washington Post, l’AI di Anthropic è integrata nel sistema Maven Smart System sviluppato da Palantir, la società di analisi dei dati fondata da Peter Thiel. Maven raccoglie e analizza enormi quantità di informazioni provenienti da satelliti, sistemi di sorveglianza e altre fonti di intelligence.

Il sistema è stato utilizzato durante operazioni militari contro l’Iran. Secondo fonti citate dal giornale, Claude ha contribuito a individuare e classificare centinaia di possibili obiettivi, fornendo coordinate precise e una scala di priorità. L’effetto principale è stato l’accelerazione delle operazioni militari: attività che in passato richiedevano settimane di pianificazione possono ora essere eseguite quasi in tempo reale.

L’uso di Maven non è nuovo. Il sistema era già stato impiegato durante il ritiro americano dall’Afghanistan nel 2021, nel supporto a Israele dopo gli attacchi del 7 ottobre 2023 e nelle operazioni in Venezuela contro il presidente Nicolás Maduro.

La questione della regolamentazione nell’uso dell’AI

Secondo il Washington Post, Maven permette ai comandanti di gestire il campo di battaglia con strumenti che ricordano l’interfaccia di un videogioco. Uno studio della Georgetown University ha stimato che un’unità di artiglieria è riuscita a svolgere il lavoro che normalmente richiederebbe duemila persone con una squadra di circa venti militari.

Il nodo della disputa tra Anthropic e il governo americano non riguarda quindi l’uso militare dell’AI in sé. La questione centrale è chi debba decidere i limiti di questa tecnologia. Il Wall Street Journal ha usato un paragone efficace: se Anthropic producesse munizioni, nessun segretario alla Difesa accetterebbe che l’azienda stabilisca quando e contro chi sparare.

L’intelligenza artificiale però non è una tecnologia tradizionale. Le sue capacità sono ancora in evoluzione e molti governi temono che aziende private possano avere troppo potere nel definire come verrà utilizzata.

Nel caso specifico, alcuni esponenti dell’amministrazione Trump hanno accusato Anthropic di voler imporre restrizioni politiche all’esercito. L’azienda respinge questa interpretazione e sostiene che esistono già leggi e regolamenti che limitano sia la sorveglianza interna sia l’uso di armi autonome.

Critiche e rischi legati all’intelligenza artificiale

Alcuni ricercatori criticano anche l’atteggiamento recente di Anthropic. Missy Cummings, ex pilota della Marina americana e oggi direttrice del centro di robotica della George Mason University, ha osservato che per anni le aziende di AI hanno promosso in modo molto aggressivo le capacità dei loro sistemi. Solo ora, secondo lei, stanno iniziando a riconoscere i rischi.

Cummings ritiene che l’intelligenza artificiale generativa non dovrebbe essere utilizzata per controllare o guidare armi. Il problema principale non riguarda scenari fantascientifici di macchine ribelli, ma qualcosa di molto più concreto: gli errori dei modelli linguistici, le cosiddette “allucinazioni”. In contesti militari, sostiene, questi errori possono provocare la morte di civili o persino di soldati dello stesso esercito.

Il tema non è teorico. Alcuni sistemi di armamento autonomo sono già utilizzati in guerra. L’Ucraina, per esempio, impiega droni letali che operano con livelli crescenti di autonomia e ha iniziato a condividere queste tecnologie con altri eserciti alleati.

Il ruolo degli utenti nello sviluppo dell’AI

Oltre allo scontro tra aziende e governi esiste poi una questione più ampia. A differenza delle industrie belliche tradizionali, l’intelligenza artificiale cresce anche grazie all’uso quotidiano da parte delle persone. Ogni interazione con chatbot come ChatGPT, Claude o Grok contribuisce al miglioramento dei modelli.

Questo significa che milioni di utenti partecipano indirettamente allo sviluppo di sistemi che possono essere impiegati anche in ambito militare. Che piaccia oppure no, l’intelligenza artificiale non è più soltanto una tecnologia civile. Chi la utilizza dovrebbe almeno essere consapevole delle implicazioni.

L’IA non sta ancora distruggendo il lavoro. Ma sta già cambiando chi entra nel mercato

Il 5 marzo 2026 Anthropic ha pubblicato il documento “Labor market impacts of AI: A new measure and early evidence”. Gli autori sono Maxim Massenkoff e Peter McCrory.

Obiettivo del report di Anthropic

Lo scopo del report è stabilire un approccio metodologico per misurare come l’intelligenza artificiale sta alterando l’occupazione. I ricercatori hanno costruito un nuovo framework per analizzare il mercato del lavoro e lo hanno testato sui dati attuali. L’intento è preparare il terreno ora, prima che si manifestino effetti macroscopici. Vogliono strumenti capaci di identificare una potenziale interruzione economica in modo affidabile, evitando le analisi approssimative fatte a posteriori. Si basano sui numeri dell’implementazione reale.

Errori comuni sull’impatto dell’IA sul lavoro

Il panico sull’intelligenza artificiale che distrugge il mercato del lavoro si fonda su un errore logico. Confonde la capacità teorica con l’adozione sul campo.

Ho visto abbastanza progetti di trasformazione aziendale e reingegnerizzazione dei processi per sapere come funziona la realtà operativa. Avere una tecnologia capace di fare qualcosa è il 10% del lavoro. Il restante 90% è convincere un’organizzazione a usarla, integrarla nei sistemi esistenti e superare i vincoli strutturali. Le architetture aziendali sono complesse. Le procedure sono lente.

Questo nuovo report mette i numeri su questo concetto. I ricercatori hanno smesso di fare speculazioni. Hanno misurato cosa i modelli stanno facendo effettivamente nel mondo reale.

Reazioni e interpretazioni del pubblico sull’IA

Da mesi il dibattito pubblico sull’intelligenza artificiale oscilla tra due estremi: da una parte l’annuncio della fine del lavoro impiegatizio, dall’altra la rassicurazione secondo cui non sta succedendo nulla. Il report di Anthropic prova a uscire da questa alternanza un po’ isterica e propone una lettura più utile: guardare meno a ciò che l’IA potrebbe fare in teoria e più a ciò che viene davvero usato nei contesti professionali. È una distinzione meno spettacolare e instagrammabile, ma molto più seria.

Il punto centrale del report è proprio questo. Non basta dire che un modello linguistico è capace di svolgere un compito. Bisogna capire se quel compito viene effettivamente automatizzato nel lavoro reale, con quale frequenza e in quali forme. Gli autori chiamano questa misura “observed exposure”: esposizione osservata. In pratica, combinano tre elementi: i compiti descritti da O*NET per circa 800 occupazioni statunitensi, la fattibilità teorica dei compiti per un LLM, e i dati di utilizzo reale di Claude in contesti lavorativi. Le attività automatizzate pesano più di quelle semplicemente assistite, e l’uso professionale pesa più di quello generico. È una scelta sensata, perché separa il possibile dal concreto. Come già detto, sul mercato del lavoro contano gli usi diffusi, non le demo.

Qui arriva il primo dato che merita attenzione. L’IA è ancora lontana dalla sua capacità teorica. Nel grafico di pagina 6, il divario tra la copertura teorica e quella osservata è netto in quasi tutte le categorie professionali. Nelle occupazioni “Computer & Math”, per esempio, la possibilità teorica di intervento è molto alta, ma la copertura osservata si ferma a circa un terzo dei compiti. Anche dove i modelli sono forti, l’adozione reale resta parziale. Questo ridimensiona molte previsioni automatiche sul collasso imminente dell’occupazione: non basta che una tecnologia esista perché venga assorbita senza attriti da organizzazioni, norme, software, responsabilità legali e processi interni.

Il secondo punto è meno consolante. Le occupazioni più esposte non sono marginali né poco qualificate. A pagina 7 il report elenca tra le più esposte programmatori, addetti al customer service, data entry keyers, specialisti in cartelle cliniche, analisti di mercato, venditori all’ingrosso, analisti finanziari, tester software, analisti di sicurezza informatica e specialisti del supporto utenti. Non stiamo parlando del vecchio cliché secondo cui l’automazione colpirebbe solo mansioni ripetitive e a basso salario. A pagina 9 gli autori mostrano che i lavoratori più esposti tendono a essere più istruiti, meglio pagati, più anziani e più spesso donne rispetto al gruppo senza esposizione. I salari orari medi del gruppo più esposto risultano superiori del 47% rispetto a quelli del gruppo non esposto. Questo sposta il baricentro della discussione: la pressione dell’IA generativa si concentra già su una parte del lavoro d’ufficio e cognitivo.

Vale la pena fermarsi qui. Per anni abbiamo raccontato la trasformazione digitale come un processo che avrebbe premiato chi studiava di più, scriveva meglio, analizzava dati, produceva report, codice, documentazione, presentazioni. L’IA generativa entra precisamente dentro questo spazio. Non sostituisce l’intero mestiere, ma intacca quote crescenti di attività che fino a ieri erano considerate il nucleo del lavoro qualificato. Per questo la domanda giusta non è “quali professioni spariranno”, ma “quali segmenti del lavoro qualificato perderanno valore, ore o potere contrattuale”.

Osservazioni chiave sui dati di disoccupazione

Il report, però, frena le letture affrettate. Finora non emerge un aumento sistematico della disoccupazione tra i lavoratori più esposti. A pagina 11, la serie storica sull’unemployment rate mostra che dopo il lancio di ChatGPT le tendenze tra il gruppo più esposto e quello senza esposizione restano simili; la stima media del cambiamento è piccola e statisticamente indistinguibile da zero. È un risultato importante, perché mette un argine sia al catastrofismo sia alla propaganda. Non ci sono, almeno per ora, prove convincenti di una perdita occupazionale ampia e diretta tra i lavoratori più esposti.

Ma sarebbe un errore leggere questo dato come una piena assoluzione. I mercati del lavoro cambiano spesso in modo graduale. Prima rallentano gli ingressi, poi si assottigliano le opportunità, poi diventano più fragili le carriere iniziali. Ed è proprio qui che il report trova il segnale più interessante. A pagina 13, osservando i giovani tra 22 e 25 anni, gli autori registrano un calo del tasso di ingresso nei lavori ad alta esposizione: nel periodo post-ChatGPT, il job finding rate per i giovani verso queste occupazioni risulta inferiore del 14% rispetto al 2022, con una significatività statistica appena sufficiente. Non è ancora una prova definitiva, ma è un indizio che va preso sul serio. L’IA potrebbe non star espellendo in massa chi è già dentro. Potrebbe invece stare restringendo la porta a chi prova a entrare.

Questo dettaglio cambia molto anche sul piano politico e culturale. Se l’impatto dell’IA passa prima dai nuovi ingressi che dai licenziamenti, allora le statistiche tradizionali rischiano di arrivare tardi. La disoccupazione aggregata può restare relativamente stabile mentre i percorsi di accesso ai mestieri più esposti diventano più stretti, più lenti, più selettivi. Un neolaureato che non trova il primo impiego nel marketing, nell’analisi, nel supporto clienti o nello sviluppo software non compare automaticamente come “vittima dell’IA”. Può restare più a lungo in formazione, accettare un lavoro diverso, rinviare l’ingresso, uscire temporaneamente dal mercato. È un effetto meno visibile, ma non per questo meno reale.

Proiezioni future del mercato del lavoro

C’è poi un altro passaggio del report che merita di essere discusso senza semplificazioni. A pagina 8-9 gli autori mostrano che le occupazioni con maggiore esposizione osservata tendono anche ad avere prospettive di crescita più deboli nelle proiezioni del Bureau of Labor Statistics fino al 2034. La relazione è modesta, non abbastanza forte da autorizzare conclusioni secche, ma va nella direzione attesa: più esposizione, minore crescita prevista. Non è ancora la prova di una sostituzione in atto. È il segnale che il terreno si sta inclinando.

La parte più utile del report, a mio avviso, sta proprio nella sua prudenza. Non pretende di aver dimostrato la grande sostituzione del lavoro “bianco“, né vende la favola opposta secondo cui l’IA sarebbe solo un assistente innocuo. Dice qualcosa di più scomodo: gli effetti forti non si vedono ancora nella disoccupazione, ma la struttura del mercato può già stare cambiando nei punti in cui si formano le carriere e si redistribuisce il valore del lavoro. È un messaggio meno adatto ai titoli, ma più vicino a come di solito avvengono le trasformazioni economiche.

La discussione pubblica farebbe bene a spostarsi da una domanda infantile, “l’IA ci ruberà il lavoro?”, a una più concreta: quali categorie inizieranno a trovare meno occasioni per imparare, entrare, contrattare, crescere? La storia economica ci insegna che le tecnologie non colpiscono tutti nello stesso momento né con la stessa intensità. All’inizio lasciano intatti molti occupati, ma riscrivono le condizioni d’accesso, i margini salariali, la distribuzione delle attività più pagate e di quelle più facilmente comprimibili.

Per questo il dato sui giovani è il vero campanello. Non perché annunci un crollo imminente, ma perché segnala dove guardare adesso. Se l’IA riduce gli spazi d’ingresso nei lavori cognitivi standardizzati, il rischio non è solo occupazionale. Riguarda la formazione, la mobilità sociale, il rapporto tra titolo di studio e sbocchi reali, la qualità dei primi anni di carriera. Una generazione potrebbe trovarsi con più strumenti digitali e meno porte aperte.

È da qui che dovrebbe partire una politica del lavoro all’altezza della situazione. Non con profezie apocalittiche e neppure con slogan sull’innovazione inevitabile. Servono osservazione continua, dati migliori, attenzione ai percorsi di ingresso e alle professioni intermedie. Questo report non dice che l’emergenza è già esplosa. Dice una cosa diversa: che i primi segnali non stanno dove molti si aspettavano.

Riferimenti bibliografici

Massenkoff, M., & McCrory, P. (2026, March 5). Labor market impacts of AI: A new measure and early evidence. Anthropic.

Acemoglu, D., Autor, D., Hazell, J., & Restrepo, P. (2022). Artificial intelligence and jobs: Evidence from online vacancies. Journal of Labor Economics, 40(S1), S293-S340.

Brynjolfsson, E., Chandar, B., & Chen, R. (2025). Canaries in the coal mine? Six facts about the recent employment effects of artificial intelligence. Digital Economy.

Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). GPTs are GPTs: An early look at the labor market impact potential of large language models. arXiv preprint arXiv:2303.10130.

Hui, X., Reshef, O., & Zhou, L. (2024). The short-term effects of generative artificial intelligence on employment: Evidence from an online labor market. Organization Science, 35(6), 1977-1989.

Ps. anche quest’anno, auguri David Gilmour.

L’asimmetria dell’adozione: i numeri reali dell’Intelligenza Artificiale

Qualche giorno fa mi sono imbattuto in questo tweet di John LeFevre. Nonostante la mia richiesta di fonti sia (ad oggi) miseramente fallita, mi ha suscitato una riflessione, susseguita da una ricerca più approfondita sul tema, di cui scrivo di seguito.

Esame di realtà sui tassi di adozione

Questa immagine circolata a inizio 2026 sui tassi di adozione globale dell’intelligenza artificiale impone un esame di realtà. I dati aggregati mostrano che l’84% della popolazione mondiale, su un totale di circa 8,1 miliardi di persone, non ha mai utilizzato alcun sistema di AI generativa. Del restante 16%, la quasi totalità si colloca nella fascia degli utenti gratuiti. Le percentuali crollano drasticamente quando si analizza l’uso strutturato: circa lo 0,3% paga per abbonamenti premium, mentre un microscopico 0,04% sfrutta questi strumenti per lo sviluppo di codice e l’automazione avanzata.

Questi numeri smontano la narrazione dominante. Viviamo in una bolla percettiva alimentata dall’industria tecnologica e dai media, che proiettano l’immagine di una rivoluzione già compiuta e capillarmente diffusa. Ricerche recenti del National Bureau of Economic Research e di Eurostat confermano un aumento progressivo dell’adozione, tuttavia l’impiego quotidiano, intenso e integrato nei flussi di lavoro riguarda una frazione a singola cifra della forza lavoro globale. La maggioranza assoluta delle aziende e dei professionisti opera con gli stessi paradigmi di cinque anni fa. Esiste una distanza siderale tra la disponibilità commerciale di una tecnologia e il suo assorbimento sistemico.

Errori di valutazione nel management aziendale

L’errore di valutazione più comune nel management aziendale coincide con l’assimilazione dell’intelligenza artificiale a un software tradizionale, percepito come un prodotto plug-and-play in grado di garantire un incremento immediato di produttività. L’implementazione fallisce regolarmente a causa della progettazione degli attuali sistemi aziendali e decisionali, strutturati per la velocità e i limiti cognitivi umani. Inserire un acceleratore algoritmico in una singola fase di un processo, mantenendo inalterati i passaggi di consegna, le catene di approvazione e le infrastrutture legacy, provoca un collasso procedurale. Il collo di bottiglia si sposta a valle. Il guadagno di tempo generato dall’elaborazione rapida dei dati viene annullato dai tempi di attesa per la validazione o dalla rigidità dei sistemi riceventi. L’adozione reale richiede una reingegnerizzazione completa dei flussi di lavoro aziendali.

A questo limite procedurale si somma un deficit formativo massiccio. I sondaggi di mercato indicano che oltre la metà dei dipendenti che utilizzano l’AI sul posto di lavoro non riceve alcuna istruzione formale dall’azienda. Questo dato spiega perfettamente quel 16% di utenti gratuiti presente nel grafico: si tratta di un utilizzo episodico, destrutturato e limitato a compiti esecutivi di base, come la stesura di un’email o la sintesi di un documento. Questo livello di interazione genera un vantaggio trascurabile. Il passaggio alle fasce di utilizzo superiore richiede un’architettura delle competenze radicalmente diversa. Chi gestisce operazioni formative su scala corporate osserva quotidianamente questa dinamica operativa. L’innovazione si consolida esclusivamente trasformandosi in una procedura standardizzata, misurabile e replicabile su vasta scala. Lasciare l’adozione all’iniziativa del singolo individuo porta a una frammentazione inefficace delle pratiche lavorative.

I modelli tradizionali di change management risultano inadeguati di fronte a questa transizione tecnologica. Solitamente, il cambiamento organizzativo viene pianificato assumendo curve di apprendimento graduali e un consenso costruito nel tempo attraverso fasi di transizione lineari. L’intelligenza artificiale impone una logica del tutto asimmetrica. L’aggiornamento continuo dei modelli linguistici e l’introduzione di nuove funzionalità avvengono con una frequenza tale da rendere obsoleto qualsiasi piano di adozione a lungo termine. Il ruolo del management richiede la transizione dalla stesura di manuali d’uso definitivi alla creazione di un ambiente operativo tollerante all’errore calcolato, dove l’apprendimento continuo sostituisce le procedure statiche. La resistenza al cambiamento osservabile oggi nelle organizzazioni deriva in gran parte da questa dissonanza cognitiva: viene richiesto alle persone di utilizzare strumenti dinamici e imprevedibili applicando parametri di valutazione rigidi e strutturalmente obsoleti.

Affrontare le sfide operative nell’adozione dell’AI

Nelle organizzazioni di medie e grandi dimensioni stiamo assistendo agli effetti della paralisi da analisi. Molte aziende bloccano l’accesso agli strumenti AI ufficiali in attesa di definire policy inattaccabili sulla privacy, sulla sicurezza dei dati e sulla gestione dei rischi legali. I dipendenti aggirano i blocchi utilizzando piattaforme esterne in modo non autorizzato, alimentando il fenomeno dello shadow IT e moltiplicando le reali vulnerabilità aziendali. Le organizzazioni in grado di guadagnare quote di mercato adottano un approccio chirurgico. Isolano specifici flussi operativi, affidano la sperimentazione a team ristretti, misurano i KPI di efficienza e successivamente scalano il nuovo modello sull’intera struttura. L’efficacia risiede nella velocità di iterazione e nella capacità di tollerare imperfezioni iniziali per costruire rapidamente la cosiddetta “absorption capacity”, ovvero la capacità dell’organizzazione di assimilare le nuove risorse.

La distribuzione visibile nel grafico prefigura uno scenario di polarizzazione estrema nel mercato del lavoro e dei servizi. Quel minuscolo segmento dello 0,04% e la frazione dello 0,3% rappresentano operatori economici in grado di moltiplicare il proprio output in modo strutturale. Un professionista capace di orchestrare agenti autonomi, automatizzare l’analisi di dataset complessi e integrare API nei propri processi quotidiani acquisisce un livello di produttività inarrivabile per chi lavora in modo convenzionale. I modelli di business basati sulla fatturazione oraria per attività a basso valore aggiunto cognitivo subiranno una rapida obsolescenza. Il mercato punirà severamente le inefficienze di chi continua a far pagare per procedure di ricerca, sintesi e formattazione eseguibili dagli strumenti attuali a costi irrisori.

Valutare questi dati richiede assoluta freddezza analitica. Collocarsi all’interno dell’84% degli astenuti o nel 16% degli utilizzatori superficiali garantisce l’accumulo di un debito tecnico e metodologico impossibile da saldare nel medio termine. L’evoluzione verso un utilizzo strategico impone uno sforzo deliberato di destrutturazione del proprio lavoro quotidiano. Occorre mappare le inefficienze personali e del proprio team, testare l’automazione su compiti specifici e reinvestire le ore recuperate in attività ad alto impatto. L’intelligenza artificiale punisce chi attende indicazioni dall’alto e premia chi ha la lucidità di riscrivere le proprie regole operative partendo dalle fondamenta organizzative.

Fonti e Riferimenti Bibliografici

Questi sono i dati grezzi e le indagini campionarie che ho usato per condurre l’analisi. L’osservazione di questi report quantifica il reale deficit di implementazione e smentisce la percezione di un’adozione universale – semmai ci sia stata questa tesi in qualche salotto.

1. Sull’impatto nullo sulla produttività a breve termine:

  • National Bureau of Economic Research (NBER), Working Paper 34836 (Febbraio 2026): Firm Data on AI. Un’indagine su 6.000 aziende in USA, UK, Germania e Australia. Evidenzia che circa il 90% delle aziende non ha registrato alcun impatto misurabile su produttività o occupazione negli ultimi tre anni. L’utilizzo medio da parte dei dirigenti è fermo a 1,5 ore settimanali.

2. Sul divario di implementazione aziendale e il deficit di competenze:

  • Eurostat, Dicembre 2025 / Febbraio 2026: Use of artificial intelligence in enterprises. I dati ufficiali europei indicano che solo il 19,95% delle imprese dell’UE utilizza tecnologie AI. La barriera principale, citata dal 71% delle aziende, è la totale mancanza di competenze interne per l’implementazione tecnica e procedurale, seguita dall’incertezza legale.

3. Sul collasso del ROI (Return on Investment) nei progetti corporate:

  • Massachusetts Institute of Technology (MIT), Report 2025: The GenAI Divide: State of AI in Business 2025. Analisi su 300 implementazioni aziendali. Dimostra che il 95% delle organizzazioni non sta ottenendo alcun ritorno finanziario misurabile dai 30-40 miliardi di dollari investiti in AI generativa, confermando che il problema risiede nell’assenza di reingegnerizzazione dei processi e non nella tecnologia in sé.

4. Analisi dei dati Eurostat sull’adozione dell’AI in Europa

  • Questa scomposizione visiva dei dati quantifica con precisione il divario di mercato e la grave carenza di competenze strutturali che ostacolano l’integrazione tecnologica nelle imprese europee.

Dietro le quinte di MC Synapse: L’Intelligenza dei Processi “Local-First”

Come dicevo su Twitter (sì, si chiamerà così per sempre), da qualche tempo a questa parte ho come quest aziendale, che mi sono preso da solo, di mappare i processi aziendali del mio ufficio; a partire dalla mia funzione specifica (le training operations), passando per le altre sotto-routine del training, fino ad arrivare, forse, a mettere il naso fuori dal mio stesso ufficio. E dunque…

Benvenuti in questo nuovo approfondimento tecnico! In questo articolo scendiamo nei dettagli di uno dei miei progetti più recenti e interessanti: MC Synapse.

Se vi siete mai trovati a dover mappare processi aziendali, vi sarete sicuramente scontrati con applicazioni enterprise estremamente pesanti, software concettualmente superati o soluzioni cloud-based che sollevano mille dubbi sulla privacy dei dati sensibili della vostra organizzazione. MC Synapse nasce proprio per risolvere questa frizione. Si tratta di uno strumento potente, basato interamente sul browser, dedicato alla mappatura, all’analisi e alla governance dei processi, strutturato intorno a una filosofia rigorosamente “Local-First”.

In questo articolo vi racconterò com’è nata l’idea, le scelte architetturali che hanno guidato lo sviluppo, lo stack tecnologico che pulsa sotto il cofano e le sfide affrontate per trasformare questa visione in realtà.

La Genesi dell’Idea: Governance senza Compromessi

Tutto è iniziato da una semplice constatazione pratica: chi si occupa di organizzazione aziendale e qualità (si pensi, ad esempio, agli standard ISO 9001) ha bisogno non solo di disegnare diagrammi di flusso, ma di associare a ogni passaggio una serie di metadati cruciali. Chi fa cosa? Qual è il rischio in questo step? Dove c’è un controllo? Qual è l’indicatore di performance (KPI)?

I classici tool di diagramming spesso si limitano all’aspetto puramente visivo. I tool di Business Process Management (BPM) avanzati, d’altro canto, tendono ad essere costosi, richiedono implementazioni lunghe e, soprattutto, sincronizzano i dati aziendali su server di terze parti. L’idea alla base di MC Synapse è stata quella di invertire questa tendenza: fornire un ambiente ricco di funzionalità – dal Process Passport all’analisi SIPOC, fino all’integrazione nativa di una matrice RACI – ma rendendolo immediato e sicuro al 100%. Niente login, niente database remoti, zero setup. Apri l’applicazione, modelli il tuo processo e i dati rimangono esclusivamente sul tuo dispositivo.

Panoramica Funzionale: Oltre il semplice Flowchart

L’obiettivo di MC Synapse non è solo “disegnare” box e frecce, ma strutturare l’informazione. Per questo l’applicativo è diviso in sezioni logiche:

  1. Process Passport: Il punto di partenza governativo. Prima ancora di tracciare la prima linea, l’utente definisce l’Owner del processo, gli input, gli output, i trigger di attivazione e la purpose generale. Questo garantisce un approccio strutturato (compliant con le norme ISO).
  2. SIPOC Analysis: Uno strumento ad alto livello per identificare fornitori (Suppliers), input, processi macro, output e clienti (Customers).
  3. Flow Mapping Interattivo: Un canvas drag-and-drop intuitivo in cui è possibile taggare i vari step con indicatori visivi di rischio, controlli o KPI.
  4. Matrice RACI Integrata: Questa è una delle feature più potenti. È possibile definire i ruoli aziendali e, direttamente dalle proprietà di ogni singolo nodo del flowchart, assegnare chi è Responsible, Accountable, Consulted e Informed.

Tutte queste viste sono rappresentazioni diverse di uno stesso modello dati unificato e condiviso.

Lo Stack Tecnologico: Scelte Architetturali

Per garantire un’esperienza fluida e reattiva, simile in tutto e per tutto a quella di un’applicazione desktop ma all’interno del browser, ho optato per uno stack moderno e orientato alle performance.

  • React e Vite: Il core dell’applicazione. Vite ha garantito tempi di build istantanei e un’esperienza di sviluppo (HMR) senza pari, permettendomi di iterare rapidamente. React, con il suo paradigma a componenti, è stato essenziale per isolare le logiche dei vari editor (SIPOC, Passport, Canvas).
  • React Flow: Per la parte di mappatura dei flussi, costruire un engine da zero sarebbe stato un bagno di sangue. Ho scelto React Flow per la sua flessibilità e robustezza. Permette una gestione capillare dei custom nodes e un’eccellente interattività nel drag-and-drop, garantendo allo stesso tempo performance elevate anche con canvas complessi.
  • Zustand: La sfida più grande in un tool del genere è la gestione dello stato (“State Management”). Redux sarebbe risultato troppo verboso e l’uso intensivo della Context API avrebbe scatenato re-render continui inutili. Zustand è stato un compromesso perfetto: una libreria microscopica ma incredibilmente potente, che mi ha permesso di creare store separati (per il canvas, per il RACI, per il Passport) ma capaci di dialogare tra loro con facilità, aggiornando l’interfaccia solo dove strettamente necessario.
  • Tailwind CSS e Shadcn/UI: Per l’interfaccia utente volevo un look moderno, pulito e “serio” (da tool aziendale). L’accoppiata Tailwind e Shadcn mi ha permesso di avere componenti accessibili e perfettamente stilati in tempi record, mantenendo il controllo assoluto sul codice (dal momento che Shadcn inietta i componenti nel progetto, anziché incapsularli come dipendenza oscura). Icone chiare e nitide sono fornite da Lucide React.

Le Sfide Tecniche: Stato, Sincronizzazione e Persistenza

Sviluppare MC Synapse ha presentato sfide architetturali non indifferenti.

La prima grande sfida è stata mantenere la coerenza del dato. Quando un utente elimina un nodo nel canvas, quello stesso nodo (e i ruoli ad esso associati) deve sparire dalla matrice RACI e dagli indicatori globali. Grazie a Zustand, ho strutturato le azioni di mutazione (aggiunta, rimozione, modifica dei nodi) in modo che agirssero a cascata su tutto l’ecosistema del progetto, mantenendo l'”Unica Fonte di Verità” (Single Source of Truth) sempre coerente e solida. In questo modo si abbassa esponenzialmente il rischio di avere “dati fantasma” (orphan data) dispersi nella memoria a runtime.

La seconda sfida cruciale ha riguardato la serializzazione e la persistenza dei dati, il cuore del paradigma “Local-First”. Non potendo contare su un backend in ascolto costante, ho dovuto implementare un sistema interno in grado di impacchettare l’intero stato dell’applicazione (nodi di React Flow inclusa la posizione topografica x/y e i collegamenti, dati del Process Passport, definizioni del SIPOC, configurazioni RACI e mappature dei ruoli) all’interno di un unico payload JSON.

L’esportazione è immediata: l’app converte lo store in una stringa e sfrutta le API del browser per farla scaricare come file fisico `nome-progetto.json`. Durante la fase inversa di importazione, è stato necessario inserire dei parser di validazione e di sanitizzazione prima di “idratare” nuovamente lo store di Zustand, per assicurarsi che i vecchi save format fossero compatibili e che eventuali nodi corrotti non facessero crashare l’engine di rendering.

Infine, la User Experience visiva. Creare un canvas pieno di nodi densi di informazioni senza farlo sembrare un foglio Excel caotico ha richiesto molte iterazioni. Abbiamo optato per “badge” minimalisti (pallini colorati) sui nodi per indicare KPI, rischi e controlli, e panel espandibili per le configurazioni RACI, mantenendo così l’interfaccia pulita per l’apprendimento perimetrale ma offrendo dettagli on-demand quando un utente seleziona uno step specifico.

Il Paradigma “Local-First” e le Conclusioni

Creare un’app capace di funzionare offline e che trita dati complessi unicamente lato client (in-browser) risponde a una forte esigenza del mercato moderno: il possesso dei propri dati (Data Ownership). Le aziende, soprattutto i consulenti della Qualità, sanno quanto siano delicati i flussi interni e diffidano dal caricarli su server non verificati. MC Synapse sposa la filosofia in cui “il tuo dato è tuo e resta solo sul tuo schermo”.

Guardando indietro, questo progetto è stato un eccellente banco di prova per spremere al massimo delle mie possibilità combinazioni moderne come Zustand, React Flow e Shadcn/UI all’interno di un’app utility-focused. L’adozione del pattern Local-First si è dimostrata vincente, sia per rimuovere ogni attrito per i nuovi utenti che provano l’app, sia per snellire immensamente i costi infrastrutturali (essenzialmente pari a zero, essendo tutto servito come file statici).

Spero che questa panoramica dietro le quinte vi sia stata utile. Non vi resta che aprire il browser, disegnare il vostro primo flusso e mettere un po’ d’ordine nel caos aziendale.

La tua vita non è straordinaria

Questo è un articolo di Riccardo Scandellari, tratto dalla sua Newsletter (che, mi accorgo adesso, non avere un nome, in totale controtendenza con gli standard; si rivela sempre un genio) nell’edizione del 6/2/2026. Questo testo ha risuonato molto con il mio pensiero, pertanto vorrei ricondividerlo integralmente anche sul mio sito. Skande, se ci sei, batti un colpo – anche per buttarmi giù questa appropriazione indebita!

La tua vita non è straordinaria

Hai mai chiesto alle persone cosa desiderano davvero dalla vita?
La risposta tende quasi sempre a scivolare verso i grandi traguardi. Parlano di riconoscimento pubblico, di ricchezza, di successi professionali evidenti, di libertà totale e di uno status da esibire. È una reazione comprensibile: siamo immersi in una cultura che ci ha insegnato a misurare il valore attraverso l’eccezionalità. Più qualcosa è raro, visibile, amplificabile, più sembra contare.

Ma se cambi prospettiva e fai un’altra domanda, il quadro muta radicalmente. Se agli stessi individui chiedi cosa ricordano con reale emozione a distanza di anni, le risposte si semplificano. Restano pochi elementi essenziali. Un pasto condiviso con gli amici. Un legame sincero. Un’abitudine che dava il senso alle giornate. Quella volta in cui si sono sentiti vivi e felici. È come se, col tempo, la vita si liberasse del superfluo e mostrasse ciò che ha davvero avuto un valore.

// continua a leggere »

Cardux’s Car Toolbox (v1, diciamo)

Introduzione

Tutto è nato da un’esigenza concreta: stavo cercando la mia prossima auto. Come molti, sono partito da Autoscout24. Il portale è ottimo e pieno di filtri, ma mi sono scontrato presto con un limite. I risultati vengono presentati come una lista sequenziale, ottima per scorrere i singoli annunci, ma decisamente poco efficace se l’obiettivo è fare un’analisi di mercato più approfondita.

Analisi del Mercato

Il mio interesse era rivolto in particolare alla Mazda MX-5, un’auto iconica che attraversa quattro generazioni: la NA (1989-1997), la NB (1998-2005), la NC (2005-2015) e la ND (dal 2015 a oggi). Ogni modello ha prezzi che variano non solo in base alla generazione, ma anche all’anno specifico di produzione. Volevo capire, dati alla mano, quale fosse il modello statisticamente più vantaggioso e come si muovessero i prezzi medi sul mercato. In poche parole, volevo trasformare quella lista infinita di annunci in dati aggregati e facili da leggere.

// continua a leggere »

+19

  1. Dawn or midnight?
  2. Ocean or mountain?
  3. Silence or noise?
  4. Order or chaos?
  5. Heat or cold?
  6. Building or dismantling?
  7. Depth or speed?
  8. Solitude or intensity?
  9. Sharp edges or smooth curves?
  10. Truth or harmony?
  11. Holding or releasing?
  12. Pressure or freedom?

La Sindrome dell’Impostore

Avere successo e, al tempo stesso, sentirsi un bluff. Quante volte, dopo un traguardo importante, una vocina interiore sussurra: “Non me lo merito, sono solo fortunato” oppure “Prima o poi scopriranno che non sono all’altezza”? Se queste sensazioni suonano familiari, potresti aver sperimentato quella che in psicologia viene chiamata sindrome dell’impostore. Si tratta di un fenomeno sorprendentemente comune – alcune stime suggeriscono che fino al 70-80% delle persone proverebbero questi sentimenti almeno una volta nella vita – e può colpire chiunque, dagli studenti ai professionisti affermati. In questo articolo esamineremo in profondità cos’è la sindrome dell’impostore dal punto di vista psicologico, quali sono le sue cause e manifestazioni, il suo impatto sul benessere (specie per le donne in ambito lavorativo), le differenze di genere, i dati disponibili e i diversi “profili” psicologici in cui si può declinare. Vedremo inoltre esempi concreti e strategie efficaci per affrontarla, senza dimenticare alcune considerazioni pratiche per manager e aziende. L’obiettivo è fare chiarezza su questo fenomeno, per capire come riconoscerlo e superarlo, sia a livello individuale sia organizzativo.

Che cos’è la sindrome dell’impostore?

La sindrome dell’impostore (in inglese impostor syndrome o impostor phenomenon) è una condizione psicologica in cui persone anche molto competenti e di successo sono convinte, intimamente, di essere incompetenti o fraudolente. Chi ne soffre dubbia costantemente delle proprie capacità e attribuisce i risultati ottenuti a fattori esterni, come la fortuna, il caso o l’aiuto altrui, piuttosto che al proprio merito. Questo genera la paura persistente di essere “smascherati” come impostori, nonostante le evidenze di competenza dicano il contrario. È importante notare che non si tratta di un vero e proprio disturbo clinico: la sindrome dell’impostore non compare nei manuali diagnostici come il DSM-5 e non è considerata una patologia mentale, bensì un’esperienza psicologica diffusa. In un certo senso, è l’opposto del ben noto Effetto Dunning-Kruger (magari materiale per un altro articolo, in futuro…): mentre quest’ultimo porta persone con scarse competenze a sovrastimarsi, la sindrome dell’impostore fa sì che persone molto capaci si sottostimino sistematicamente.

// continua a leggere »