Technopolis 69

Page 1


STORIE DI ECCELLENZA E INNOVAZIONE

UN FUTURO DIGITALE DA COSTRUIRE

Infrastrutture, ma anche competenze e lavoro: dopo il capitolo PNRR, l'Italia entra in una nuova fase di (necessaria) trasformazione

QUANTUM COMPUTING

La nuova rivoluzione promessa, che non potrà fare a meno del cloud.

INSURTECH

Il mercato delle soluzioni informatiche per il settore assicurativo spalanca le porte all’AI.

SPECIALE HEALTHCARE

Tecnologie, dati, privacy, persone: le sfide da vincere per la sanità italiana.

19-20 novembre 2025

STORIE DI ECCELLENZA E INNOVAZIONE

N° 69 - OTTOBRE 2025

Periodico mensile registrato

presso il Tribunale di Milano al n° 378 del 09/10/2012

Direttore responsabile:

Emilio Mango

Coordinamento:

Valentina Bernocco

Hanno collaborato:

Camilla Bellini, Roberto Bonino, Giancarlo Calzetta, Gianluca Dotti, James Hughes, Andrea Tinti, Elena Vaciago

Foto e illustrazioni: Freepik, Pixabay, Unsplash, Shutterstock

Editore e redazione:

Indigo Communication Srl Via Ettore Romagnoli, 6 - 20146 Milano tel: 02 499881

Pubblicità:

TIG - The Innovation Group Srl tel: 02 87285500

Stampa: Ciscra SpA - Arcore (MB)

© Copyright 2024

The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati.

Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.

Pubblicazione ceduta gratuitamente.

4

STORIA DI COPERTINA

Una scommessa sul futuro

Nuvola tricolore in espansione

Enti locali alla prova del nove

12 SOVRANITÀ DIGITALE

Il manifesto del fallimento della globalizzazione

Un momento difficile, nascosto dall’invasione cinese

L’Europa, il cloud e la montagna impossibile da scalare

16 IN EVIDENZA

L’interscambio è resilienza

AI e servizio clienti: attenzione alle “trappole”

Il valore (anche invisibile) del procurement

Non trasformazione, ma transizione digitale

Agritech italiano per le sfide climatiche

Erp e intelligenza artificiale, un incontro fruttuoso

Il digitale entra in negozio 26

QUANTUM COMPUTING

Cloud, la scorciatoia per la prossima rivoluzione

L’incontro tra due mondi

30 SPECIALE HEALTHCARE

Fra dati, tecnologie e collaborazione

Tecnologie e progetti di trasformazione

40 INSURTECH

Personalizzazione, automazione e azione

L’innovazione è assicurata

44

CYBERSECURITY

Il cambiamento è la costante

46 ECCELLENZE

Azienda Trasporti Milanesi

Agos

Vetri Speciali

Gruppo Morellato

50 APPUNTAMENTI

UNA SCOMMESSA SUL FUTURO

Il lavoro, il welfare, i servizi pubblici, la competitività

nello scacchiere internazionale: gli investimenti in digitale sono un passaggio obbligato per il nostro Paese.

Il mercato digitale è oggi un sorvegliato speciale. Le tecnologie dell’informatica e delle telecomunicazioni – da strumenti a supporto dell’efficienza o, al più, dei modelli di business delle aziende – sono diventate un pilastro essenziale nei meccanismi di crescita e competitività degli Stati e dei territori. Il ritorno della guerra ai confini dell’Unione Europea e il rafforzamento delle tensioni commerciali e politiche tra grandi potenze, in primis Stati Uniti e Cina, danno evidenza di un ruolo centrale del digitale nell’influenzare lo svolgimento bellico e gli scontri commerciali. Ma

non solo: i Paesi europei, e in particolare l’Italia, si trovano oggi ad affrontare una serie di sfide e trasformazioni critiche, in cui il digitale offre strumenti per mitigare o contrastare i possibili risvolti e impatti negativi. Il calo demografico, la trasformazione del mercato del lavoro e dell’impiego pubblico sono tendenze ormai in atto, che sempre più nei prossimi anni mostreranno i loro effetti sulla struttura, sull’organizzazione e sulla capacità di generare valore del Paese: il digitale, e in particolare l’intelligenza artificiale, può indubbiamente diventare un elemento rilevante all’interno di una strategia che

richiede però, più in generale, una complessa attività di ripensamento e riorganizzazione. Questi temi trovano maggior approfondimento all’interno della decima edizione del rapporto annuale di TIG – The Innovation Group, Digital Italy 2025 – Liberare il potenziale dell’innovazione, edito da Maggioli Editore: un lavoro che raccoglie, oltre alle analisi dei ricercatori e dei giornalisti di TIG, le prospettive e i punti di vista di esperti, manager e accademici sulle sfide di un Paese sempre più digitale (alcuni estratti del volume sono riportati nelle pagine di questa cover story).

Pilastro di competitività

Il 2024 può essere considerato un anno di svolta per l’Europa: in un contesto geopolitico ed economico sempre più

complicato, la presentazione di due rapporti alla Commissione Europea (quello di Mario Draghi sulla competitività e l’innovazione e quello di Enrico Letta sul futuro del Mercato Unico Europeo) ha evidenziato le sistematiche debolezze dell’Unione – soprattutto in termini di capacità di innovazione e conseguentemente di competitività – e i diversi fronti su cui agire per invertire la rotta nei prossimi anni. In queste proposte, il digitale non ha un ruolo di secondo piano: è un elemento cardine del piano di intervento. Questo è evidente anche all’interno della strategia del nuovo mandato della presidente delle Commissione Europea, Ursula von der Leyen, presentata a gennaio 2025, la cosiddetta “bussola per la competitività”, che fa proprie le indicazioni dei due italiani: in questo documento, l’ambito delle tecnologie digitali diviene terreno d’azione per colmare il gap d’innovazione che rischia di indebolire la competitività e quindi la crescita del Vecchio Continente. In questo contesto, particolare rilevanza viene riconosciuta alle tecnologie più innovative, come intelligenza artificiale e quantum computing, tra gli ambiti in cui l’Unione Europea può ancora trovare spazio per ribadire il proprio ruolo nel contesto globale.

La strada del dual-use

Anche la sicurezza e la difesa nazionale e sovranazionale sono ormai sempre più dipendenti dalle tecnologie e innovazioni dell’informatica. Droni e dispositivi a guida autonoma, algoritmi e Big Data a supporto dell’intelligence militare, la disinformazione online e gli attacchi informatici sono ormai diventati fattori distintivi e di rilievo nelle strategie di difesa e negli scontri tra Stati. In questo contesto, a livello europeo ha acquistato rilevanza il tema delle tecnologie dualuse, ossia utilizzabili in ambito sia civile sia militare: investimenti in queste aree avrebbero il potenziale di promuovere lo

“Le prospettive dell’economia italiana per il biennio 2025-2026 indicano una crescita moderata ma vulnerabile, sostenuta dalla domanda interna, dal PNRR e da un contesto finanziario in graduale miglioramento. Tuttavia, i rischi al ribasso restano elevati e spaziano da shock esterni a fragilità strutturali non ancora risolte. La qualità della risposta di policy – in termini di attuazione delle riforme, credibilità fiscale e orientamento degli investimenti – sarà determinante per tracciare un percorso sostenibile di crescita nel medio periodo”.

De Felice

sviluppo di infrastrutture per la sicurezza europea, e al contempo di rafforzare asset rilevanti per la competitività delle imprese e dell’industria. Possono essere considerate tecnologie digitali dual-use la connettività satellitare, l’intelligenza artificiale, la robotica, i droni e le soluzioni di cybersicurezza. Appare però evidente che lo sviluppo di un sistema di difesa europeo richieda un approccio coordinato e “affidabile”, anche negli investimenti in digitale: non abbiamo bisogno di nuovi silos ma di soluzioni interoperabili, che tengano conto anche degli aspetti di sovranità tecnologica per assicurare l’indi-

pendenza e la sicurezza di questi sistemi. D’altra parte, il tema degli investimenti in difesa richiede un’attenta disamina, in particolare in termini di peso sul budget di spesa per il welfare. Se in passato la riduzione degli investimenti in difesa ha consentito all’Europa di liberare risorse da rivolgere verso aree di diretto impatto sulla vita dei cittadini (come la sanità e l’istruzione), occorre oggi comprendere come, ragionando in logica dual-use, si possa effettivamente supportare la spesa in digitale senza intaccare in modo significativo gli investimenti in aree essenziali per il welfare.

“La strategia dual-use non è un ripiego, ma la più potente leva strategica per l’Europa per affrontare la duplice sfida della sicurezza e della competitività. Trasforma un onere percepito (la spesa militare) in una straordinaria opportunità di investimento (l’innovazione tecnologica), ricomponendo la frattura tra le esigenze dello Stato e le priorità dei cittadini”.

“Il futuro del lavoro nell’era dell’AI dipenderà da scelte collettive. Non si tratta solo di preparare i lavoratori al cambiamento, ma di decidere quale cambiamento vogliamo. La tecnologia può rendere il lavoro più produttivo, più dignitoso, più umano, ma solo se guidata da valori e istituzioni all’altezza della sfida”.

Marco Leonardi, professore ordinario di Economia dell’Università degli Studi di Milano

“La trasformazione digitale del Paese è un processo che va ben oltre l’introduzione di nuove tecnologie. Si tratta di una trasformazione culturale e organizzativa, che coinvolge tutti i livelli della Pubblica Amministrazione. L’Agenzia per l’Italia Digitale (AgID) ha un ruolo centrale nel garantire coerenza, visione strategica e continuità in un percorso che ha l’obiettivo di rendere il digitale una leva per la modernizzazione del settore pubblico, per la semplificazione della vita di cittadini e imprese e per lo sviluppo sostenibile”.

Mario Nobile, direttore generale di AgID

“L’infrastruttura digitale europea che si sta costruendo –fondata su competenze, principi valoriali, supercalcolo, intelligenza artificiale, cloud, edge e quantum computing – costituisce il pilastro di un ecosistema capace di generare innovazione, competitività e impatto sociale su scala continentale. Il ruolo dell’Italia è centrale”.

Arnaud Ceol, technical project manager, e Davide Salomoni, innovation manager di Fondazione Icsc

Sfide demografiche e lavorative Oggi i Paesi dell’Unione (e l’Italia in particolare) devono fronteggiare, oltre a una situazione geopolitica e internazionale non facile, anche rilevanti sfide interne, i cui impatti saranno determinanti nei prossimi decenni. Una questione particolarmente critica per il futuro del Paese, che richiede analisi e interventi, riguarda la trasformazione demografica e in particolare l’aumento della popolazione anziana a discapito delle fasce più giovani, con una conseguente trasformazione della società e del lavoro: meno scuole, maggiore attenzione a temi di assistenza sanitaria e long term care, riduzione della forza lavoro e un generale rischio di perdita di produttività e competitività. Verrà influenzato da queste dinamiche anche l’impiego pubblico, sia in quanto erogatore di servizi la cui domanda è in trasformazione, sia in quanto datore di lavoro in un mercato in cui la popolazione attiva va sempre più restringendosi. È un tema, d’altra parte, estremamente complesso e che ha implicazioni sul più ampio sviluppo della società e dell’economia. In questo senso, nelle strategie per la crescita del Paese, per colmare i cali già previsti e indirizzare politiche e iniziative a supporto della natalità, è da attenzionare l’idea di puntare sull’occupazione femminile e sui Neet, ovvero le persone Not in Education, Employment or Training, che non studiano né lavorano né seguono percorsi di aggiornamento professionale.

Verso il “post-digitale”

Il quadro dei cambiamenti non riguarda, d’altra parte, solamente aspetti economici e sociali che vedono nel digitale un elemento di trasformazione o soluzione. La stessa tecnologia non è immutabile, ma evolve e apporta al contesto in cui si inserisce ulteriori funzionalità e possibilità. Negli ultimi anni, l’evoluzione dell’informatica ha abbracciato paradig-

mi quali il cloud computing e il mobile, che hanno trasformato radicalmente le modalità di accesso e fruizione di applicazioni, risorse IT e dati. Così sono nati modelli di business innovativi, differenti abitudini di lavoro e anche nuovi sistemi economici. Oggi la sfida si sposta su una nuova frontiera: l’intelligenza artificiale consente di agire sull’informazione e sulla conoscenza in modi prima non ipotizzabili, se non in scenari distopici. I supercomputer (cioè i sistemi di calcolo ad alte prestazioni, High Performance Computing) e il quantum computing promettono di elevare esponenzialmente la capacità di calcolo delle infrastrutture informatiche, liberando nuova conoscenza e nuove possibilità dai dati stessi. Rispetto allo sviluppo di queste tecnologie emergenti, l’Europa e l’Italia stanno cercando un proprio ruolo, investendo nelle gigafactory dell’AI e in supercomputer. Realtà come Dama (il Tecnopolo Data Manifattura Emilia-Romagna di Bologna) e grandi aziende come Eni stanno investendo in questi ambiti, per abbracciare la nuova sfida quantistica e del supercalcolo.

Infrastrutture materiali e immateriali Affinché tutti gli elementi che ruotano oggi intorno al digitale – alimentandosene e alimentandolo – convergano verso l’obiettivo di una maggiore crescita e sostenibilità della società e dell’economia europea e italiana, occorrono strategie di governo e di sviluppo delle infrastrutture (materiali e immateriali) coerenti. Investire in connettività e in data center diventa un elemento di particolare attenzione, specie rispetto alla necessità di assicurare sempre più l’indipendenza e autonomia dei territori nel contesto digitale, con il dibattuto tema della sovranità tecnologica. In uno scenario in cui la connettività diventa ibrida, integrando nuove reti e player del satellitare, in cui i data center devono trovare il proprio ottimo in termini di sviluppo per evitare sprechi di suolo e di risorse energetiche e naturali, occorre realizzare coerentemente le infrastrutture immateriali pubbliche in grado di abilitare in modo sicuro la

crescita di un’economia digitale. Da un paio di anni si parla con sempre maggiore interesse delle cosiddette digital public infrastructure, che l’Undp, il Programma delle Nazioni Unite per lo Sviluppo, definisce come “un insieme di sistemi digitali condivisi, sicuri e interoperabili, che possono essere costruiti su standard aperti e promuovere l’accesso ai servizi per tutti”. In questo ambito l’Italia ha assunto, anche grazie al supporto dei fondi del PNRR, una posizione di rilievo sia per quanto riguarda lo sviluppo dell’identità digitale (con il sistema Spid e la Carta di Identità Elettronica) e i pagamenti digitali (pagoPA), sia in termini di interoperabilità e valorizzazione dei dati pubblici (con la Piattaforma Digitale Nazionale Dati e l’app IO). Occorre, tuttavia, far sì che tutti questi elementi continuino a svilupparsi lungo una direttrice comune: solo così il nostro Paese potrà prepararsi ad affrontare il futuro.

Camilla Bellini

NUVOLA TRICOLORE IN ESPANSIONE

La domanda di servizi cloud per le aziende spinge il mercato italiano, mentre sorgono nuovi data center.

Una grande accelerazione: il mercato del cloud computing italiano sta vivendo una fase di questo tipo, che lo porta a distinguersi nel panorama europeo per la dinamicità, l’entità degli investimenti e il numero di nuovi data center. Nel 2024, secondo Banca d’Italia, oltre il 60% delle aziende italiane da almeno dieci dipendenti utilizzava servizi cloud: un dato che colloca il nostro Paese sopra la media europea con una differenza di circa 20 punti percentuali, in base a dati Eurostat. Rimaniamo, tuttavia, sotto le punte massime di Paesi nordici come Finlandia (78%), Svezia (72%), Norvegia

(71%) e Danimarca (70%). Le stime di TIG – The Innovation Group prefigurano una forte espansione di questo settore in Italia nei prossimi anni. Nel 2024 il mercato aveva raggiunto un valore di 8,3 miliardi di euro, con un incremento del 18% rispetto all’anno precedente, mentre per il 2025 si stima un valore di 9,6 miliardi di euro. Si prevede, poi, che il giro d’affari raggiungerà i 12,3 miliardi entro il 2027, con un tasso annuo composto di crescita nel periodo 2024-2027 superiore al 15%. La tendenza positiva riguarda tutte le componenti e in particolare il cloud infrastrutturale (Infrastructure as-aService; IaaS), oggi spinto anche dalla domanda di risorse performanti per gli sviluppi AI, e che si prevede smuoverà un giro d’affari di 7,6 miliardi di euro nel 2027. Il cloud applicativo (Software as-a-Service, SaaS) crescerà invece fino a un valore di 4,7 miliardi di euro nel 2027.

I motori della crescita

Le aziende adottano sempre più strategie multi-cloud e ibride (che integrano cloud pubblico, privato e sistemi legacy di differenti fornitori) per ridurre la dipendenza dal singolo provider, per mitigare i rischi e per massimizzare la flessibilità operativa. Le grandi imprese, in particolare, dimostrano un’elevata fiducia per il cloud: l’84% di esse ha “migrato” in toto o in parte i dati critici del core business, secondo l’Osservatorio Cloud Transformation del Politecnico di Milano. La robusta crescita del mercato nostrano è alimentata da una combinazione di fattori strategici e operativi. Da un lato, le imprese italiane riconoscono al cloud la capacità di aiutare a restare competitivi, grazie a infrastrutture sempre disponibili, all’automazione, alla rapidità con cui l’offerta dei provider introduce servizi innovativi come quelli legati al mondo dell’AI. Dall’altro lato, il cloud diventa indispensabile per supportare i nuovi sviluppi in area Big Data e

UNA TECNOLOGIA BEN RADICATA

Il cloud computing è ancora una delle forze trainanti nel più ampio mercato dell’Ict italiano. Secondo i dati del report 2024 di Assintel-Confcommercio, realizzato in collaborazione con TIG – The Innovation Group e Istituto Ixé, la quota di piccole e medie imprese che nel 2024 avevano già adottato strutturalmente soluzioni cloud è pari al 68%. Gli utilizzi sono ampi e trasversali e in particolare il cloud è funzionale all’adozione dell’intelligenza artificiale (sia lo sviluppo di soluzioni customizzate tramite Platform as-a-Service, sia la semplice fruizione di Softwareas-a-Service) e alle attività di sviluppo, test ed esecuzione di applicazioni basate su architetture a microservizi. Secondo l’ultimo “Enterprise Cloud Index” di Nutanix (interviste condotte da Vanson Bourne nell’autunno del 2024 su 1.500 responsabili IT, di DevOps e platform engineering di aziende di diversa dimensione, settore e area geografica), il 71% delle aziende italiane necessita di modernizzare la propria infrastruttura IT per far funzionare meglio le applicazioni cloud-native.

intelligenza artificiale. La raccolta di Big Data, basata sulla consapevolezza del valore strategico delle informazioni nel contesto competitivo attuale, unita a un’adozione sempre più estesa di applicazioni basate su AI e strumenti analitici avanzati, sta facendo crescere la domanda di infrastrutture cloud capaci di gestire grandi volumi di dati e di garantire una potenza di calcolo elevata. L’AI è considerata per i prossimi anni il maggiore abilitatore di crescita del cloud in Italia.

A tutto ciò, come motori di crescita della domanda, si aggiungano gli incentivi e le iniziative legate a norme e regolamenti. Il Piano Nazionale di Ripresa e Resilienza (PNRR) stanzia fondi per la migrazione al cloud delle pubbliche amministrazioni, con l’obiettivo di modernizzare i servizi digitali e garantire maggiore sicurezza e affidabilità. Gli stanziamenti previsti, suddivisi tra due misure del piano (“Infrastrutture digitali” e “Abilitazione e facilitazione migrazione al cloud”) ammontano a 1,9 miliardi di euro e stanno spingendo nelle aziende l’adozione di soluzioni cloud. Sempre nell’ambito del Pnrr, 280 milioni di euro servono invece alla migrazione di dati e servizi degli enti pubblici verso il Polo Strategico Nazionale (Psn), con un avviso specifico per le Pubbliche amministrazioni centrali. A tutto ciò si aggiungono finanziamenti privati: Intesa Sanpao-

lo, UniCredit, Cassa Depositi e Prestiti, Banco Bpm e Bper, con il supporto della Banca Europea per gli Investimenti (Bei), hanno stanziato oltre 200 milioni di euro. Ulteriori risorse sono state stanziate per favorire la migrazione al cloud di tutti i Comuni italiani. Anche aspetti come sicurezza, conformità a vecchi e nuovi regolamenti (Gdpr, Nis2 e Dora) e sovranità dei dati, oggi cruciali per imprese e pubblica amministrazione, favoriscono la migrazione verso ambienti cloud qualificati e le partnership con fornitori di fiducia.

I data center dello Stivale

Nel biennio 2023-2024 gli investimenti in data center nel nostro Paese hanno superato i 5 miliardi di euro. La Italian Datacenter Association (Ida) ha affermato a inizio di quest’anno che diversi progetti sono già in fase di avvio, per un valore totale di 15 miliardi di euro, con termine dei lavori previsto entro il 2028. A settembre 2025, come riporta la DataCenterMap, l’Italia conta 204 infrastrutture di elaborazione dati da oltre 300 MW di potenza, posizionandosi come il quarto Paese europeo dopo Regno Unito, Germania e Francia, e prima di Paesi Bassi e Spagna. Milano e la Lombardia guidano il settore, con rispettivamente 74 e 85 data center, mentre nel Meridione spicca il ruolo della Puglia, favorita dalla disponibilità di rinnovabili e da una mag-

giore presenza di società tecnologiche. L’espansione della domanda di servizi cloud in Italia sta avendo un impatto diretto e significativo sulla creazione di nuovi data center localizzati sul territorio nazionale. L’aumento della domanda, infatti, spinge sia i provider globali (come Amazon, Microsoft, Google, Equinix, Oracle e Vantage) sia quelli locali (come Aruba e Seeweb) a investire nella costruzione di nuove infrastrutture collocate materialmente in Italia.

Lo scorso ottobre, durante un incontro di Assolombarda, il ministro delle imprese e del made in Italy, Adolfo Urso, ha sottolineato l’importanza che il nostro Paese, in quanto membro del G7 posizionato nel Mediterraneo, potrà acquisire favorendo gli interscambi dell’economia digitale tra nazioni e continenti. Oltre alla spinta della domanda, ci sono fattori che rendono lo Stivale attrattivo per la realizzazione di nuovi data center: come la disponibilità di grandi aree industriali dismesse, i collegamenti ai cavi marittimi e alla dorsale terrestre e una fornitura affidabile di energia da fonti rinnovabili. La posizione geografica rafforza il ruolo dell’Italia come hub digitale nel Mediterraneo, anche grazie allo sviluppo di nuove dorsali e cavi sottomarini che la collegano ai mercati europei, al Medio Oriente e al Nordafrica. Elena Vaciago

ENTI LOCALI ALLA PROVA DEL NOVE

Quanto e come saranno sostenibili nel lungo periodo, nel “post PNRR”, i progetti digitali avviati sul territorio?

Il 2026 sarà un anno importante per il processo di trasformazione digitale delle pubbliche amministrazioni italiane: con la chiusura del capitolo del Piano Nazionale di Ripresa e Resilienza e, di conseguenza, con l’esaurirsi dei fondi che hanno supportato molte iniziative digitali in ambito pubblico, gli enti si devono interrogare su come affrontare quello che viene spesso chiamato il “post PNRR”. Dovranno farlo per assicurare la sostenibilità anche nel medio-lungo periodo dei progetti intrapresi. Alcuni spunti di riflessione su come gli enti pubblici, in particolare quelli locali, si stanno apprestando alla sfida emergono dalla rilevazione annuale che TIG – The Innovation Group e Gruppo Maggioli conducono per monitorare il sentiment e lo sviluppo del digitale sul territorio italiano: quest’anno la nostra “Indagine sulla transizione digitale nella PA locale” – i cui risultati verranno presentati nel dettaglio a novembre all’interno della decima edizione del rapporto annuale “Digital Italy”, curato da TIG ed edito da

Maggioli Editore – si sofferma sul punto di vista di Comuni, Unioni di Comuni, Città Metropolitane e Province sul territorio italiano, attraverso le risposte (raccolte tra giugno e luglio di quest’anno) di 476 rappresentanti di in questi enti.

Un impatto innegabile

Dall’indagine emerge che l’impatto del PNRR sugli enti locali della Pubblica Amministrazione è un dato di fatto: se si considerano le aree in cui si sono concentrati i progetti nell’ultimo anno, il 66% degli intervistati dichiara di aver visto la propria organizzazione focalizzarsi su iniziative di adozione di piattaforme digitali pubbliche, come l’identità digitale, pagoPA, l’app IO o Send (Servizio Notifiche Digitali); il 63% sull’aggiornamento della propria infrastruttura e sulla migrazione al cloud; il 37% sull’integrazione di dati e servizi. Ambiti, dunque, che rientrano nell’area di intervento promossa tramite il PNRR.

Anche di fronte a domande dirette sul peso dei finanziamenti del Piano nelle

fasi di avvio e sviluppo di progetti digitali, il 90% degli intervistati sostiene abbiano avuto un ruolo importante o fondamentale. Inoltre, rispetto all’edizione dello scorso anno della stessa indagine, è cresciuta la percentuale di chi ritiene questi finanziamenti molto o estremamente efficaci per la trasformazione digitale del proprio ente: dal 30% al 35%. La categoria di chi li ritiene “estremamente efficaci” cresce in modo particolare, passando dal 5% al 9%. In sintesi, dunque, la maggior parte dei rispondenti rafforza la prospettiva sull’utilità ed efficacia di questi fondi per lo sviluppo di una Pubblica Amministrazione digitale.

Il nodo delle competenze

Se questa è l’opinione comune, e quindi si guarda positivamente al cammino intrapreso, d’altro canto solo un intervistato su quattro dichiara che il proprio ente si è già attivato per affrontare il tema della gestione post PNRR dei progetti digitali in essere; uno su cinque ammette di non stare affrontando il tema, mentre circa uno su due non è a conoscenza dei piani del proprio ente. È evidente, quindi, come questo argomento resti dibattuto e come ben lontano sia l’effettivo de-

I focus dei progetti digitali

Adozione piattaforme digitali pubbliche

Aggiornamento infrastruttura e migrazione cloud

Dematerializzazione

e servizi

TIG – The Innovation Group e Gruppo Maggioli, “Indagine sulla transizione digitale nella PA locale 2025”. Base: tutti i rispondenti (476). Risposta alla domanda: “Negli ultimi 12 mesi, in quali aree si sono concentrati i progetti digitali all’interno del suo Ente?”; possibili più risposte, primi cinque esposti.

Iniziative per la gestione post PNRR

CHI SI È ATTIVATO

Come il suo Ente si è attivato per affrontare la gestione post PNRR dei progetti digitali avviati?

Attivazione di programmi di formazione

Reperimento di risorse economiche alternative

Ripensamento e rivalutazione dei progetti

Creazione di un fondo interno per il mantenimento dei progetti

Sviluppo di modelli innovativi di sourcing

Stiamo cercando di capire come agire, ma ci sono azioni concrete

CHI NON SI È ATTIVATO O NON SA

Come il suo Ente dovrebbe attivarsi per affrontare la gestione post PNRR dei progetti digitali avviati?

TIG – The Innovation Group e Gruppo Maggioli, “Indagine sulla transizione digitale nella PA locale 2025”. Base: a sinistra, chi si è attivato (100), a destra, chi non si è attivato o non sa (288). Domande a risposta multipla.

linearsi di una exit strategy condivisa, di un piano di gestione oltre l’orizzonte del prossimo anno. Questa interpretazione è confermata anche da chi, in realtà, dichiara una qualche forma di attivazione: tra questi, uno su quattro si è già mosso in qualche modo, ma non ha ancora individuato azioni concrete per gestire questo aspetto. Quali possono essere, d’altra parte, gli strumenti e le iniziative per affrontare il “dopo PNRR”? Indubbiamente quella della formazione resta una

strada condivisa, sia tra i più consapevoli sia tra chi non si è attivato (o non sa). Il tema del post PNRR si innesta infatti su un dibattito – parimenti rilevante – che riguarda il futuro dell’impiego pubblico, delle sue numeriche e delle sue competenze, in particolare in ambito digitale: se da un lato verranno meno le risorse economiche che hanno permesso di fare anche maggiore affidamento su competenze esterne, come potranno strutture già in carenza di personale specializzato

gestire internamente le iniziative di trasformazione digitale? Per questo si vuole o si vorrebbe investire in formazione, per rafforzare le competenze interne necessarie per supportare e sviluppare ulteriormente le progettualità già avviate.

Tra ripensamenti e consapevolezza

Emerge però un punto di attenzione: tra i rispondenti che si sono attivati per gestire il PNRR, uno su cinque ammette di essere in fase di ripensamento o di rivalutazione dei progetti digitali in corso. Dunque il rischio di assistere a “passi indietro” nei percorsi di digitalizzazione degli enti locali esiste, benché in una quota limitata rispetto alle iniziative che proseguono in avanti, tese a rafforzare le competenze interne o a reperire risorse economiche alternative. Per gli intervistati, quindi, l’intervento del PNRR per il supporto a percorsi di trasformazione digitale all’interno degli enti locali ha avuto e sta avendo un ruolo rilevante ed efficace rispetto agli obiettivi posti. La preoccupazione rispetto alla gestione di queste iniziative e alla loro sostenibilità dopo il 2026 emerge però tra le righe, dove per lo più, consapevolmente o inconsapevolmente, si fa fatica a trovare una risposta comune per affrontare i prossimi anni. Quello che è certo è che occorrono competenze, e non è una sorpresa: con l’apprestarsi della chiusura di un capitolo significativo per la digitalizzazione degli enti locali, e con l’affacciarsi nel panorama digitale di tecnologie sempre più dirompenti e trasformative (si pensi all’intelligenza artificiale), diventa quanto mai rilevante promuovere lo sviluppo non solo di una cultura digitale, ma di competenze specialistiche in grado di valorizzarla al meglio. Solo così gli enti della Pubblica Amministrazione locale potranno restare attori attivi e consapevoli nei percorsi di digitalizzazione intrapresi.

IL MANIFESTO DEL FALLIMENTO DELLA GLOBALIZZAZIONE

Schiacciata fra le tecnologie (e le regole) di Stati Uniti e Cina, l’Europa deve trovare una terza via.

C’è stato un momento in cui l’ottimismo regnava sovrano e si pensava che la Terra intera dovesse veleggiare verso lo sviluppo di una sola, grande comunità, magari ispirata al mondo fantascientifico di Star Trek, con un singolo governo a livello planetario e un’unica popolazione sparsa sui vari continenti. Purtroppo, le cose non sono andate così. Dopo il crollo del muro di Berlino, dall’enorme valore simbolico per l’abbattimento delle divisioni tra nazioni e popoli, l’ingresso della Cina nel WTO rievocò nelle menti di molti la scoperta delle Americhe: enormi praterie di mercati da sviluppare e trasformare in oro. In effetti, da quel lontano 2001 il valore del PIL del colosso asiatico è cresciuto enormemente, ma la sua integrazione è rimasta marginale.

Un commercio meno libero

La Cina ha usato la manodopera a basso costo per attirare capitali enormi, per decuplicare le proprie capacità e… iniziare a ripiegarsi su sé stessa. Già da diversi anni il Dragone ha dimostrato una poco ammirevole vocazione per la raccolta di proprietà intellettuali tramite mezzi poco leciti e nelle ultime settimane siamo arrivati a una chiusura molto spinta in diversi ambiti. Stati Uniti limitano il commercio di chip di ultima generazione e la Cina smette di comprare quelli (in primis, di Nvidia) dedicati all’AI perché ormai è sulla buona strada per raggiungere una sorta di autonomia nella produzione di acceleratori costruiti in casa (sempre ringraziando qualche “manina d’oro” che ha recuperato progetti e altri segreti che ne hanno accelerato lo sviluppo produt-

tivo). Dei ban più o meno incrociati nel settore delle telecomunicazioni si è detto fin troppo e, in generale, ormai si guarda con discreto sospetto qualsiasi prodotto cinese, sapendo che i dati conservati su questi dispositivi arriveranno “in qualche modo” fino alle orecchie del partito.

Il vantaggio statunitense

Per fortuna, l’occidente può contare sui vari Stati che da anni lavorano insieme come alleati, giusto? In realtà, già in passato questa alleanza non sembrava brillare, ma con l’arrivo di Donald Trump alla Casa Bianca la situazione è diventata davvero traballante. Gli Usa hanno sviluppato un vantaggio tecnologico in ambito informatico davvero molto forte (ne parliamo anche a pagina 15): i giganti del cloud sono tutti americani, così come i pochi grandi produttori di hardware informatico non cinesi, e anche le grandi software house di servizi software provengono dagli States. E

CYBERSICUREZZA: LA DIPENDENZA TECNOLOGICA DA SPEZZARE

Come ridurre la dipendenza tecnologica nella cybersicurezza? Ovvero come scegliere fornitori e soluzioni informatiche in modo da limitare il più possibile problemi imprevedibili di supply chain (come interruzioni, dazi e rialzi di prezzi) e rischi di sicurezza (come il cyberspionaggio e l’ingerenza di governi esteri)? L’Europa e l’Italia hanno i mezzi tecnologici e, soprattutto, le infrastrutture necessarie per poter diventare più indipendenti? A queste e altre domande cercherà di rispondere la conferenza “Sovranità digitale e cybersecurity”, il primo evento di TIG–The Innovation Group specificamente dedicato a questo tema. Un tema, purtroppo, rimasto sottovalutato per anni ma su cui oggi, sempre più, le aziende devono confrontarsi, anche alla luce del contesto geopolitico ed economico internazionale. L’evento, in programma il 2 dicembre nella sede di Cefriel a Milano (in viale Sarca, 226), proporrà keynote, sessioni tematiche, panel con esperti e workshop pratici. Si parlerà di strategie per la sovranità digitale, delle normative europee in materia, dei pericoli legati all’intelligenza artificiale e alle catene di fornitura, ma anche di come dribblare il rischio di una eccessiva “chiusura tecnologica”.

sono tutte aziende sottoposte a un duro controllo dalla nuova amministrazione. Intendiamoci: le leggi americane hanno sempre previsto la possibilità di accedere ai dati in mano alle aziende statunitensi anche se in sedi all’estero. Ma l’audizione dello scorso luglio, davanti a una commissione del Senato francese, in cui un rappresentante di Microsoft dichiarava di non poter garantire la riservatezza dei dati europei, in quanto sarebbe obbligato a trasmetterli all’estero dietro richiesta della casa madre, ha fatto suonare molti campanelli d’allarme. Campanelli che, in realtà, erano silenti solo per chiara volontà di chi non voleva sentirli suonare dal momento che la legislazione statunitense in materia è sempre stata piuttosto chiara. Ma adesso c’è di più: c’è Trump. La nuova amministrazione, infatti, non si è mai fatta scrupolo di utilizzare mezzi coercitivi poco eleganti contro Stati alleati e non, trattandoli in modo molto simile. Gli esempi più lampanti sono quelli del-

le armi a sostegno di alcune zone “calde” del mondo. Abbiamo assistito a scene impensabili nei confronti dell’Ucraina e, recentemente, il governo statunitense si è rimangiato la parola su degli aiuti militari per Taiwan che erano già stati stanziati. Questo lungo preambolo serve a giungere a una domanda: se gli Usa hanno dimostrato di poter giocare a dadi con la sicurezza nazionale di Stati alleati, quanto tempo passerà prima di vederli usare la loro supremazia tecnologica per ottenere più vantaggi economici? Che cosa accadrà quando, nonostante tutte le rassicurazioni che i colossi americani stanno dando ai loro clienti, un ordine esecutivo li costringerà a triplicare i prezzi o sospendere i servizi? È uno scenario remoto? Certo, ma non più remoto di quanto, nelle nostre menti di europei, il pensare di assistere a un presidente americano che definisce un “affare immobiliare” un’operazione militare nella Striscia di Gaza.

La sovranità necessaria

Così si arriva alla necessità della sovranità tecnologica: una serie di iniziative che raccontano quanta poca fiducia sia rimasta nella globalizzazione. Trump non sarà rieletto, ma le cose sono ormai cambiate per sempre: l’Europa deve trovare un modo tutto suo di sviluppare tecnologia ed è indietro. Molto indietro. Le prime cose da fare sono capire in che direzione andare; quali eccellenze abbiamo già e quali mancano; quante aziende sanno già di dover iniziare a pensare di staccare il cordone che li lega a tecnologie in mano a determinati Paesi e quante non riescono a vedere come potrebbero farlo. C’è il nodo della produzione dei dispositivi, della scrittura del software, delle infrastrutture fisiche. C’è così tanto da fare che non sarebbe sbagliato definire la sovranità digitale europea come una completa rivoluzione. Abbiamo il tempo e la forza per metterla in atto? Bisogna iniziare... per capire dove si può arrivare. Giancarlo Calzetta

l’analisi

UN MOMENTO DIFFICILE, NASCOSTO DALL’INVASIONE CINESE

Il settore fieristico attraversa una non fase critica: questa edizione di Ifa, a Berlino, ne è emblema.

L’Ifa, Internationale Funkausstellung Berlin, è sicuramente la fiera di elettronica di consumo più importante dell’anno a livello europeo. Come tutte le manifestazioni di questo tipo, però, sta soffrendo il cambiamento indotto dalla voglia dei vendor di comunicare direttamente con il proprio pubblico, consumer o B2B che sia. I numeri sono in decrescita, i grandi nomi dell’informatica praticamente non ci sono più e quelli dell’elettronica di consumo presenziano senza portare grandi novità. Basti pensare a Samsung: ha ancora il suo padiglione dedicato (il “City Cube”) all’ingresso Sud della fiera, ma ha fatto praticamente tutti gli annunci di prodotto prima dell’inizio della manifestazione, lasciando solo un tablet e uno smartphone per il giorno precedente e riservando quasi tutto il keynote alle novità dell’ecosistema di intelligenza artificiale. Lg, invece, ha addirittura portato una rappresentanza risicata di televisori, dedicando il grosso dello stand al “bianco” e, anche loro, all’ecosistema. Insomma, quella che una volta era la fiera dei televisori, oggi è qualcosa di molto diverso. Un evento molto incentrato sull’elettrodomestico bianco, dove la tecnologia galoppa rispetto al passato, ma ha un appeal decisamente minore. Passeggiando tra gli stand, si vedono praterie di dispositivi indossabili, asciugacapelli, accessori per cellulari, smartphone e tablet dai marchi sconosciuti e un

generale appiattimento dell’offerto. Eppure, Ifa è cresciuta rispetto allo scorso anno. Com’è possibile? Per quanto possa suonare strano, bisogna ringraziare i dazi di Trump, che hanno spinto i marchi cinesi a riversarsi in massa verso un mercato che adesso vedono come molto più promettente rispetto a quello statunitense. Il numero di espositori provenienti dal Paese del dragone è quasi raddoppiato rispetto all’edizione precedente, passando dai circa 400 del 2024 agli oltre 700 di Ifa 2025. Una valanga di marchi dai nomi stranamente familiari che risuonano nella nostra testa, finché non realizziamo di averli già letti mille volte tra quelli proposti su Amazon. Aziende che stavano già presidiando in maniera secondaria il nostro mercato tramite le vendite online

e che adesso si preparano a sbarcare in grande stile. Alla luce della situazione vista a Ifa, l’offerta avanzata da JD.com per acquistare il detentore dei marchi Mediaworld, Media Market e Saturn, assume una luce ben più articolata. Le tre catene, infatti, potrebbero diventare il veicolo ideale per tutta la tecnologia per la casa in arrivo dalla Cina. La qualità dell’offerta sta crescendo molto rapidamente: scope elettriche, robot lavapavimenti, telecamere, tagliaerba, frigoriferi, forni e i mille altri piccoli dispositivi per le faccende domestiche stanno diventando sempre più intelligenti e connessi, e sempre più cinesi. Non è chiaro quanta dell’offerta rispetti le normative europee per la protezione dei dati e della privacy, ma quello, oggi, è un dettaglio. Il vero nodo è che la Cina sta per lanciare una nuova “offensiva commerciale” e stavolta non sarà basata solo sul prezzo, ma anche sulla qualità dei prodotti. Come reagirà l’Europa davanti a questa nuova invasione? Reagirà? Si inizia a parlare di produzione che dev’essere portata di nuovo “in casa”, ma non è troppo tardi? Siamo rimasti indietro con le fabbriche, certo, ma anche con il know-how che sta dietro a progettazione, materiali, hardware e software. Abbiamo la forza per scuoterci? Domande pesanti, che è strano siano nate passeggiando nei corridoi di quella che era la vetrina della tecnologia made in Europe. Giancarlo Calzetta

L’EUROPA, IL CLOUD E LA MONTAGNA IMPOSSIBILE DA SCALARE

Gli hyperscaler statunitensi dominano il mercato Ue, ma il market share dei fornitori europei negli ultimi anni non è sceso.

Il mercato europeo del cloud computing è molto statunitense. Ovvero le aziende, le pubbliche amministrazioni e i cittadini del Vecchio Continente utilizzano in larga parte i servizi di infrastruttura, di piattaforma e applicativi dei fornitori nordamericani, in particolare Amazon (con la divisione Aws), Microsoft e Google. D’altra parte questi hyperscaler, cioè proprietari di data center “giganti” (con almeno cinquemila server, in base alla tassonomia di Fortune Business Insight), negli ultimi anni hanno investito pesantemente per dotarsi di nuove infrastrutture collocate in Europa. Infrastrutture da cui poter erogare servizi “locali”, che non prevedono trasferimenti di dati negli Stati Uniti.

Big Tech ingombranti

Sommati fra loro, Aws, Microsoft e Google detengono sul mercato europeo una quota di circa il 70% a valore, stando agli ultimi dati di Synergy Research Group. Ci sono poi, a comporre il quintetto, altri due colossi meno “generalisti” e più foca-

lizzati su specifiche aree di attività, ovvero Ibm e Oracle, quest’ultima in particolare protagonista di una fase di forte crescita. “Il mercato del cloud”, ha commentato John Dinsdale, chief analyst di Synergy Research Group, “è un gioco di scala, in cui aspiranti leader devono fare enormi scommesse finanziarie, devono avere una visione di lungo termine su investimenti e profittabilità, devono conservare una determinazione focalizzata e raggiungere costantemente l’eccellenza operativa. Nessuna società europea si è avvicinata a questa serie di criteri e il risultato è un mercato in cui i cinque grandi leader sono tutti statunitensi”.

Un’impresa quasi impossibile

Gli operatori europei come Sap, Deutsche Telekom, Ovhcloud, Telecom Italia e Orange (oltre a una lunga serie di player nazionali e locali) si stanno difendendo come possono, puntando sui legami con il territorio e su vantaggi di sovranità e controllo sul dato.

Tra il 2017 e il 2024 il loro giro d’affari è triplicato, ma nel frattempo il mercato europeo del cloud computing è cresciuto il doppio (risulta, cioè, moltiplicato per sei volte). Il risultato è che il market share dei fornitori cloud europei in territorio Ue è sceso dal 29% del 2017 al 15% del 2022, quota rimasta poi comunque stabile fino a oggi. In testa alla classifica ci

sono Sap e Deutsche Telekom, ciascuno con un market share a valore pari al 2%. Il fatto è che gli hyperscaler investono fino a dieci miliardi di dollari a trimestre per il potenziamento dei propri data center e della relativa offerta di servizi. Livelli di spesa inarrivabili per gli operatori cloud europei, che si trovano davanti “una montagna impossibile da scalare”, come scrive Dinsdale. “Di conseguenza, i fornitori cloud europei per lo più si sono posizionati nel servire gruppi di clientela locale con necessità specifiche, lavorando a volte come partner per i grandi provider statunitensi. Molti operatori cloud europei continueranno a crescere, ma è improbabile che riescano a spostare di molto l’ago della bilancia in termini di market share nel contesto europeo generale”.

Opportunità crescenti

Il mercato del cloud è comunque un terreno fertile, che permetterà un po’ a tutti i fornitori di germogliare. Considerando le componenti infrastrutturali, di piattaforma e i servizi di cloud privato, Synergy stima per i soli primi sei mesi del 2025 un giro d’affari di 36 miliardi di euro. La previsione per l’intero anno è di una crescita del 24% sul 2024, spinta soprattutto dai servizi legati all’intelligenza artificiale.

Valentina Bernocco

l’intervista L’INTERSCAMBIO È RESILIENZA

La crescita del traffico, le Big Tech, l’AI, la geopolitica: il punto di vista di Namex sull’evoluzione e sul futuro di Internet.

Non è una rete ma la Rete, con l’articolo determinativo e l’iniziale maiuscola. Internet negli anni è diventata un’infrastruttura critica su cui si reggono grandi porzioni dell’economia e della società moderna. E oggi è anche al centro della contesa geopolitica. Come è cambiata Internet negli anni? L’Europa e l’Italia hanno voce in capitolo? Ne abbiamo parlato con Maurizio Goretti, direttore generale di Namex (NAutilus MEditerranean eXchange point), il più importante nodo di interscambio del Centro-sud Italia.

Che aspetto ha la Internet odierna?

Internet è diventata un’infrastruttura critica quanto la rete elettrica, lo abbiamo visto durante il blackout spagnolo di alcuni mesi fa, quando l’assenza di connettività ha destato più preoccupazione dei frigoriferi spenti. Il traffico dati è cresciuto esponenzialmente negli ultimi anni: l’Osservatorio Namex ha registrato un aumento del 300% nei picchi di traffico dall’inizio della pandemia oggi. Nel frattempo l’architettura della rete sta cambiando radicalmente. I colossi tech di oltreoceano, come Meta, Google, Microsoft e Amazon, non si accontentano più di utilizzare le infrastrutture esistenti: stanno costruendo le proprie reti private, dai data center ai cavi sottomarini. Questa verticalizzazione concentra non solo i servizi, ma anche i punti ne-

vralgici dell’interconnessione globale. La risposta del settore è ancora tutta da capire. La buona notizia è che in Europa la rete in fibra ottica è molto più capillare che altrove e decisamente plurale. In Italia, come nella maggior parte dell’Unione Europea, la presenza di collegamenti ridondanti tra operatori ha creato una rete resiliente che può assorbire il guasto di singoli nodi senza che se ne accorga l’utente finale. In questo i punti di interscambio hanno assunto un ruolo fondamentale, nell’assicurare resilienza, efficienza ed economicità a una rete sempre più complessa.

Quali dinamiche stanno influenzando il presente e il futuro di Internet?

Le infrastrutture digitali sono diventate terreno di competizione geopolitica e, sempre più spesso purtroppo, obiettivi militari. Da un lato assistiamo a una corsa globale per connettere ogni angolo del pianeta, dalle nuove dorsali oceaniche alle costellazioni satellitari che garantiscono connettività anche in luoghi impensabili, come il mare aperto o le cime alpine. Dall’altro, i cavi sottomarini e, per ora in misura minore, i satelliti si rivelano obiettivi sensibili nelle guerre ibride contemporanee. Sul piano economico, il dominio è quasi esclusivamente americano e cinese, con rare eccezioni europee nel panorama dei contenuti digitali. Questo squilibrio spinge l’Unione Europea a interrogarsi su

normative per tutelare concorrenza e utenti, alimentando dibattiti sempre più accesi sulla sovranità tecnologica. La complessità sta nel definire confini in un ecosistema, Internet, che è nato senza confini. L’accelerazione nell’adozione dell’intelligenza artificiale, in particolare dei Large Language Model, e il dispiegamento delle reti satellitari stanno ridefinendo completamente le esigenze di connettività, ponendo sfide inedite di governance e sostenibilità ambientale.

E il settore dei cavi sottomarini, che fase sta attraversando?

Il settore dei cavi sottomarini vive una trasformazione senza precedenti. Negli ultimi anni stiamo assistendo a un veloce cambiamento: aziende di Maurizio Goretti

servizi come Meta, Google, Microsoft e Amazon investono in infrastrutture complesse, posando cavi sottomarini fino a realizzare reti proprietarie che attraversano gli oceani e fanno il giro del mondo. In Europa i cavi sono tradizionalmente di proprietà di consorzi di imprese e collegano il continente ad Africa, Medio ed Estremo Oriente. La priorità oggi è creare rotte alternative ai colli di bottiglia strategici. Il progetto Blue & Raman, ad esempio, evita il passaggio attraverso l’Egitto, dove si concentra gran parte del traffico mondiale e che rappresenta un potenziale tallone d’Achille. Gli incidenti recenti nel Mar Baltico, ma anche le sole minacce, hanno evidenziato la criticità di queste infrastrutture. È essenziale diversificare i percorsi e rafforzare la cooperazione internazionale per proteggerli. Le buone notizie sono che l’Italia può avere un ruolo da protagonista, vista la posizione geografica e il know-how di aziende come Sparkle, Retelit e ora anche Unitirreno, la quale sta terminando un cavo che collega la Sicilia con Genova passando per Fiumicino e Olbia.

Internet reggerà l’urto dell’intelligenza artificiale, così come ha retto (finora) l’impatto del boom dei dati? Il volume dei dati in transito, cioè del traffico Internet, è letteralmente esploso, ma possiamo serenamente affermare che finora la rete ha retto grazie ai continui potenziamenti delle infrastrutture. Dal punto di vista tecnico, Internet potrà sostenere l’urto dell’AI solo evolvendo verso l’edge computing: i nuovi flussi generati dall’AI dovranno spostarsi ai margini della rete, portando capacità di calcolo e nodi di scambio più vicini agli utenti finali. Sul fronte energetico,

la questione è ancora più complessa. I data center dedicati all’AI consumano quantità enormi di energia, tant’è che negli Stati Uniti si stanno riattivando centrali nucleari dismesse. Senza un’adeguata pianificazione delle infrastrutture energetiche e di rete rischiamo di creare “scatole vuote”, strutture di dimensioni e costi significativi, ma poco funzionali. In Italia e in Europa la sfida è anche un’altra. Non esistono i soli Large Language Model generalisti, ma c’è un settore in rapida ascesa che è quello dei modelli di AI verticali, specializzati in un particolare contesto e studiati per servire contemporaneamente un numero di utenti limitato. I data center che li ospitano possono essere concepiti diversamente da quelli di OpenAI o Google, avendo dimensioni e consumi decisamente inferiori.

Che aspirazioni, realisticamente, può nutrire l’Europa nella corsa all’intelligenza artificiale?

Nel campo dell’AI e dei data center, la leadership resta saldamente americana, mentre la Cina si conferma sempre di più come un credibile concorrente al vertice. Tuttavia, l’Europa ha ancora carte da giocare se i Paesi Ue uniranno le forze. Una strategia coordinata – dall’armonizzazione delle

rotte dei cavi sottomarini agli investimenti in ricerca – potrebbe trasformare ogni nazione da spettatore passivo ad attore protagonista, scegliendo quale AI vogliamo per il nostro presente e per i nostri figli. Il nostro continente non parte da zero: la ricerca europea contribuisce significativamente all’innovazione mondiale, ma manca la capacità di scalare a una competitività globale nell’industria dei contenuti. È qui che si gioca la partita: definendo regole condivise e investimenti strategici, l’Europa può ancora ritagliarsi un ruolo centrale in quella che sarà una rivoluzione epocale per la nostra quotidianità.

Avete celebrato i trent’anni di Nap Roma, l’Internet Exchange Point della Capitale. Come si posiziona oggi Roma nello scenario dell’interconnessione?

Per anni Milano è stata l’unico vero polo digitale italiano, mentre Roma rimaneva ai margini. Oggi questa concentrazione non è più ottimale e le esigenze di connessione dell’intera popolazione italiana sono diverse: serve distribuire data center, nodi di rete e interconnessione in generale su tutto il territorio nazionale. Oggi il traffico Internet dell’Urbe è quasi la metà di quello di Milano, mentre fino a pochi anni fa era meno di un quinto. Roma sta emergendo come hub complementare, che affianca Milano rafforzando la posizione dell’Italia come snodo strategico del Mediterraneo. Namex ha creduto in questa visione policentrica fin dalla sua fondazione, trent’anni fa: nati a Roma per servire il Centro-sud, abbiamo aperto un Ixp a Bari e uno a Napoli per portare connettività di qualità alle comunità locali. V.B.

l’intervista AI E SERVIZIO CLIENTI:

ATTENZIONE ALLE “TRAPPOLE”

Valutare le relazioni fra elementi umani e tecnologie, dribblando la tentazione di ottimizzare solo, è cruciale. L’opinione di Covisian.

Il servizio clienti e la più ampia area della customer experience sono ambiti in cui l’AI ha attecchito da tempo, da prima che si parlasse di chatbot basati su Large Language Model. Ma è ancora facile commettere errori, sia tecnici sia strategici. Per esempio, si potrebbe cadere nella “trappola della pura ottimizzazione dei processi”, come l’ha definita discutendo sul tema Fabio Sattolo, chief people and technology officer di Covisian

A che punto siamo con l’adozione di tecnologie di AI per il servizio clienti?

Settori come utilities, telco e servizi finanziari hanno avviato l’adozione dell’AI già da diversi anni, spesso con un focus iniziale sulla riduzione dei costi e sull’automazione massiva. Oggi, però, stanno rivedendo profondamente il modo in cui utilizzano queste tecnologie, spostando l’attenzione dall'automazione fine a sé stessa a modelli più integrati e collaborativi tra AI e persone. L’obiettivo è migliorare non solo l’efficienza, ma soprattutto l’esperienza complessiva del cliente, rendendola più fluida, personalizzata e umana, anche nei contesti digitali. Paradossalmente, i settori che hanno adottato l’AI più lentamente – come retail, sanità o Pubblica Amministrazione – si trovano oggi in una posizione potenzialmente vantaggiosa. Non devono “disimparare” o superare modelli ormai obsoleti, ma possono partire direttamente con un

approccio ibrido, in cui AI e operatore umano collaborano in modo sinergico, ciascuno valorizzando le proprie capacità distintive: velocità, precisione e disponibilità nel caso dell’AI; empatia, giudizio e gestione della complessità per l’essere umano.

Quali sono le criticità da considerare in un progetto di adozione dell’AI nel customer care?

Nel nostro lavoro con Smile.CX vediamo chiaramente che la vera innovazione oggi non è solo nell’adozione dell’AI, ma nel disegno intelligente delle interazioni, nella capacità di orchestrare tecnologie e persone per offrire esperienze che siano davvero centrate sul cliente. E questo è un terreno su cui anche le aziende meno “digitalizzate” possono giocare un

ruolo da protagoniste, se guidate da una visione chiara.

Una delle sfide principali, quando si parla di AI nel customer care, è non cadere nella trappola della pura ottimizzazione dei processi. L’obiettivo non è sostituire l’interazione umana, ma trovare il giusto equilibrio: calibrare l’intelligenza artificiale affinché porti un valore reale, mantenendo una relazione con il cliente che resti autentica ed empatica. Noi la consideriamo un abilitatore intelligente, che potenzia le competenze dell’operatore e lo libera dalle attività più ripetitive, senza mai togliergli quel ruolo centrale dove empatia e comprensione fanno la differenza.

Un altro aspetto cruciale riguarda la gestione della knowledge base e dei dati aziendali, che devono essere accurati, costantemente aggiornati e progettati per alimentare in modo efficace i modelli di AI. Senza una knowledge base solida e un’architettura dei dati coerente, anche gli algoritmi più avanzati non possono garantire risposte davvero pertinenti e di valore. Proprio per questo i nostri modelli sono auto-alimentati e imparano continuamente sul campo, evolvendo grazie alla supervisione umana che li guida, corregge e affina.

C’è poi il tema dell’integrazione con i sistemi del cliente, che spesso in alcuni mercati risulta delicata e complessa per motivi di compliance. Non si tratta di una resistenza al cambiamento,

Fabio Sattolo

ma di una sfida tecnica e organizzativa. Oggi siamo posizionati con successo in settori tra i più rigidi, come il finance e l’healthcare, e questa è una sfida che stiamo cavalcando con determinazione. L’integrazione intelligente tra AI e l’ecosistema del cliente – Crm, Erp, piattaforme di ticketing – permette ottimizzazioni molto più funzionali e una customer experience più fluida. Grazie alle API in lettura e scrittura, l’AI non si limita a fornire risposte, ma può mantenere aggiornati i sistemi del cliente, automatizzare processi, aggiornare dati e togliere agli operatori gran parte delle attività di back office, permettendo loro di concentrarsi su ciò che porta vero valore.

Un tema molto dibattuto riguarda il rapporto fra elementi “umani” e artificiali. Come trovare un giusto equilibrio?

Non crediamo in un’automazione totale: la vera forza sta nell’equilibrio tra automazione e competenza umana, dove l’AI accelera i processi e fornisce insight, mentre l’operatore interviene nei momenti chiave per offrire personalizzazione, empatia e comprensione che nessuna macchina può replicare. L’adozione della tecnologia deve essere accompagnata da una strategia ben definita e orientata al cliente, combinando automazione e competenza umana. Il giusto equilibrio si raggiunge attraverso un’integrazione sinergica: l’AI come supporto agli operatori, capace di migliorare l’efficienza aziendale senza sacrificare, anzi potenziando, la qualità della customer experience. Questo approccio human-to-human, potenziato dall’AI, consente di automatizzare le attività ripetitive e garantire risposte rapide, lasciando agli operatori il compito di

intervenire nei momenti chiave, offrendo personalizzazione ed empatia. Si risolve così non soltanto il problema delle attese, ma anche il senso di frustrazione che gli utenti possono provare di fronte all’interazione con macchine non realmente in grado di comprendere le loro richieste. In questo modo, gli addetti al contact center si trasformano in veri e propri professionisti della customer experience, in grado di orchestrare tecnologie avanzate per offrire un servizio sempre più efficace, umano e soddisfacente. Questo porterà alla nascita del settore CxTech, in cui ogni interazione diventa un’opportunità di dialogo e fidelizzazione.

Ci fa qualche esempio di casi d’uso concreti?

Abbiamo detto che una sfida chiave è capire quando l’AI deve fare un passo indietro. In un’emergenza, come il blocco di una carta di credito dopo una frode, il cliente non cerca solo velocità ma rassicurazione. In quei momenti, una voce sintetica – per quanto naturale – rischierebbe di aumentare lo stress. Per questo l’operatore resta in prima linea, mentre l’AI lavora dietro le quinte: prepara i dati, velocizza le procedure e riduce i tempi di intervento, ma lascia all’umano il compito di dare empatia e sicurezza. Un’altra sfida è quella della compliance, soprattutto nel mondo sanitario,

dove la gestione dei dati sensibili richiede standard altissimi di sicurezza e tracciabilità. Con progetti come Smiling Cup e Centralino Sanitario, abbiamo affrontato questo tema integrando l’AI con i sistemi regionali, ma sempre con controlli rigorosi su privacy e governance. In questi casi, l’AI automatizza la prenotazione o lo smistamento delle chiamate, mentre la supervisione umana assicura che ogni interazione resti conforme alle normative e personalizzata sulle esigenze del paziente.

A quali evoluzioni tecnologiche guardate con maggiore interesse?

L’Agentic AI rappresenta sicuramente una frontiera molto promettente: sistemi in grado di pianificare, decidere e agire in modo autonomo sulla base di obiettivi, contesto e feedback. È un passo avanti rispetto ai classici modelli predittivi o conversazionali, ma proprio per questo la sua adozione richiede una profonda riflessione sul ruolo della supervisione umana. Noi crediamo che l’Agentic AI sia un’evoluzione naturale, ma non lineare né automatica. Il suo vero potenziale emerge quando è inserita all’interno di modelli ibridi, dove l’essere umano resta al centro: come supervisore, come escalation point, ma anche come risorsa che contribuisce attivamente all’apprendimento e all’ottimizzazione del sistema. Le tecnologie che più ci interessano, quindi, sono quelle che abilitano questa collaborazione fluida tra AI e persone: orchestratori intelligenti dei flussi conversazionali, interfacce adattive che consentano all’operatore di intervenire quando necessario, e strumenti di explainability e di monitoraggio in tempo reale. V.B.

l’opinione

IL VALORE (ANCHE INVISIBILE)

DEL PROCUREMENT

Le scelte di approvvigionamento possono costruire relazioni e resilienza nelle aziende.

Spesso si pensa al procurement come a una funzione tecnica, legata solo a numeri, contratti e fornitori: in realtà è uno snodo strategico, che può accelerare la trasformazione completa di un’azienda. In un mondo in cui la volatilità è la nuova normalità – tra crisi geopolitiche, instabilità delle catene di fornitura, transizione green e rivoluzione tecnologica – chi si occupa di acquisti ha un ruolo chiave nel disegnare il futuro. Non si tratta solo di comprare, ma di costruire relazioni, attivare cambiamenti e generare impatti concreti su ogni area dell’impresa. Il procurement è quel tassello essenziale che tiene insieme efficienza e visione, contribuendo a trasformare il modo stesso in cui un’azienda crea valore e si prepara al domani. Oggi il procurement è chiamato in causa non solo per ottimizzare costi o gestire fornitori, ma per rendere la supply chain più efficiente, solida, flessibile e strategica. Per affrontare questo percorso servono nuove competenze, il coraggio di sperimentare approcci innovativi e la capacità di costruire relazioni di partnership autentiche e durature. Le aziende che lo comprendono stanno già investendo su competenze trasversali, soluzioni digitali e partnership solide, consapevoli che il vero vantaggio competitivo si costruisce lungo tutta la supply chain. I nostri numeri parlano chiaro: la funzione acquisti sta abbandonando la vecchia etichetta di semplice “controllore dei costi”. Solo un’azienda su quattro continua a inter-

pretare gli acquisti in modo tradizionale, limitandosi alla gestione di ordini e budget. Il 33%, invece, riconosce negli acquisti un motore strategico capace di introdurre nuove competenze, strumenti e processi innovativi.

Tra vantaggio economico e resilienza Per troppo tempo il ruolo degli acquisti è stato confinato a una semplice gara alla contrattazione. Oggi il procurement moderno gioca su un campo molto più ampio e strategico per generare valore su più livelli, visibili e invisibili. Pensiamo al valore economico: il risparmio non si esaurisce nel prezzo d’acquisto, ma si costruisce guardando all’intero ciclo di vita di beni e servizi. Con un approccio più ampio e lungimirante orientato al Total Cost of Ownership, si considerano aspetti come manutenzione, durata, efficienza e smaltimento. È qui che nascono il vero vantaggio economico e la sostenibilità di lungo periodo. Ma c’è di più, il procurement è anche uno scudo contro i rischi di mer-

cato. Oscillazioni dei prezzi delle materie prime, interruzioni nelle forniture, crisi globali sono eventi che è possibile gestire se si adottano scelte strategiche, si analizzano i mercati e si costruiscono partnership solide. Il procurement moderno non può più essere una funzione a sé stante, deve muoversi al passo con gli obiettivi strategici dell’impresa. Dalla selezione di fornitori locali per sostenere l’espansione internazionale, alla creazione di partnership che garantiscono compliance e innovazione: chi si occupa di acquisti oggi è protagonista nel guidare la crescita.

Innovazione e identità aziendale Dal procurement passa gran parte dell’innovazione. Se coltiviamo relazioni di fiducia con i fornitori, questi diventano una fonte preziosa di idee, tecnologie e materiali in grado di migliorare prodotti, processi e competitività. Dallo sviluppo congiunto di soluzioni alla scelta di materiali innovativi, il procurement è il punto d’accesso privilegiato al cambiamento. Infine, ogni acquisto racconta qualcosa dell’identità aziendale. Il procurement responsabile riduce l’impatto ambientale, promuove pratiche etiche nella filiera e risponde alle crescenti aspettative di trasparenza e sostenibilità privilegiando fornitori che operano con criteri green. Al contempo, attraverso pratiche etiche, il procurement contribuisce a garantire condizioni di lavoro dignitose, sicurezza e diritti in tutta la filiera. Non è solo un obbligo, ma una leva reputazionale. Un procurement trasparente, innovativo e sostenibile rafforza la credibilità, alimenta il brand e prepara l’azienda alle sfide future. Il valore che può generare è trasversale, concreto e strategico. Andrea Tinti, Ceo e founder di Iungo

Andrea Tinti

NON TRASFORMAZIONE,

MA TRANSIZIONE DIGITALE

La filosofia di Archiva Group, che dalla gestione documentale si estende fino all’AI. Al centro, il valore dei dati.

Archiva Group nasce per custodire dati e documenti preziosi per i propri clienti. In 25 anni di presenza sul mercato, tale obiettivo è rimasto nel DNA di un gruppo che nel tempo, però, è cresciuto molto e ha ampliato il proprio spettro di azione, dalla gestione documentale ad altre tecnologie che regolano processi aziendali come la fatturazione e la compliance. Recentemente tramite Progressio Investimenti IV, il fondo di private equity che controlla Archiva, è stata acquisita Mitric, una software house che ha sviluppato un’offerta di app dedicate a processi core, come controllo qualità, gestione della logistica, qualifica dei fornitori e gestione della supply chain. A questa acquisizione è seguita quella di Ddm Technology, società padovana che propone una soluzione di gestione documentale integrata nell’ambiente Sap.

“Stiamo vivendo anni di grande crescita ma ci tengo a fare chiarezza su un concetto”, esordisce Loris Marchiori, corporate communication director di Archiva Group. “C’è una differenza tra digital transformation e digital transition. Trasformazione è quando l’azienda decide di cambiare il proprio modello di business attraverso il digitale, mentre percorrere la transizione digitale significa cambiare modalità operative e sfruttare le tecnologie per ottenere un vantaggio competitivo o per adeguarsi a fattori esogeni, come nuove leggi e regolamenti. Archiva affianca i propri clienti prevalentemente

in quest’ultimo processo”. Tra i cam biamenti normativi di maggiore im patto sulle aziende, l’obbligo di fattu razione elettronica è particolarmente significativo, considerato che il nostro Paese ne è stato (insieme al Portogallo) tra i principali promotori. Altra tematica “esogena”, spiega Mar chiori, è la creazione di uno spazio unico doganale, dove poter gestire il flusso informativo e informatico dell’import-export. “Su questo tema ci siamo posizionati con soluzioni di automazione per interagire con l’agen zia delle dogane”, racconta. Un terzo “fattore esogeno” a cui le aziende devono adeguarsi è l’evoluzione tecnologica: anche in questo caso Archiva si propone come alleato che aiuta a recepire concretamente il cambiamento.

Un approccio pragmatico

Con la propria suite di applicazioni per la gestione dei processi, la collaborazione e l’archiviazione digitale, Requiro, Archiva supporta diversi dipartimenti aziendali, come quello amministrativo-finanziario, l’area acquisti e gestione dei fornitori, le vendite, le risorse umane e anche le attività legal e la compliance. Può trattarsi di processi estesi, complessi e internazionali, ma il target non è necessariamente la grande azienda.

“Lavoriamo nei processi di supporto, che in una media azienda farmaceutica, per fare un esempio, possono essere molto più numerosi rispetto a

ciale”, fa notare Marchiori. Archiva promuove un approccio pragmatico all’innovazione tecnologica, e l’ambito dell’intelligenza artificiale non fa eccezione. Recentemente in Requiro sono state integrate tecnologie di machine learning e Large Language Model per poter trattare dati di vario tipo (strutturati, semistrutturati, non strutturati) e per automatizzare attività come il controllo di documenti di trasporto e fatture.

L’AI può anche combinarsi con l’automazione robotica di processo, che da sempre fa parte della piattaforma di Archiva. “In un contesto di innovazione velocissima, abbiamo scelto di non sviluppare prodotti di AI frontend, ma di usare questa tecnologia per aiutare i clienti a mettere a frutto i propri dati”, spiega Marchiori.

“Le aziende non sfruttano il 70% del proprio patrimonio informativo. L’AI aiuta a far leva sui dati, ne accelera la fruibilità”. E.M.

Loris Marchiori

AGRITECH ITALIANO

PER LE SFIDE

CLIMATICHE

Serra Archimede, progettato con la collaborazione di Pragma Etimos, è un sistema agrifotovoltaico integrato e complesso, che punta alla sostenibilità.

Tecnologie digitali e sostenibilità non sempre vanno a braccetto. Ma se c’è un ambito in cui questi due elementi spingono nella stessa direzione, quello è l’agricoltura: diventando più smart diventa anche più sostenibile, perché ottimizza il consumo di risorse preziose e limitate, come l’acqua e la terra. “L’agritech non è speculazione, è visione. È il passaggio da un modello predatorio a uno generativo, dove ogni pianta e ogni watt lavorano in sinergia per restituire valore, non solo per estrarlo”. Parole di Gaetano Lo Presti, Ceo e founder di Pragma Etimos, azienda informatica di Aprilia (Latina) che opera nel campo della computer vision, dell’intelligenza artificiale e dei dati. O meglio, dei green data: dati che sia possono essere prodotti, raccolti e gestiti in

modo più sostenibile, sia possono a loro volta contribuire a obiettivi di riduzione dei consumi energetici e degli impatti ambientali. Un perfetto e innovativo esempio è Serra Archimede: un progetto (promosso da Regran, società di rinnovabili del ragusano) a cui Pragma Etimos ha collaborato, portando in dote le proprie tecnologie di intelligenza artificiale e i propri modelli di analisi predittiva. Il nome non è casuale, perché Serra Archimede nasce in Sicilia come l’inventore e matematico a cui si ispira. Ed è altrettanto ingegnosa: si tratta, infatti, di un sistema agrifotovoltaico che bilancia una serie di fattori potenzialmente in conflitto tra loro. Da un lato, la serra massimizza la resa delle colture attraverso la radiazione fotosinteticamente attiva (Photosynthe-

tically Active Radiation, o Par), cioè la parte dello spettro solare utilizzabile dalle piante per la fotosintesi; dall’altro, ottimizza la produzione di energia fotovoltaica tramite pannelli solari. Attraverso dati raccolti da sensori e analizzati con l’AI, il sistema ricerca l’equilibrio perfetto fra le variabili, fra ombra e calore, e lo fa adattandosi continuamente alle condizioni ambientali.

Si tratta non solo di un sistema altamente tecnologico ma anche di un sistema integrato, dove elementi differenti cooperano tra loro: i sensori, gli algoritmi, ma anche i materiali della serra, le sue forme e l’architettura solare. L’orientamento, l’inclinazione e la curvatura delle superfici sono, infatti, variabili che influenzano la quantità e la qualità della radiazione Par ricevuta dalle piante. La progettazione tiene conto anche della fisiologia delle piante, ovvero di come esse reagiscono alla luce, che se eccessiva può surriscaldare le foglie e inibire la fotosintesi, se insufficiente o incostante può rallentare la produzione di clorofilla e il metabolismo delle piante stesse. “Investire in una serra intelligente significa investire in resilienza: è come costruire un ponte sul domani invece di rattoppare una strada vecchia”, ha commentato Lo Presti. “Il vero vantaggio competitivo è l’equilibrio: tra energia e agricoltura, tra intelligenza artificiale e sapienza umana, tra forma e funzione”.

Se oggi Serra Archimede è un progetto avanguardistico, in futuro sistemi di questo tipo potrebbero diventare una necessità, uno strumento che permette di far germogliare piante e ortaggi anche in condizioni climatiche estreme. Lo Presti riassume così la propria visione: “Immagino un domani in cui l’agricoltura non sarà più sinonimo di fatica cieca, ma di intelligenza condivisa: e le serre intelligenti saranno i primi capitoli di questa nuova storia”. V.B.

l’intervista ERP E INTELLIGENZA ARTIFICIALE,

UN INCONTRO FRUTTUOSO

L’impiego dell’AI nell’Enterprise Resource Planning (anche quello per piccole e medie imprese), secondo lo specialista francese Bonx.

Intelligenza artificiale ed Enterprise Resource Planning: che rapporto hanno queste due tecnologie? E che valore aggiunto può portare l’AI in un ambito consolidato e core come quello del software gestionale? Lo abbiamo chiesto ad Alexandre Barroux, Ceo di Bonx, azienda francese specialista dell’Erp per le piccole e medie imprese manifatturiere.

Quali vantaggi comporta l’inserimento dell’AI in un Erp?

Non parliamo di tecnologie parallele, ma complementari. Il software Erp è la spina dorsale operativa, mentre l’AI è l’intelligenza che lo rende predittivo, adattivo e strategico. A differenza della Robotic Process Automation (Rpa), che automatizza compiti ripetitivi seguendo regole rigide, l’AI è in grado di apprendere dai dati, adattarsi al contesto e supportare decisioni sempre più accurate. In Bonx, ad esempio, l’AI aiuta a prevedere ritardi, ottimizzare la produzione e migliorare i margini. Non si limita a eseguire: capisce che cosa serva davvero e lo suggerisce in anticipo.

Quello tra AI ed Erp è un incontro perfetto o ci sono criticità da considerare?

L’incontro tra AI ed Erp è potente, ma non è magia. Perché l’AI sia utile davvero, servono condizioni chiare con dati affidabili, contesti coerenti e obiettivi ben definiti. L’intelligenza artificiale può fare molto, ma va alimentata con

informazioni corrette e comprensibili. Non sostituisce il lavoro dell’azienda ma lo amplifica, aiuta a prendere decisioni più veloci e a evitare errori. L’AI fa davvero la differenza nella vita operativa di tutti i giorni, ma ha bisogno di una base solida da cui partire.

Quali specifiche tecnologie di AI possono essere usate in un Erp?

Le applicazioni dell’intelligenza artificiale in ambito Erp sono tante e in continua evoluzione, con funzionalità che spaziano dall’analisi predittiva agli agenti AI, fino a nuovi modi di interagire con i dati. In Bonx oggi l’AI è già attiva in tre aree chiave: legge ordini e documenti e compila i campi necessari automaticamente, eliminando l’inserimento manuale; permette di generare dashboard semplicemente scrivendo ciò che si vuole vedere; e semplifica la pianificazione della produzione, dando la possibilità di spiegare i vincoli in linguaggio naturale. Inoltre, il nostro

software è in continua evoluzione con molte nuove funzioni AI che verranno implementate in futuro.

Il mercato dell’Erp è storicamente presidiato da alcune Big Tech. Come vi posizionate in questo scenario?

Il mercato Erp è dominato da grandi player pensati per realtà molto strutturate. Bonx, invece, nasce con un focus verticale sulla gestione delle operations, a servizio delle Pmi manifatturiere. I nostro approccio è completamente diverso, prevendendo un’implementazione in poche settimane, un sistema no-code che dà autonomia agli utenti e una piattaforma evolutiva che si adatta nel tempo. I nostri clienti cercano controllo, velocità e semplicità: Bonx è una soluzione su misura senza necessità di sviluppi custom, pensato esattamente per la complessità delle Pmi. Il nostro obiettivo è diventare il punto di riferimento per le Pmi manifatturiere italiane che vogliono modernizzare la gestione operativa senza complicarsi la vita. L’Italia ha un tessuto industriale straordinario ma spesso ancora legato a strumenti lenti, frammentati o troppo rigidi. Possiamo semplificare la gestione quotidiana delle Pmi, rendendo accessibile una tecnologia che spesso è percepita come distante o complessa: il nostro obiettivo è fornire alle aziende un sistema semplice e intuitivo. Stiamo lavorando all’apertura di un ufficio a Milano, che sarà il nostro hub commerciale e operativo. V.B.

Alexandre Barroux

l’opinione

OOO

IL DIGITALE ENTRA IN NEGOZIO

Realtà aumentata, GenAI, 5G: sono alcune delle tecnologie che potenziano l’esperienza di acquisto nei punti vendita fisici.

L’e-commerce sta inevitabilmente cambiando il settore del consumo al dettaglio. I consumatori hanno a portata di mano prodotti e opportunità impensabili fino a cinque anni fa, mentre i retailer si trovano ad affrontare sfide sempre più grandi in termini di logistica, tecnologia e soddisfazione del cliente. Nel frattempo, i negozi fisici devono fare i conti con la concorrenza agguerrita dei grandi brand presenti in rete e con richieste sempre più pressanti da parte dei consumatori, che vedono ancora nello store tradizionale uno spazio in cui avere un’esperienza di acquisto più umana e personalizzata. Ed è su questo che i retailer devono puntare per convincere i clienti a non abbandonare del tutto il mondo degli acquisti fisici a vantaggio di quelli online. Secondo un recente studio internazionale di Verizon, l’88% è soddisfatto nell’interagire con persone in carne e ossa al momento di fare acquisti, a fronte di un 60% che apprezza lo shopping con interazioni guidate dall’intelligenza artificiale.

Il digitale entra in negozio

Un uso ben calibrato di tecnologie quali la realtà aumentata e il 5G può aiutare i negozi fisici a mantenere attrattività nei confronti dei consumatori, offrendo esperienze sempre più personalizzate. Strategie di gamification o il “camerino virtuale” (virtual try-on) rappresentano strumenti im-

portanti per convincere i consumatori a passare dal divano al negozio. Ad esempio, grazie al virtual try-on i negozianti possono ovviare alle code ai camerini per provare i capi, permettendo ai clienti di visualizzare taglie, colori o fantasie diverse senza dover attendere l’arrivo di un assistente agli acquisti.

L’Augmented Reality, assieme ad app e chioschi digitali, può anche aiutare il cliente a muoversi all’interno del negozio, guidandolo attraverso le varie aree dello store, in modo da facilitare la sua permanenza e migliorare la sua esperienza di acquisto. Altro tema importante è quello della fluidità e semplicità di acquisto: attraverso applicazioni dedicate e pagamenti elettronici, i clienti possono concludere senza intoppi e rapidamente la fase di checkout.

Personalizzazione e multicanalità Un po’ come sta accadendo per i grandi marchi del lusso, il passaggio dal negozio fisico dovrebbe diventare qualcosa di esperienziale, non solo un evento legato all’acquisto. Pensiamo a mostre d’arte, ristoranti gourmet, ma anche un tuffo nel “dietro le quinte” di prodotti iconici che hanno fatto la storia delle maison di moda più blasonate al mondo: tutto questo può essere veicolato grazie alla realtà aumentata, a infrastrutture di rete moderne e basate sul 5G. Anche la consulenza all’acquisto può essere supportata dal-

la tecnologia attraverso suggerimenti personalizzati, basati sulla cronologia degli acquisti. Ad esempio, la GenAI può affinare i servizi di personal styling, applicando algoritmi capaci di allineare le aspettative e le richieste dei clienti con suggerimenti e offerte su misura, basate su taglie e preferenze. Un ruolo cruciale, in questo senso, è giocato dai dati, che oggi per le aziende rappresentano strumenti essenziali per conoscere i propri clienti e offrire una migliore esperienza di acquisto. Dati che però devono analizzati ed elaborati, nonché trattati nel pieno rispetto delle normative locali e internazionali. Questo è un altro punto di attenzione per i retailer, per evitare di incorrere in incidenti che potrebbero danneggiare in modo irrimediabile la loro reputazione sul mercato. I retailer e i brand devono trovare il giusto equilibrio fra due modalità di fare acquisti, e-commerce e negozi, per andare incontro alle esigenze di diversi consumatori. I grandi marchi del settore retail devono avere il coraggio di sperimentare in ambito tecnologico: dalle loro scelte dipenderà la sopravvivenza degli store fisici. E più in generale, poter offrire ai clienti un’esperienza multicanale, anche durante un medesimo processo di acquisto, sembra essere la chiave di volta per il futuro del settore retail.

James Hughes, chief technology officer retail di Verizon Business

STAMPANTI, LA SICUREZZA DA NON SOTTOVALUTARE

Progettazione consapevole, funzionalità avanzate, protezione su più livelli: così si azzera il rischio.

La stampante è spesso colpevole, o meglio un colpevole al di sopra di ogni sospetto: difficilmente si pensa che un dispositivo destinato a produrre documenti cartacei sia, in realtà, al centro di molti processi digitali e, quindi, esposto al rischio di attacchi, manomissioni o incidenti informatici.

Le stampanti multifunzione accedono a file di testo e di immagine collegandosi a fonti locali, come chiavette Usb e smartphone, ma anche a caselle di posta elettronica, archivi aziendali e pagine Web. Sono, dunque, il punto di ingresso, di transito e di uscita di documenti cartacei e digitalizzati, e inoltre (al pari di un Pc) sono un endpoint aziendale potenzialmente attaccabile.

Secondo uno studio di IDC (“Public Cloud Device and Print Management Infrastructure Awareness and Adoption in Europe”, del 2024), il 31% delle aziende subisce in un anno almeno una violazione di sicurezza legata alla stampa. La casistica dei rischi è molto ampia: si spazia dagli hackeraggi ai ransomware, dal furto di dati alle fughe provocate non da dolo bensì da semplice disattenzione. A tal proposito basti pensare, come sottolinea una ricerca di IDC, che la principale categoria di violazioni della sicurezza legate alla stampa è l’accesso indebito a documenti “dimenticati” o abbandonati nel vano di uscita del dispositivo, che finiscono nelle mani sbagliate. Nella peggiore delle ipotesi, potrebbero verificarsi fughe di dati riservati dell’azienda o dei dipendenti (pensiamo, per esempio, alla stampa di una busta paga) con conseguenti problemi e costi di compliance da affrontare.

Le scelte corrette

La stampante è un colpevole innocente: la vera colpa è sottovalutare i rischi legati a utilizzi scorretti, a un’implementazione non consapevole, alla persistenza in azienda di dispositivi obsoleti. Al contrario, compiere le giuste scelte di acquisto, utilizzo e gestione delle stampanti permette di potenziare la sicurezza generale dell’azienda, dei suoi dati e delle sue attività. La consapevolezza del rischio è il primo passo: la stampante e i dati che transitano da questo dispositivo andrebbero protetti così come si fa, normalmente, con un computer aziendale. Nel caso dei Pc, i principali strumenti di difesa sono i firewall, l’accesso protetto da password e gli antivirus. La stampante merita altrettanta attenzione: serve una sicurezza a più livelli. Proprio come quella messa in campo da Brother

La sicurezza a tre livelli

Si parte alla progettazione sicura dei dispositivi: la tecnologia Secure Function Lock di Brother è un’opzione del pannello di controllo delle stampanti, che tramite password limita l’accesso degli utenti alle impostazioni della macchina e ad alcune sue funzioni. Per quanto riguarda la sicurezza di rete, Brother schiera in campo funzionalità e strumenti di gestione flessibili, conformi a standard di settore come IEEE 802.1X (per la connessione sicura alle reti aziendali) e IPsec (che garantisce l’integrità dei dati e l’autenticazione tra le stampanti Brother e altri dispositivi). Infine, il terzo livello: la sicurezza dei dati, sia quelli digitali sia quelli analogici, stampati su carta.

Per quanto riguarda i primi, nelle stampanti Brother una suite di protocolli mantiene le comunicazioni sicure e applica la crittografia a tutti i dati trasmessi in rete. Per proteggere le informazioni su carta, invece, fondamentale è il Pull Printing, cioè una tecnologia che invia i documenti da stampare in una “coda virtuale”, per poi produrli materialmente solo quando l’utente si trova in prossimità del dispositivo. Per ritirare il documento dalla stampante è necessario autenticarsi tramite NFC o PIN personalizzato. Insomma, con Brother, a tutti i livelli, la sicurezza è uno standard.

CLOUD, LA SCORCIATOIA PER LA PROSSIMA RIVOLUZIONE

Con i propri servizi, Ovhcloud punta a democratizzare una tecnologia oggi ancora poco accessibile.

Mentre l’intelligenza artificiale cattura l’attenzione per la sua rapidità di sviluppo, con novità che si rincorrono a velocità impressionante, c’è un’altra rivoluzione, quella del quantum computing, che sta prendendo forma con un passo decisamente diverso, dettato dalla sua natura “fisica” e dalla complessità di questa tecnologia. Il computer quantistici non sono destinati a sostituire i sistemi informatici classici ma a lavorare in sinergia, consentendo accelerazioni significative per tipi specifici di calcoli come l’ottimizzazione, la simulazione e il machine learning. È una promessa di progresso che, sebbene richieda un percorso lungo, è cruciale iniziare a esplorare oggi, proprio per i tempi estesi che porteranno alla sua piena efficienza.

Abbiamo chiesto a Fanny Bouton, quantum computing lead di Ovhcloud, il suo punto di vista e quale approccio stia adottando la sua azienda. “La sfida principale”, ha detto Bouton, “è l’attuale inaccessibilità di questa tecnologia per la maggior parte delle aziende e dei ricercatori. Ma Ovhcloud ha lanciato un percorso teso a fornire gli strumenti necessari affinché studenti, ricercatori e aziende possano apprendere, sviluppare e prepararsi per l’arrivo dei computer quantistici reali”.

Abbattere le barriere

Per le aziende, il primo passo fondamentale per avvicinarsi a questo nuovo mondo è quello di poter apprendere e sperimentare senza barriere all’ingresso. Acquistare un computer quantisti-

co oggi è un lusso che in pochi possono permettersi e per questo Ovhcloud ha introdotto un servizio di emulatori quantistici già tre anni fa. Questi software simulano il comportamento dei sistemi quantistici su Cpu o Gpu classiche (anziché sulle Qpu, Quantum Processing Unit) e rappresentano una sorta di “approccio graduale” al quantum. Con un costo estremamente contenuto le aziende possono iniziare a sviluppare algoritmi e codici, preparando il software che un giorno potrà essere eseguito su veri computer quantistici.

Il software che viene usato con i sistemi di calcolo quantistici, infatti, è molto diverso (concettualmente e nella pratica) da quello creato per i normali calcolatori e gli sviluppatori hanno bisogno di tempo e pratica per far crescere la forma mentis necessaria. Attualmente Ovhcloud offre nove emulatori di diversi tipi di Qpu (inclusi Pascal, Quandela, Iqm e Ibm), il tutto in un

AMBIZIONI E ALLEANZE ITALIANE

Una rete nazionale, fatta di competenze diverse e su cui poter costruire un ecosistema coeso, competitivo e pronto al confronto con con i grandi attori internazionali del settore del quantum computing. Questo vuol essere l’Alleanza Quantistica Italiana (Aqi), la cui nascita è stata annunciata ufficialmente lo scorso luglio. I membri fondatori sono otto ed evidenziano la trasversalità del calcolo quantistico rispetto alle discipline e agli ambiti scientifici: le università di Bologna, Padova, Pavia e il Politecnico di Milano, accanto a Cineca, Inrim ( Istituto Nazionale di Ricerca Metrologica), Inaf (Istituto Nazionale di Astrofisica) e Infn (Istituto Nazionale di Fisica Nucleare). A detta dei fondatori, l’obiettivo è quello di “evitare la frammentazione delle risorse, superare le inefficienze operative e garantire che l’Italia possa contribuire come attore di primo piano alla nascita delle tecnologie quantistiche più avanzate al mondo”. Un obiettivo decisamente ambizioso.

cloud sovrano che garantisce sicurezza e facilità di gestione contrattuale, senza la necessità di dover caricare nuovi software sui computer aziendali. Il passo successivo a quello dei simulatori è l’accesso ai computer quantistici reali. Si inizia con Pascal e Ovhcloud ha una roadmap ambiziosa, che prevede il dispiegamento di otto computer quantistici, di cui sette europei, entro due anni. L’obiettivo è rendere accessibile a tutti la tecnologia dei costruttori europei, combattendo i costi elevati e la dipendenza da altre regioni. I prezzi possono partire da circa 3.000 euro all’ora, ma il modello di pagamento al secondo rende l’accesso flessibile e gestibile per un’azienda che voglia testare i propri algoritmi.

Da un punto di vista fisico, i computer quantistici non saranno dislocati nei locali dei data center di Ovhcloud a causa delle notevoli richieste “atipiche” di cui questi dispositivi necessitano per funzionare. Si parla di ambienti con un controllo dell’omogeneità della temperatura notevolmente accurato, fino al controllo di vibrazioni e suoni, per arrivare alla presenza di sistemi criogenici avazati. Per questo motivo le macchine saranno gestite a distanza da Ovhcloud per garantirne la stabilità e la manutenzione, offrendo ai clienti una piattaforma unificata per accedere a diverse architetture e a differenti software.

Un ecosistema europeo

“Un aspetto cruciale della nostra visione”, ha spiegato Bouton, “è la costruzione di un ecosistema quantistico europeo robusto”. In Europa esiste un gran numero di eccellenze del settore, tra startup e costruttori che hanno bisogno di supporto, e il fondatore di Ovhcloud, Octave Klaba, insiste perché questa tecnologia sia aperta a tutti. Si vuole offrire a queste startup l’opportunità di vendere e rendere accessibile il computing quantistico europeo, accelerando così lo sviluppo dell'ecosistema e riducendo la dipendenza da altre regioni. “Il nostro messaggio ai manager e alle grandi aziende, come Sanofi, le banche

Fanny Bouton

e i gruppi di trasporto”, ha continuato l’esperta, “è chiaro: è il momento di iniziare il vostro percorso nel quantum computing. In Europa c’è ancora una certa timidezza nell’affrontare questa tecnologia, mentre i concorrenti americani e cinesi sono già in piena corsa. Con gli emulatori e, ora, con i computer quantistici reali disponibili tramite il cloud sovrano di Ovhcloud, avete gli strumenti per iniziare in modo economico e sicuro. Non si tratta di fare soldi immediatamente, ma di preparare il futuro e di essere pronti per quella che sarà una delle più grandi trasformazioni industriali”. Il quantum computing è una tecnologia complessa che richiede competenze matematiche e lo sviluppo di algoritmi specifici, nonché team ingegneristici capaci di gestire sia l’hardware sia l’operatività nei data center. È un viaggio lungo, forse serviranno vent’anni per raggiungere il pieno potenziale (sul tema delle tempistiche si sono espressi, con opinioni discordi, anche Google e l’amministratore delegato di Nvidia) ma già oggi, con poche migliaia di qubit, si possono ottenere vantaggi significativi rispetto all’High Performance Computing, sfruttando il calcolo ibrido. “Le nuove idee di giovani scienziati e matematici stanno emergendo ogni anno e crediamo che questo sia solo l’inizio di scoperte sorprendenti”, ha detto la manager di Ovhcloud. Giancarlo Calzetta

L’INCONTRO TRA DUE MONDI

Di intelligenza artificiale quantistica si discute da tempo, ma servirà ancora qualche anno per veder esplodere il fenomeno.

Più che chiedersi se il calcolo quantistico sarà una nuova rivoluzione paragonabile a quella (già in corso, ma ancora lontana dalla piena realizzazione) dell’intelligenza artificiale, ci si potrebbe interrogare sulle potenzialità di un’intersezione fra questi due mondi. Nel campo dell’informatica si discute, in realtà, già da decenni di intelligenza artificiale quantistica, o Quantum AI, riferendosi all’uso dei sistemi di calcolo basati sui qubit (anziché sui bit) per accelerare attività come l’addestramento e il potenziamento dei modelli di AI, ma anche per trovare risposte a problemi complessi negli ambiti più disparati. Il contributo è, però, speculare: l’AI può a sua volta migliorare i sistemi quantistici, in particolare per quanto riguarda la

riduzione del tasso di errore. L’espressione Quantum AI ha cominciato a essere usata in ambito informatico negli anni Dieci del nuovo millennio e una tappa decisiva è stata la creazione, nel 2013, del Quantum Artificial Intelligence Lab, una joint-venture che vede Google a fianco della Nasa e della Universities Space Research Association.

Big Tech e specialisti

Se ne parla da tempo, dunque, ma questo è per certi versi un campo ancora pioneristico, popolato da numero relativamente ristretto di attori tecnologici. Spiccano alcune Big Tech, come la già citata Google e come Microsoft, Amazon e Ibm, accanto a società specializzate come le statunitensi Quantum Computing

Inc. (che propone macchine quantistiche funzionanti a temperatura ambiente) e QuEra Computing (che sviluppa e costruisce computer quantistici basati su atomi neutri, scalabili e programmabili), e ancora la canadese D-Wave Quantum (realizza sistemi commerciali, rivolti a grandi aziende, centri di ricerca e università). In Europa si distingue Quantinuum, nata a Cambridge dalla fusione tra Cambridge Quantum e Honeywell Quantum Solutions: l’azienda è attualmente impegnata nella definizione di standard e nello sviluppo di sistemi quantistici ottimizzati per l’intelligenza artificiale generativa. In questo percorso, sta collaborando con diversi partner industriali in settori come l’automotive, il farmaceutico e le scienze dei materiali. La filiale italiana di Hpe, per esempio, sta lavorando con Quantinuum per utilizzare i dati generati da sistemi quantistici in campo automobilistico, per migliorare le

I CASI D’USO DELL’AI QUANTISTICA

Dal settore farmaceutico ai servizi finanziari, dallo studio dei cambiamenti climatici alla cybersicurezza: le applicazioni concrete di intelligenza artificiale quantistica spaziano tra ambiti molto diversi, accomunati dalla sfida di dover mettere a frutto e governare un’ingente quantità di dati. Ecco alcuni esempi.

• Biotecnologie e farmaceutico: simulazione delle interazioni tra molecole per lo sviluppo di nuovi farmaci.

• Servizi finanziari: analisi del rischio, previsioni di Borsa, rilevamento delle frodi.

• Logistica e supply chain: gestione dell’inventario, previsione della domanda, ottimizzazione delle attività operative.

• Automotive: miglioramento degli algoritmi per i sistemi a guida autonoma.

• Energia: simulazioni di tecnologie per l’alimentazione a batteria, ottimizzazione della gestione delle reti energetiche, sviluppo di materiali.

• Scienza: analisi dati e modellazione per le previsioni meteo e lo studio del clima.

• Cybersicurezza: potenziamento della protezione dati, sviluppo di protocolli crittografici post-quantistici, automazione del rilevamento delle minacce.

• Software: addestramento accelerato di Large Language Model, miglioramento degli algoritmi di elaborazione del linguaggio naturale.

batterie elettriche e per l’ottimizzazione aerodinamica dei veicoli.

Fra i promotori dell’AI quantistica c’è anche Sas, che ha in corso diverse collaborazioni con alcune delle realtà fin qui citate. E proprio uno studio di Sas, condotto su 500 professionisti di altrettante aziende di diversi settori, getta luce sul fenomeno evidenziando che il 60% di queste realtà ha già investito in Quantum AI o almeno intende farlo. Più che alla percentuale di adozione e propensione (sarebbe interessante conoscere nel dettaglio il campione d’indagine per attribuire un peso specifico al dato del 60%), è utile forse guardare a quelli che sono gli ostacoli segnalati dalle aziende:

il 38% degli intervistati ha citato il problema dei costi, il 25% la mancanza di conoscenze o competenze, il 31% la difficoltà a definire per l’AI quantistica dei casi d’uso concreti.

Un boom annunciato

Il vero potenziale, anche economico, della Quantum AI esploderà nei prossimi anni, in un orizzonte di medio-lungo periodo: secondo le previsioni di Precedence Research, il mercato ha raggiunto nel 2024 un valore di circa 351 milioni di dollari (di cui il 40% è finito nelle tasche di società nordamericane, il 24% in Europa) e salirà quest’anno a 473,5 milioni, per poi iniziare una scalata che

porterà a quasi 7 miliardi di dollari di giro d’affari nel 2034. Al di là dei numeri, è significativa la previsione sullo spostamento del modello di deployment prevalente per l’AI quantistica: finora, hanno prevalso le installazioni on-premises, ovvero realizzate all’interno dei data center delle organizzazioni utenti, ma la crescita attesa per i prossimi anni sarà in larga parte legata al cloud. Gli analisti si aspettano un’evoluzione anche per quanto riguarda le principali applicazioni della Quantum AI: il focus è stato, finora, sull’uso dei computer quantistici nell’addestramento di algoritmi e sull’analisi dei dati per ottimizzazioni ed efficienza, mentre nei prossimi anni saliranno alla ribalta le applicazioni che interessano la cybersicurezza e, in particolare, la crittografia dei dati. Detto diversamente, la domanda di soluzioni di sicurezza informatica avanzate sarà il principale motore di crescita del mercato. A fare un po’ da freno, di contro, ci saranno gli elevati costi di sviluppo e costruzione dei sistemi di calcolo basati su qubit, insieme alle tante complessità tecniche ancora irrisolte del quantum computing.

Valentina Bernocco

FRA DATI, TECNOLOGIE E COLLABORAZIONE

Telemedicina, intelligenza artificiale, analytics: sono alcune delle spinte trasformative del settore. Ma al centro del cambiamento restano le persone.

La combinazione intelligenza artificiale, telemedicina e altre soluzioni digitali sta trasformando il modo in cui medici e pazienti interagiscono, così come il modo in cui le strutture sanitarie operano. Grazie all’utilizzo diffuso di piattaforme integrate, sensori indossabili e algoritmi di analisi dei dati, diagnosi più rapide e piani terapeutici personalizzati diventano possibili, migliorando la qualità delle cure e l’efficienza complessiva del sistema sanitario, anche nelle aree più isolate. Le tecnologie digitali oggi sono determinanti in tutti i processi sanitari, influenzando diagnosi, trattamenti, gestione amministrativa, ricerca clinica e organizzazione del lavoro.

L’adozione di sistemi interoperabili, sicuri e scalabili – pur non essendo di per sé una novità – sta impattando sulla pratica quotidiana di medici, infermieri, tecnici e operatori amministrativi. E naturalmente sull’esperienza di cura dei pazienti e dei loro caregiver. Questa evoluzione scaturisce dalla collaborazione tra ospedali, servizi territoriali, centri di ricerca e imprese tecnologiche, che sviluppano soluzioni capaci di ridurre i tempi di diagnosi, aumentare la precisione terapeutica e ottimizzare l’uso delle risorse.

Soluzioni trasformative

Tra gli ambiti d’innovazione di maggiore impatto c’è la telemedicina integrata, che

permette di monitorare in modo continuo pazienti cronici, gestire follow-up postoperatori e offrire consulti specialistici a distanza. L’uso di sensori indossabili collegati a piattaforme ospedaliere abilita interventi tempestivi in caso di variazioni nei parametri vitali, riducendo gli accessi non necessari e garantendo continuità assistenziale. L’integrazione con il Fascicolo Sanitario Elettronico, in parallelo, può assicurare al medico una visione completa della storia clinica del paziente, riducendo il rischio di errore umano. Fra le tecnologie più innovative, l’intelligenza artificiale clinica si sta affermando anche come strumento di supporto alle decisioni, analizzando immagini radiologiche, referti e dati di laboratorio con algoritmi di riconoscimento avanzato. Sistemi predittivi identificano pazienti a rischio di complicanze e suggeriscono interventi mirati, mentre

L’AI SI LAUREA IN MEDICINA

La digitalizzazione della sanità è un tema caldo in italia da almeno cinque anni, da quando l’esperienza della pandemia di Covid ha evidenziato l’importanza di infrastrutture informatiche, piattaforme dati e applicazioni per la gestione di emergenze sanitarie. Ma anche di procedure ordinarie (mediche e amministrative) in un sistema oberato e a rischio collasso. Nel Piano Nazionale di Ripresa e Resilienza, poi, un’intera “Missione” è stata dedicata alla sanità digitale, fissando obiettivi che riguardavano sia la telemedicina sia una decentralizzazione migliore e più ragionata dell’SSN. Cinque anni fa si parlava di piattaforme dati (necessarie, tra le altre cose, per il nuovo Fascicolo Sanitario Elettronico), di dispositivi IoT indossabili per il monitoraggio dei pazienti, di digital therapeutics. L’intelligenza artificiale non era ancora diventata un tema di massa, sebbene già fosse un terreno di investimento strategico sia per le Big Tech sia per i vendor di soluzioni verticali per il settore sanitario, e sebbene fosse già utilizzata da tempo nella ricerca medica e farmacologica e anche in alcuni ambiti diagnostici, per esempio nell’imaging. La “febbre” dell’AI, cominciata con il debutto di ChatGpt a fine 2022, ha presto dimostrato di non essere solo una moda o un fenomeno di costume transitorio, tant’è che nel suo “Health Care Sector Outlook 2024” Deloitte l’ha inserita fra le tendenze che plasmeranno il settore nei prossimi anni, aiutando a democratizzare l’accesso alle prestazioni sanitarie. Sempre a detta di Deloitte, negli Stati Uniti l’uso dell’AI nel settore sanitario potrebbe consentire 360 miliardi di dollari di risparmi in cinque anni, mentre il mercato delle piattaforme per l’interoperabilità dei dati clinici quasi raddoppierà di valore nel giro di quattro anni (dai 3,4 miliardi di dollari del 2022 ai 6,2 miliardi stimati per il 2026). Sempre negli Stati Uniti l’anno scorso si contavano circa 1.500 vendor di intelligenza artificiale per il settore sanitario. Non si parla solo di AI generativa, naturalmente, ma anche di altre forme di machine learning non basate su grandi modelli linguistici (Large Language Model) e su interfacce conversazionali. La GenAI è però un ambito di sviluppo promettente, come evidenziato da un recente studio di Ntt Data condotto su 425 dirigenti di grandi e medie aziende del settore sanitario: per il 94% degli intervistati, la GenAI accelera la ricerca e sviluppo in campo medico, poiché facilita l’accesso a nuovi trattamenti, migliora le capacità diagnostiche, automatizza molti processi e consente di fare analisi predittive. Non mancano criticità (e su questi aspetti lo studio di Ntt Data ricalca i temi ricorrenti di altre analisi e opinioni): per molti dirigenti sanitari, il 75%, ancora mancano le competenze necessarie per lavorare efficacemente con la GenAI, mentre il 91% teme possibili violazioni della privacy e abusi delle informazioni sanitarie protette. V.B.

nei pronto soccorso il triage automatizzato ottimizza la gestione delle urgenze. Questa capacità di elaborazione consente di passare da un approccio reattivo a uno proattivo, con benefici concreti per la pianificazione delle cure. In parallelo, la robotica trova applicazione tanto in sala operatoria quanto nei reparti: bracci ad alta precisione supportano interventi complessi in neurochirurgia, ortopedia e cardiochirurgia, mentre robot mobili iniziano a occuparsi del trasporto di farmaci e campioni biologici. Sistemi automatizzati di sterilizzazione e sanificazione riducono il rischio di infezioni e liberano il personale da mansioni ripetitive, permettendogli di concentrarsi sull’assistenza diretta. Anche l’analisi di Big Data, che combina informazioni

cliniche, genetiche e ambientali, rappresenta un tassello strategico. Piattaforme di analytics individuano correlazioni tra fattori di rischio e insorgenza di malattie, permettendo di orientare politiche di prevenzione e di sviluppare protocolli terapeutici personalizzati. L’elaborazione di grandi moli di dati accelera la validazione di nuove terapie e la valutazione di programmi sanitari, contribuendo a un miglior uso delle risorse.

I requisiti fondanti

Il funzionamento di tutto ciò che abbiamo descritto dipende anzitutto dall’interoperabilità dei sistemi informativi. Il Fascicolo Sanitario Elettronico 2.0 centralizza le informazioni cliniche e ne regola l’accesso, mentre il sempre più

ricco ecosistema di dati consente analisi aggregate su scala nazionale e internazionale. In questo scenario riveste un ruolo sempre più cruciale la sicurezza informatica, regolata dalle linee guida Nis2. Le strutture sanitarie implementano sistemi di monitoraggio in tempo reale delle reti, rilevamento intrusioni e protocolli di risposta rapida. La formazione specifica del personale riduce il rischio di vulnerabilità legate a comportamenti non sicuri.

La logica della security by design garantisce attenzione agli aspetti di sicurezza fin dalle prime fasi di sviluppo delle soluzioni limitando gli interventi correttivi successivi.

C’è poi da considerare la componente umana e organizzativa. L’introduzione di queste tecnologie comporta una riorga-

UN APPUNTAMENTO DEDICATO ALL’INNOVAZIONE

L’“Healthcare Innovation Summit 2025”, in programma a Milano dall’8 al 10 ottobre e organizzato da Aisis–Associazione

Italiana Sistemi Informativi in Sanità insieme a TIG–The Innovation Group, si propone come un luogo di confronto operativo tra dirigenti sanitari del pubblico e del privato, imprese e operatori impegnati nella fornitura di infrastrutture, sistemi, servizi e piattaforme, fondazioni e centri di ricerca. Qui verranno presentate linee guida, dati sugli investimenti e casi d’uso relativi a sicurezza informatica, interoperabilità dei sistemi e nuove tecniche di cura, tra cui documenti tecnici sull’applicazione della direttiva europe Nis2 (Network Information Security) e sull’interoperabilità dei dati clinici. L’obiettivo oggi è rendere queste innovazioni scalabili e sostenibili, favorendo un’adozione diffusa in tutto il sistema sanitario. Il Summit si inserisce all’interno di un programma più ampio di attività comuni portate avanti da Aisis e TIG, che comprende gruppi di lavoro, ricerche e momenti di confronto istituzionale. Tra questi vi è il gruppo di lavoro intersettoriale dedicato all’applicazione in sanità della direttiva Nis2, avviato a febbraio e terminato durante l’estate con la produzione di un documento di linee guida presentato durante il Summit. Un secondo gruppo di lavoro si è concentrato invece su interoperabilità e qualità dei dati clinici, in relazione al Fascicolo Sanitario Elettronico 2.0, all’Ecosistema Dati Sanitari e alle attività di ricerca e governance, con la preparazione di un ulteriore documento che sarà discusso a Milano. Parallelamente, Aisis e TIG hanno promosso per la prima volta la “Digital Healthcare Survey”, un’indagine che approfondisce e monitora i temi della governance dell’innovazione digitale, gli investimenti effettuati in sanità e la loro allocazione tra nuovi progetti e manutenzione di iniziative esistenti. Lo scorso maggio si è tenuta a Roma la “Healthcare Innovation Executive Conference”, momento di confronto istituzionale che ha anticipato i temi del Summit e che diventerà un appuntamento fisso nel corso dell’anno, come roadshow itinerante tra le principali città italiane.

nizzazione delle singole strutture sanitarie, e in senso lato dell’intero Servizio Sanitario Nazionale: occorrono piattaforme collaborative per favorire il coor-

dinamento tra ospedali, medici di base e assistenza domiciliare, mentre nuovi ruoli professionali (come data scientist sanitari, ingegneri clinici specializzati

in AI e robotica ed esperti di cybersecurity sanitaria) affiancano i team clinici. La governance basata su dati in tempo reale consente di adattare rapidamente piani terapeutici e allocazione di risorse, migliorando la gestione delle emergenze e la risposta a bisogni specifici. Questa convergenza di telemedicina, intelligenza artificiale, robotica, interoperabilità e sicurezza informatica non è più un insieme di progetti sperimentali, ma ormai una rete di strumenti già operativi. Il loro impiego coordinato sta producendo risultati tangibili: diagnosi più rapide, terapie personalizzate, migliore gestione delle risorse e un accesso ai servizi più equo, anche nelle aree meno servite. I sistemi informativi per l’healthcare diventano un tassello cruciale affinché l’intero comparto sanitario possa assolvere al meglio al proprio ruolo: prendersi cura delle persone e migliorare la qualità di vita di tutti i cittadini.

TECNOLOGIE E PROGETTI

DI TRASFORMAZIONE

L’evoluzione digitale in cui irrompe l’intelligenza artificiale, generativa e agentica, portando efficienza e velocità, ma soprattutto migliorando i servizi offerti ai pazienti. Il punto cruciale dell’interoperabilità fra i dati e le piattaforme. La formazione di nuove competenze, con particolare riguardo alla cybersicurezza. Esempi concreti di progetti apripista realizzati a più mani, tra vendor, pubbliche amministrazioni e attori del sistema sanitario. Sono alcuni dei temi portati sul palco dagli sponsor dell’"Healthcare Innovation Summit 2025" di Aisis–Associazione Italiana Sistemi Informativi in Sanità e TIG–The Innovation Group: vi proponiamo una carrellata dei loro punti di vista sulla trasformazione in corso e sulle sfide da affrontare.

L’ESEMPIO PUGLIESE DI DIGITALIZZAZIONE E INTEGRAZIONE

In Puglia è stato realizzato SIRDImm (Sistema Informativo Regionale per la Diagnostica per Immagini), un progetto di digitalizzazione unico in Italia per ampiezza e livello di integrazione con la sanità pubblica. Guidato da AGFA HealthCare in qualità di capofila, insieme a Medas, Lutech, GPI e KPMG Advisory, e sviluppato in collaborazione con InnovaPuglia, il sistema collega ospedali e strutture sanitarie su tutto il territorio regionale tramite la piattaforma Enterprise Imaging di AGFA HealthCare. La soluzione include: un accesso centralizzato e sicuro alle immagini diagnostiche in tempo reale; strumenti avanzati di diagnostica e collaborazione; l’integrazione con la cartella clinica elettronica e il Portale Puglia Salute; l’automazione completa del flusso di lavoro, dalla prenotazione all’analisi delle immagini. Grazie a questa infrastruttura, i professionisti sanitari possono oggi contare su una piattaforma unificata e altamente affidabile, che automatizza l’intero flusso di lavoro, dalla prenotazione degli esami fino alla visualizzazione delle immagini, migliorando l’efficienza operativa e la qualità dell’assistenza ai pazienti. “Questo progetto rappresenta un unicum in Italia: non solo per l’ampiezza della sua copertura geografica, ma anche per l’elevato livello di integrazione con l’intero ecosistema della sanità pubblica”, spiega Ludovico Genco di InnovaPuglia, Direttore Esecutivo del progetto. “AGFA HealthCare ha svolto un ruolo determinante nel trasformare questa visione ambiziosa in una realtà concreta”.

AGFA HealthCare

HELIOS: LA PIATTAFORMA PER UNA SANITÀ DIGITALE INTEGRATA E SOSTENIBILE

La sanità digitale è oggi una priorità strategica per il Paese: la crescita della domanda di servizi, l’invecchiamento della popolazione e la necessità di garantire equità di accesso richiedono un sistema più efficiente, sicuro e vicino al cittadino. La trasformazione in atto non riguarda solo la tecnologia, ma un vero e proprio cambio di paradigma che mette al centro la continuità delle cure e la sostenibilità complessiva del sistema. In questa prospettiva nasce HELIOS, la piattaforma di sanità digitale sviluppata da Almaviva. Un ecosistema aperto e interoperabile che consente di integrare i diversi attori – medici di medicina generale, specialisti, strutture ospedaliere, servizi territoriali – garantendo processi fluidi e una gestione unitaria delle informazioni cliniche. Attraverso soluzioni cliniche avanzate, algoritmi di intelligenza artificiale e strumenti evoluti di analisi dei dati, HELIOS favorisce una presa in carico continua e personalizzata, migliorando qualità delle cure ed esperienza digitale del paziente. L’approccio è inclusivo e scalabile, con un’attenzione costante alla sicurezza dei dati e al rispetto delle normative. Con HELIOS, Almaviva mette a disposizione del sistema sanitario una suite di servizi digitali che coniugano innovazione e sostenibilità, contribuendo a costruire un modello di sanità di prossimità e capace di affrontare le sfide del futuro.

Almaviva

CYBERSECURITY E CREDITI ECM: UNA CONVERGENZA STRATEGICA

Nel mondo della formazione professionale, i crediti Ecm (Educazione Continua in Medicina) sono spesso percepiti come un adempimento formale. Ma se guardiamo alla Direttiva Nis2 e al ruolo sempre più cruciale della cybersecurity anche in ambito sanitario, il paradigma cambia. I crediti formativi diventano leva strategica per costruire consapevolezza, responsabilità e resilienza. Non più solo un “bollino” da accumulare, ma un’occasione concreta per formare il personale sanitario su minacce cyber reali e sempre più sofisticate.

Con la Nis2, anche le strutture sanitarie rientrano tra gli enti obbligati a garantire elevati standard di sicurezza informatica. Questo significa che la formazione continua del personale, dai vertici dirigenziali fino agli operatori, non è più opzionale: è un pilastro del sistema difensivo. Ecco perché integrare percorsi di cybersecurity nei programmi Ecm non è solo una buona pratica, ma una risposta intelligente e lungimirante ai nuovi obblighi normativi. L’approccio va però ripensato: niente corsi teorici infarciti di gergo tecnico e policy astratte. Servono percorsi agili, pratici, capaci di aumentare la consapevolezza dei rischi e insegnare comportamenti corretti da adottare nella quotidianità lavorativa. Perché se un medico clicca sul link sbagliato, non è solo un problema IT: è un rischio per l’intera struttura, per i pazienti, per i dati sensibili. È ora di fare dei crediti Ecm un investimento in cultura della sicurezza. Perché un operatore sanitario consapevole è anche un anello forte nella catena difensiva contro le minacce cyber. È qui che entra in gioco l’integrazione tra percorsi Ecm e Cyber Guru Awareness. Un’opportunità concreta per formarsi – e formare – su phishing, malware, data breach e altre minacce che, sì, colpiscono anche le strutture sanitarie. Una formazione continua, semplice, efficace, che trasforma i crediti Ecm in veri strumenti di difesa.

Cyber Guru

VERIFICA QUALITÀ DELLE CARTELLE CLINICHE: CI PENSA L’AI

Connect Informatics presenta all’“Healthcare Summit 2025” il nuovo modulo “Verifica Qualità Cartella Clinica tramite

Intelligenza Artificiale”, una soluzione innovativa pensata per integrarsi con qualsiasi cartella clinica elettronica e per garantire l’interoperabilità, velocizzando i processi di verifica sia durante il ricovero sia in fase di chiusura della cartella clinica. La soluzione consente alle strutture di verificare in tempo reale la completezza e la qualità della documentazione clinica: l’intelligenza artificiale analizza le cartelle, segnala eventuali lacune o inesattezze e riduce i carichi amministrativi e il rischio di errore umano, garantendo i più alti standard di sicurezza e affidabilità dei dati clinici. La soluzione consente ai pazienti di ottenere una copia completa della propria cartella clinica in tempi drasticamente ridotti, migliorando l’esperienza di accesso ai dati sanitari. L’eliminazione di processi manuali e gli automatismi, anche durante il ricovero, rendono il sistema più sostenibile e veloce, riducendo gli sprechi di tempo e risorse per pazienti e strutture sanitarie. La soluzione di Connect Informatics è un esempio concreto di trasformazione digitale in cui l’intelligenza artificiale è davvero al servizio di persone e strutture sanitarie, nell’ottica di una sanità più efficiente, sicura, sostenibile e pienamente interoperabile.

Giancarlo Stoppani, presidente di Connect Informatics

DATI SANITARI: INESTIMABILE RISORSA DA PROTEGGERE

La sanità oggi sta vivendo una trasformazione epocale: stiamo passando da un approccio reattivo a uno predittivo e proattivo, grazie a digitalizzazione, interoperabilità e modelli di cura centrati sul paziente. In questo scenario, prevenzione e monitoraggio continuo diventano centrali e richiedono investimenti in tecnologie capaci di migliorare efficienza, qualità, sostenibilità ed esperienza del paziente. Il dato sanitario è il vero motore di questa rivoluzione, una risorsa inestimabile che consente di prendere decisioni rapide e informate, di migliorare la qualità delle cure, di sostenere la ricerca e abilitare modelli predittivi. La sua protezione è, dunque, imprescindibile. Per questo Dedalus investe costantemente in cybersecurity, adottando standard internazionali, misure di anonimizzazione per la ricerca e piattaforme di data governance che garantiscono un uso sicuro ed etico delle informazioni. Accanto al dato, l’AI è già un alleato strategico perché supporta la diagnosi, ottimizza i percorsi clinici, migliora la gestione delle risorse e riduce il peso burocratico, liberando tempo per i professionisti e valore per i pazienti. Per noi di Dedalus, le maggiori opportunità risiedono proprio nell’ottimizzazione dei processi e nella creazione di un modello di Value Based Healthcare. Con oltre 7.500 organizzazioni sanitarie clienti nel mondo, Dedalus mette a disposizione un portafoglio completo di soluzioni che copre l’intero percorso di cura, dalla prevenzione alle cure di fine vita. La nostra ambizione è chiara: promuovere un ecosistema digitale integrato, basato su interoperabilità e continuità dei processi, che renda la sanità più sostenibile e vicina ai bisogni delle persone.

Vincenzo Giannattasio Dell’Isola, amministratore delegato di Dedalus

LA DUPLICE SFIDA DI COSTI E COMPLESSITÀ SI VINCE CON L’AI

La sanità si trova di fronte a una duplice sfida: un’enorme quantità di dati complessi da analizzare e costi amministrativi che, secondo un’analisi di Strata Decision Technology, citata in un recente rapporto dell’American Hospital Association, possono assorbire fino al 40% delle risorse. In questo scenario, la GenAI non è più accessoria, ma è una leva strategica per ridisegnare il futuro delle cure. La trasformazione è già in atto: un recente report di Google Cloud (“The ROI of GenAI in Healthcare and Life Sciences”) evidenzia come il 62% delle organizzazioni sanitarie intervistate a livello globale abbia già implementato soluzioni di GenAI, con il 74% che dichiara di aver ottenuto risultati concreti. L’impatto più evidente è sulla produttività: il 38% degli early adopter ha dichiarato che quella dei dipendenti è raddoppiata. Questa trasformazione è ulteriormente accentuata dagli agenti AI, che operano come veri e propri collaboratori digitali per medici e ricercatori. Questi “agenti intelligenti” possono analizzare rapidamente dati frammentati, sintetizzare referti complessi e accelerare la scoperta scientifica, consentendo di ottenere risparmi significativi in termini di costi e di tempo. Un esempio arriva dalla Regione Umbria, che con la tecnologia Google Cloud ha sviluppato l’app UmbriaFacile, offrendo un punto di accesso unico e semplificato ai servizi sanitari: dal Fascicolo Sanitario Elettronico alla prenotazione digitale di visite ed esami, fino al monitoraggio in tempo reale delle code agli sportelli. L’obiettivo è concreto: sfruttare la tecnologia per ridurre le liste d’attesa e avvicinare la sanità ai bisogni delle persone.

Google Cloud

AGENTIC AI: L’INNOVAZIONE CHE RIPENSA LA SANITÀ

Nonostante il clamore mediatico e le sue straordinarie capacità, l’intelligenza artificiale generativa ha avuto finora un impatto limitato nei processi produttivi delle organizzazioni sanitarie, per via della complessità dei processi interni, per l’esigenza di affidabilità e l’integrazione con infrastrutture esistenti, che non facilitano un uso sistemico dell'AI. La soluzione potrebbe risiedere nell’Agentic AI, che segna un cambio di passo: non più strumenti che rispondono a richieste, ma agenti digitali autonomi, capaci di pianificare, prendere decisioni e collaborare tra loro. Si tratta di sistemi dotati di autonomia operativa, capacità di pianificazione, percezione del contesto e interazione proattiva con l'ambiente. Soprattutto, “Agentic” significa affidare un compito (obiettivo) a un singolo oppure a un insieme di agenti concorrenti o cooperanti. In un processo di lavoro complesso, all’AI vengono delegate porzioni di tale processo, con task da portare a termine in autonomia o con interazioni limitate con le persone.

Perché questo diventi realtà servono modelli verticali ed embedding specialistici, costruiti su dati di qualità. In questo l’Italia ha una risorsa preziosa: archivi sanitari unici, standard di interoperabilità consolidati e competenze tecnologiche avanzate. Più che un’evoluzione dell’AI, l’Agentic rappresenta una svolta culturale: processi sanitari più intelligenti e sicuri. Le tecnologie Agentic sono disponibili, molti progetti tuttavia falliranno. Sarà necessaria la capacità di un buon “sarto” che sappia cucire il vestito più adatto: senza una profonda conoscenza di dominio le soluzioni, anche le più sofisticate sono deboli o marginali, o restano promesse.

Antonio Colangelo, direttore R&D di Gruppo GPI

DALLA CURA DEI DATI ALLA CURA DELLE PERSONE: L’AI DI HUMANS.TECH TRASFORMA L'HEALTHCARE

L’intelligenza artificiale ha visto un’evoluzione da promessa a struttura operativa, diventando oggi un alleato strategico capace di trasformare interi ecosistemi. Ma fin dove può spingersi nel settore healthcare? Humans.tech risponde con un cambio di paradigma, che vede il passaggio dal data enrichment all’AI enrichment, dallo strumento fine a sé stesso alla soluzione che crea valore aggiunto e trasforma la cultura aziendale. L’obiettivo non è solo rendere i dati più intelligibili, ma arricchire le esperienze –fisiche e digitali – portandole su un piano superiore. È così che nasce un’intelligenza più evoluta, volta a potenziare l’interazione clinica, la formazione medica e la personalizzazione dei sistemi di cura. Il progetto AI Virtual Patient, sviluppato da Humans. tech per una importante azienda farmaceutica italiana, ne è un esempio concreto. Due pazienti simulati – Florence ed Henry – permettono da un lato ai giovani psichiatri di allenare la propria empatia in scenari di comunicazione complessi, dall’altro di ottimizzare l’aderenza alla cura dei pazienti reali. È l’inizio di un’evoluzione che non si limita ad algoritmi e protocolli, ma che si “arricchisce” di relazione, ascolto e valore condiviso

Carlo Rinaldi, director of marketing & communications di Humans.tech

IL VALORE DI INTEROPERABILITÀ E GOVERNANCE DEI DATI PER LA SANITÀ DEL FUTURO

La sanità dei prossimi anni sarà sempre più guidata dai dati: predittiva, personalizzata e supportata dall’intelligenza artificiale. La sfida principale sarà non solo tecnologica, ma culturale: garantire interoperabilità tra sistemi diversi e adottare una governance solida, capace di trasformare i dati in conoscenza utile. In questo scenario, InterSystems Italia si propone come partner tecnologico per semplificare l’intero ciclo di vita dei dati sanitari. Le nostre soluzioni connettono ospedali e territori, aggregano e normalizzano dati clinici e amministrativi, e permettono la creazione di un Fascicolo Sanitario longitudinale, sicuro e sempre accessibile, a garanzia della continuità di cura. In Italia siamo attivamente coinvolti nei progetti di alimentazione e gestione del Fascicolo Sanitario Elettronico 2.0, collaborando con Regioni, enti strumentali e aziende sanitarie. La nostra piattaforma abilita inoltre lo sviluppo di applicazioni innovative e l’adozione degli standard di settore, favorendo un ecosistema realmente interoperabile. Grazie all’esperienza internazionale e alla collaborazione con i partner locali, aiutiamo le strutture sanitarie a rendere i dati “liquidi”, sempre disponibili quando servono. È da qui che passa la vera innovazione, capace di migliorare processi, cure e vita dei cittadini.

InterSystems

SANITÀ DIGITALE, NON GADGET: REGIA, DATI, RISULTATI

Tra due regioni italiane possono esserci fino a quasi 14 anni di differenza nell’aspettativa di vita in buona salute. Se il digitale non serve a ridurre questo divario, a che cosa serve? In sanità si producono grandi quantità di dati ma gli indicatori del Nuovo Sistema di Garanzia mostrano ospedalizzazioni inappropriate e coperture vaccinali a macchia di leopardo. Non è questione di software, ma di regia. Le Regioni che hanno centralizzato sistemi, servizi al cittadino e acquisti mostrano performance migliori. Il resto insegue, e spesso nemmeno bene. È qui che il Ministero della Salute può imporsi come garante della salute pubblica. Si sta rischiando di ridurre tutto a input e output, dimenticando ciò che conta davvero: equità, anni di vita in buona salute e dignità. Serve scegliere se è meglio tenere chiusa una Casa della Comunità perché non conforme allo standard, oppure lavorare su come garantire il servizio anche nei contesti più difficili. Intanto, siamo entrati nell’era post-digitale. La tecnologia non è più un semplice strumento, ma un “salto ontologico”. Qui l’AI agisce senza comprendere e il rischio è che sia la società ad adattarsi alla macchina, non viceversa. Ciò significa trasformare il cittadino in dato, il medico in interfaccia, l’ospedale in piattaforma. Serve una nuova grammatica fatta di innovazione, oltre che di norme, etica, responsabilità e governance Non bastano algoritmi efficienti se portano con sé bias e disuguaglianze. Non bastano dashboard scintillanti se non c’è accountability pubblica sugli esiti. L’AI Act, il Gdpr, il Data Act, la nuova legge italiana sull’AI e le linee guida etiche europee vanno letti come infrastrutture democratiche, non vincoli burocratici. Il rischio? Che il digitale e l’AI amplifichino le disuguaglianze invece di ridurle. La promessa? Trasformare i dati in equità e i processi in salute misurabile. Non possiamo limitarci a celebrare l’innovazione. Serve avere il coraggio di chiedere al digitale ciò che chiediamo a un medico: diagnosi, cura e responsabilità. Donato Scolozzi, partner KPMG

INTEROPERABILITÀ E GESTIONE DEI

DATI

CLINICI: LA PROPOSTA INTEGRATA DI MEDICX

La piena interoperabilità dei dati clinici è una delle sfide cruciali per il sistema sanitario. In uno scenario in cui i pazienti si muovono tra diversi setting assistenziali, è fondamentale garantire continuità, sicurezza e accessibilità delle informazioni sanitarie. Da qui nasce la proposta di Medicx, società del Gruppo Covisian specializzata in servizi medicali evoluti, presente all’“Healthcare Summit 2025” con un intervento di Giampaolo Stopazzolo, group chief medical officer dell’azienda. All’interno di un ecosistema modulare di servizi verticali per l’healthcare, Medicx ha sviluppato una propria versione del Fascicolo Sanitario Personale, pensata per rispondere alle esigenze operative delle strutture sanitarie, nel rispetto delle normative vigenti e con un approccio orientato alla continuità della cura. La piattaforma consente l’archiviazione e consultazione centralizzata di esami, referti, prescrizioni e storico clinico, anche provenienti da strutture esterne, con accesso sia per i medici sia per i pazienti. La soluzione è AI-powered: grazie a moduli di analisi avanzata, consente il monitoraggio continuo e comparativo dei principali parametri clinici, individuando trend significativi tra esami successivi e supportando, così, la prevenzione e la medicina personalizzata. Grazie alla sua architettura flessibile, la soluzione si integra facilmente con l’Ecosistema Dati Sanitari (Eds), garantisce la conformità al Fascicolo Sanitario Elettronico (Fse) e si configura come uno strumento strategico per migliorare la qualità informativa, abilitare percorsi di cura su misura e rafforzare il rapporto medico-paziente. Un contributo concreto all’evoluzione digitale della sanità, in cui l’intelligenza artificiale e l’interoperabilità diventano leve per una gestione integrata e sicura della salute. Medicx

PERSONALIZZAZIONE, AUTOMAZIONE E AZIONE

Dai chatbot agli agenti AI: l’intelligenza artificiale

gioca un ruolo chiave nella crescita del settore.

Il settore delle assicurazioni è un ottimo terreno fertile per l’intelligenza artificiale. La ragione è facilmente intuibile: le compagnie assicurative gestiscono un’enorme quantità di informazioni, documenti, interazioni con i clienti. Dati che l’intelligenza artificiale aiuta a gestire e a trasformare in valore. Dati che, a loro volta, alimentano i sistemi di machine learning e consentono anche di addestrare e affinare i Large Language Model (LLM) dell’intelligenza artificiale generativa. Se quanto detto vale un po’ per tutti i campi in cui transitano molti dati, il settore assicurativo include una serie di processi più specifici che con l’automazione e

l’AI vanno a nozze: ricerca di informazioni all’interno di documenti complessi e cavillosi come le polizze, previsione del rischio (legato al profilo degli utenti ma anche a elementi esterni, come il clima), rilevamento delle frodi, supporto clienti, procedure di onboarding, verifiche di conformità alle normative e molto altro. D’altra parte l’AI aiuta anche nell’automazione del back-office e del front-office, e quindi permette di tagliare i costi: e attualmente, secondo uno studio di Ntt Data (“Insurtech Global Outlook 2025”), questa tra le principali priorità per le compagnie assicurative. Le altre sono la trasformazione digitale e il mi-

glioramento dell’esperienza dei clienti: l’AI gioca un ruolo anche qui, sebbene sarebbe ingenuo considerarla come una bacchetta magica.

Un mercato in crescita

Per quanto riguarda lo sviluppo dell’offerta di soluzioni insurtech, negli ultimi anni anche in Italia si è visto un sempre maggiore coinvolgimento di banche e compagnie assicurative, che hanno riversato capitali sulle startup di questo settore. Dalla mappatura dell’Osservatorio Fintech & Insurtech del Politecnico di Milano risulta che nel 2024 le neoimprese insurtech attive in Italia fossero 86, per un totale di quasi 35 milioni di euro di finanziamenti raccolti nel corso dell’anno.

A livello mondiale, nonostante il periodo storico che stiamo attraversando, il mer-

LO SCENARIO ITALIANO

cato dell’insurtech ha buone prospettive di crescita. La quantificazione del giro d’affari varia a seconda del perimetro tecnologico considerato, ma i numeri sono utili per farsi un’idea: Fortune Business Insight, per esempio, stima per il 2025 un valore globale di 19 miliardi di dollari e ipotizza per il 2032 circa 96 miliardi di dollari. Secondo gli analisti, a sostenere tale crescita ci sarà, come primo fattore, la sempre maggiore domanda di prodotti assicurativi personalizzati e on-demand. Sempre più, inoltre, sul mercato verranno proposti prodotti assicurativi integrati dentro a piattaforme di servizi di altro tipo (turismo, e-commerce e altro), con la necessità di sottostanti tecnologie (per lo più API, Application Programming Interface) per il collegamento di diversi sistemi informatici e banche dati. Tra i fattori di freno del mercato, di contro, le società di analisti indicano le complessità dei regolamenti e della relativa compliance, specie per le società insurtech che operano a livello internazionale.

Dalla conversazione all’azione

Nel già citato report di Ntt Data, l’intelligenza artificiale generativa è al primo posto fra le tecnologie da cui i dirigenti delle compagnie assicurative si aspettano un impatto dirompente sul settore nel medio periodo. D’altro canto i vendor tecnologici oggi spingono verso l’ultima frontiera dell’Agentic AI, che può anche lavorare in combinazione con i chatbot di AI generativa, rappresentando però un ulteriore passo verso l’automazione.

E molti vendor sottolineano la necessità di un “approccio ibrido”, in cui l’elemento artificiale e quello umano collaborano entro limiti di governance e sicurezza, prestabiliti (dall’uomo, s’intende). Tipicamente, in questo approccio, l’agente AI viene configurato per poter svolgere in totale autonomia i processi più semplici, ricorrenti e meno sensibili alle varianti. “Nel mondo assicurativo, l’intelligenza artificiale non è più una novità”, ha commentato Alena Tsishchanka, glo-

Nel 2024 le compagnie assicurative che hanno investito in startup sono passate dal 31% al 38%, mentre il capitale mobilitato è cresciuto da 3,9 a 38 milioni di euro. Il numero di iniziative complessive è salito a 145, contro le 108 dell’anno precedente. A crescere sono soprattutto gli investimenti in progetti innovativi interni, che nel 2024 hanno raggiunto quota 375 milioni di euro (letteralmente esplosi rispetto ai 44,8 milioni del 2023) e interessato l’85% delle compagnie assicurative in Italia. Al contrario, le collaborazioni con startup insurtech registrano un calo: 38 partnership nel 2024, contro le 45 del 2023. Così illustra l’indice realizzato dalla Italian Insurtech Association in collaborazione con l’Osservatorio Fintech & Insurtech del Politecnico di Milano. Secondo Filippo Renga, direttore dell’Osservatorio, il settore si trova in una fase di transizione, in cui alcune realtà stanno abbandonando l’approccio esplorativo per puntare su investimenti più mirati, anche in ambito AI.“Questa dinamica”, ha spiegato Renga, “riflette la crescente consapevolezza su un’innovazione che oggi richiede specializzazione e strategie mirate, non più interventi generici. Alcune compagnie stanno quindi costruendo un vantaggio competitivo concreto, mentre altre restano in posizione attendista”. Per quanto riguarda l’applicazione dell’intelligenza artificiale, in primo piano ci sono la gestione dei sinistri (indicata come priorità dal 64% del campione), i processi di back-office (55%), le procedure di sottoscrizione delle polizze (36%), le attività di gestione clienti e amministrazione contratti (27%). “Si stima che nel 2026 il 40% delle polizze emesse avrà componenti di AI integrate”, ha commentato Simone Ranucci Brandimarte, presidente della Italian Insurtech Association. “La tecnologia generativa può impattare su tutta la catena del valore, senza sostituire l’agente intermediario, ma supportandolo e valorizzando la sua conoscenza del cliente”.

Roberto Bonino

bal customer advisory director di Sas “I chatbot basati su modelli LLM sono già ampiamente utilizzati per supportare le interazioni con i clienti. Tuttavia, il loro utilizzo è circoscritto, poiché si limita a fornire risposte a delle domande, senza però eseguire processi, prendere decisioni e agire in autonomia. Inoltre, può capitare che questi diano risposte imprecise, incoerenti (le cosiddette “allucinazioni”) o che non sappiano citare la fonte di un’informazione o il perché sia stata fornita, creando rischi in termini sia di affidabilità sia di esposizione normativa. Oggi la vera evoluzione è rappresentata dagli agenti intelligenti autonomi. Questi sistemi introducono un’automazione avanzata e affidabile, in grado di operare, prendere decisioni e apprendere in modo continuo all’interno di un perimetro sicuro e trasparente, dove ogni azione è tracciabile e coerente con le policy aziendali e i vincoli normativi”.

Valentina Bernocco

L’INNOVAZIONE È ASSICURATA

Il punto di vista di Yolo sui benefici dell’intelligenza artificiale (anche agentica) e sul giusto approccio all’adozione.

L’intelligenza artificiale è arrivata anche nell’insurtech: e quale ambito più propizio, per una tecnologia che si nutre di dati e che può aiutare gestire procedure complesse e grandi quantità di documenti? Abbiamo parlato di benefici e rischi dell’AI con Diego Vagni, chief operating officer di Yolo Group, società che propone sia un’offerta di polizze sia soluzioni rivolte a partner e a intermediari assicurativi.

Quali cambiamenti ha portato l’AI nel settore assicurativo?

L’AI sta trasformando profondamente la distribuzione. Oggi, per dirne una, attra-

verso i chatbot basati sull’AI è possibile generare preventivi in modo conversazionale e chi sta comprando una polizza può essere guidato fino alla firma del contratto. È in corso, più in generale, una trasformazione dei modelli organizzativi, gestionali e di sviluppo che, come in altri settori dei servizi, darà una forte impulso alla crescita del business. Purché la trasformazione sia pianificata e governata.

In quale area sono attesi i maggiori benefici?

Ci sarà un incremento complessivo dell’efficienza. In alcuni processi sarà

più evidente, per esempio nella gestione dei sinistri. Grazie all’automazione dell’analisi documentale, alla valutazione predittiva dei danni e all’elaborazione delle immagini, i processi di liquidazione stanno diventando più rapidi. L’AI è già ampiamente utilizzata per rilevare le frodi: nel segmento auto, gli algoritmi di intelligenza artificiale sono in grado di rilevare la veridicità delle foto evitando il risarcimento dei sinistri falsi. Nelle risposte iniziali ai clienti, l’AI è spesso più veloce e precisa rispetto all’interazione umana, offrendo indicazioni immediate e personalizzate. Sfruttando modelli predittivi basati su dati storici e comportamentali, l’AI valuta con maggiore accuratezza il profilo di rischio e permette una definizione più calibrata dei premi.

Come funziona un sistema di Agentic AI nell’insurtech?

La nostra scelta di proporli si inquadra nel nostro piano strategico 2025-2027, che indica negli investimenti strategici in AI, data analytics e tech operations una delle direttrici di sviluppo per conservare il nostro vantaggio competitivo nell’insurtech italiano. Abbiamo deciso di lanciare Agent AI, uno per il canale digital, l’altro per il phygital: vogliamo migliorare l’esperienza dei clienti finali e potenziare l’attività di vendita e consulenza di agenti e broker. L’Agent AI digital, riservata ai nostri partner distributivi (cioè a banche, retailer e operatori dell’e-commerce), guida il cliente nella scelta delle coperture più adatte alle sue esigenze: con un’esperienza di consulenza assicurativa semplice e personalizzata, accompagna l’utente fino alla sottoscrizione della polizza. Può, per esempio, rispondere in tempo reale a domande specifiche, integrare o estrarre informazioni dai documenti e accedere ai dati presenti nei sistemi, per fornire rapidamente indicazioni sulla scadenza di una polizza o sulle condizioni contrattuali. L’Agent AI phygital, invece, affianca l’intermediario aiutandolo a gestire al meglio la relazione con il cliente. Può suggerire le soluzioni più adatte in base al profilo dell’utente, semplificare l’accesso alle informazioni rilevanti, pre-compilare automaticamente i documenti necessari. Un aspetto centrale di queste soluzioni è la capacità di garantire un'esperienza omnicanale. Se il cliente ha già interagito sul sito Web, per esempio chiedendo un preventivo o fornendo informazioni, i dati sono conservati e resi disponibili nell’eventuale incontro con l’intermediario.

Quali scelte tecnologiche avete compiuto per costruire questi strumenti? L’intera architettura è cloud-nativa, anche per la componente legata all’AI, fatto che consente un facile adattamento a

diversi volumi di utilizzo e la garanzia di alte prestazioni in ogni fase del processo. Utilizziamo modelli linguistici di ultima generazione, come GPT-4, e ci affidiamo a più LLM in parallelo, selezionati di volta in volta in base al tipo di azione o interazione richiesta. Questa scelta è resa possibile da uno strato software che gestisce dinamicamente i modelli in funzione del contesto operativo. Per quanto riguarda i dati, usiamo informazioni sempre anonimizzate, rispettando pienamente le normative di settore. Lo sviluppo ha richiesto una particolare attenzione alla conformità normativa, anzitutto sulla privacy (dunque il Gdpr) e sui regolamenti Ivass. È stato fondamentale garantire che ogni risposta dell’Agent AI fosse tracciabile e che l’integrazione con i nostri sistemi esistenti avvenisse in modo fluido, sicuro e trasparente.

Da dove dovrebbe partire un’azienda per l’adozione dell’Agent AI?

Consigliamo di iniziare con un progetto pilota guidato. L’ideale è individuare un processo ad alto impatto ma con rischio iniziale contenuto, come per esempio una prima linea di customer care o il processo di onboarding dei clienti. Questo consente di testare lo strumento in un

contesto circoscritto, raccogliendo risultati concreti e utili per le fasi successive. È fondamentale affiancare al pilota una fase di formazione, oltre alla valutazione degli aspetti etico-legali e alla mappatura dei dati disponibili, che sono elementi chiave per un’implementazione efficace e responsabile. Senza dimenticare che ogni progetto dev’essere adattato alle specifiche esigenze del cliente.

Secondo voi, è giusto porre dei confini chiari tra AI e lavoro “umano”, in particolare nell’ambito insurtech? E come affrontare gli eventuali rischi?

Con l’AI è fondamentale stabilire confini e certamente lo è nel settore assicurativo, dove il rapporto fiduciario con l’intermediario è essenziale. L’AI deve valorizzare le capacità professionali degli umani, non sostituirle. In molte fasi dell’interazione con il cliente, infatti, la componente umana rimane centrale, soprattutto nei momenti che richiedono empatia, giudizio o una forte responsabilità decisionale. Per i compiti ripetitivi e di supporto, l’AI è sicuramente una soluzione utile ed efficace.

Al di là della compliance normative, è fondamentale considerare nello sviluppo delle applicazioni i bias, che potrebbero indurre a decisioni distorte o non eque. Ci sono poi i rischi reputazionali: anche una singola risposta errata dell’AI può compromettere la fiducia del cliente. Senza contare gli aspetti legati a sicurezza e protezione dei dati, che richiedono un’attenzione costante in fase di sviluppo e gestione dei sistemi. Per affrontare questi rischi, adottiamo un framework interno di auditing e metodologie di etica applicata all’AI, in linea con i principi del regolamento europeo AI Act. Questo significa che etica, trasparenza e responsabilità non sono aspetti accessori, ma diventano veri e propri requisiti di progetto, fondamentali fin dalle prime fasi di sviluppo. V.B.

Diego Vagni

IL CAMBIAMENTO È LA COSTANTE

Crimine “a servizio”, AI, attacchi di supply chain: su questi pericoli si focalizza l’attenzione degli esperti, in un panorama in rapida evoluzione.

Utilizzi malevoli dell’intelligenza artificiale, armamenti “as-aService”, intrecci tra criminalità tradizionale e cibernetica, senza dimenticare il ransomware: il panorama delle minacce è in costante evoluzione. E questo, per le aziende, significa dover vivere all’inseguimento continuo. Ne abbiamo parlato con Pierluigi Paganini, direttore dell’Osservatorio sul Cybersecurity dell’Università Telematica Pegaso, nonché collaboratore di Ansa e coordinatore scientifico per il Master in Cybersecurity di Sole24Ore Formazione.

Nell'odierno panorama informatico, quali sono le tendenze più preoccupanti?

A preoccupare maggiormente, oltre alla continua evoluzione delle minacce, è il

livello di sofisticazione raggiunto, che aumenta costantemente, non solo di anno in anno ma, direi, quotidianamente. Ciò si traduce in una maggiore incisività del fenomeno criminale, soprattutto considerando le azioni legate ad attori statali. Altro aspetto cruciale, sottolineato anche nell’ultimo rapporto Enisa, l’Agenzia dell’Unione Europea per la cybersicurezza, è l’aumento della capacità evasiva degli attaccanti, che aggirano i sistemi progettati per la difesa e modificano il proprio comportamento per non essere rilevati dai controlli di sicurezza. Tra le tendenze più preoccupanti c’è, poi, il cybercrime-as-a-Service, un modello operativo che permette al crimine informatico di estendere i propri servizi ad altri attori non esperti. Anche senza

avanzate capacità tecniche oggi è possibile sferrare attacchi estremamente pericolosi.

C’è un legame fra questo e il fenomeno delle “mafie 4.0”, espressione usata per indicare come il crimine tradizionale si stia spostando nel cyberspazio?

Assistiamo a una preoccupante fusione tra crimine ordinario e crimine informatico. Quest’ultimo dispone di grossi capitali e con la volontà di reinvestirli in attività remunerative. Il modello “asa-Service” risponde a tale esigenza, consentendo anche a figure dell’ecosistema criminale prive di competenze tecniche di dedicarsi ad attività cyber, con risultati potenzialmente devastanti.

Quanto dobbiamo temere gli utilizzi malevoli dell’intelligenza artificiale, e come arginarli?

Sicuramente l’AI sta cambiando in modo significativo il panorama delle minacce,

sui due fronti. Nella difesa, l’automazione consentita dall’intelligenza artificiale è fondamentale per rispondere a minacce sempre più sofisticate e a volumi di attacco sempre più elevati. Tuttavia,c’è anche un uso crescente dell’AI da parte degli attaccanti. Gli ultimi due rapporti pubblicati da OpenAI confermano che la loro piattaforma è stata utilizzata per attività di disinformazione, per campagne di phishing molto articolate, rapide e sofisticate e anche per lo sviluppo di codici malevoli da parte di attori nationstate. Accorgersi del problema è un primo passo, ma fino a che punto saremo capaci di contrastare questi utilizzi? Non si può pensare di introdurre nei modelli linguistici di intelligenza artificiale delle funzionalità che li blocchino automaticamente in caso di uso malevolo. È un discorso simile a quello che abbiamo affrontato anni fa con le piattaforme dei social network: le aziende che sviluppano questi tool hanno fini di lucro, e devono quindi trovare un equilibrio tra le azioni di contrasto e gli obiettivi di profitto. Anche i social network potrebbero fare di più per bloccare le campagne di disinformazione, ma siamo ancora lontani dall’eradicare il fenomeno. La situazione con l’AI è analoga.

Il ransomware oggi è ancora la minaccia numero uno, come è stata per diversi anni?

Il ransomware continua a essere incisivo sul tessuto di qualunque organizzazione governativa o azienda privata. È un problema globale ma che osserviamo in particolare in Europa, dove l’ultimo rapporto Enisa lo indica come la minaccia principale per la collettività. Il ransomware continua a evolvere e notiamo una crescente capacità degli attori di essere sempre più evasivi nello sviluppo di questi codici malevoli. Inoltre, il modello Ransomware-as-a-Service permette a un numero sempre maggiore di attori

di dedicarsi a questa pratica. La buona notizia è che l’azione delle forze dell’ordine incide su questi fenomeni. Tuttavia, quando un’organizzazione ransomware viene smantellata, spesso assistiamo alla genesi di numerosi nuovi gruppi.

Attualmente una delle spine nel fianco dei chief information security officer è la sicurezza della catena di fornitura dell’IT. Hanno ragione a preoccuparsene?

Ci troviamo a fronteggiare una vera e propria emergenza riguardo alla supply chain, che può diventare un vulnus se non viene garantito un livello di sicurezza omogeneo al suo interno. L’attaccante, osservando una catena di fornitura, può colpire l’anello più debole, compromettendo le operazioni dell’intera filiera con possibile effetto a cascata: colpendo un fornitore, si può ottenere accesso a tutte le aziende da esso servite. Un altro elemento critico è che questi attacchi sfruttano la fiducia riposta nel provider. Se l’attacco passa da un fornitore con cui si ha una relazione decennale, o verso cui si

nutre una cieca fiducia, è più facile che passi inosservato. Sono, quindi, operazioni estremamente difficili da individuare e dai potenziali impatti devastanti.

E come si contrastano?

Solo innalzando il livello di sicurezza su tutta la filiera. Questo è un elemento ripreso da regolamenti come Dora ((Digital Operational Resilience Act, NdR) in ambito bancario e come la direttiva Nis2, che pongono l’attenzione sul livello di sicurezza dell’intera catena di approvvigionamento. Garantire che l’elemento più debole della filiera abbia requisiti stringenti di sicurezza aumenta in modo significativo la resilienza dell’intera supply chain. Tuttavia, il problema è che le norme non hanno fornito indicazioni chiare, efficaci ed efficienti su come fare. C’è una mancanza di chiarezza, una difficoltà nel recepire le indicazioni e uno scarso bilanciamento tra operatività e capacità di implementazione.

Quale consiglio pratico darebbe alle aziende?

Come sottolineo sempre, la cybersecurity richiede un approccio multilivello e olistico. Abbiamo bisogno della componente tecnologica, ma non possiamo assolutamente dimenticarci di quella umana, che viene sfruttata dalla quasi totalità degli attacchi. In un approccio olistico, dobbiamo essere in grado di coniugare la componente tecnologica con le capacità e conoscenze umane. Mettere intorno al tavolo, anche in situazioni di crisi, capacità, conoscenze e professionalità differenti, permette di fronteggiare la minaccia cibernetica in modo più efficace. Oltre alle professionalità tecniche, servono anche competenze legali, di geopolitica, di economia, per affrontare un panorama delle minacce che varia con una cadenza che definirei quotidiana. Elena Vaciago

Pierluigi Paganini

UN OTTIMO BACKUP PER MUOVERSI A MILANO

Veeam protegge i dati della società di trasporto pubblico meneghina, sia on-premise sia in cloud.

Cinque linee metropolitane tradizionali e a guida automatica, tram, autobus, filobus e servizi di bike sharing: per i 3,3 milioni di abitanti serviti da Atm (Azienda Trasporti Milanesi) le alternative non mancano. Fondata nel 1913, oggi è una società partecipata al 100% dal Comune di Milano e conta circa 9.300 dipendenti. Nell’ambito dei trasporti molti dati sono missioncritical, ovvero essenziali per il funzionamento, la sicurezza e la continuità del servizio, e dunque negli ultimi anni Atm ha lavorato sul piano informatico, per rafforzare i sistemi di difesa e di business continuity.

“In Atm ci impegniamo costantemente a innovare e a trovare nuovi modi per raggiungere gli obiettivi di sostenibilità”, racconta Marco Natali, responsabile IT Technology & Operations dell’azienda. “Per farlo, ci avvaliamo di tecnologie all’avanguardia e di enormi volumi di dati: ogni giorno gestiamo milioni e milioni di transazioni”. Con il passaggio a soluzioni Software-as-a-Service basate su cloud, era nata l’esigenza di una soluzione per la protezione dei dati completa e a prova di

LA SOLUZIONE

Veeam Backup protegge le macchine virtuali on-premise di Atm, mentre Veeam Backup for Microsoft 365 mantiene al sicuro 500 caselle di posta elettronica. La società di trasporti si affida alla Veeam Data Platform per attività di orchestrazione del ripristino.

futuro. “La nostra priorità è fornire agli utenti un livello di servizio costantemente elevato”, spiega Natali. “Questo è possibile solo se siamo pronti ad affrontare sia ciò che è prevedibile, come l’inevitabile crescita dei dati e i cambiamenti nella nostra infrastruttura IT, sia ciò che è imprevedibile, come ad esempio un attacco informatico o un disastro naturale. Abbiamo deciso di aumentare drasticamente la nostra resilienza organizzativa”. Così è nata la decisione di adottare la soluzione di backup e ripristino di Veeam, inizialmente per la protezione delle macchine virtuali dell’ambiente IT on-premises, e in un secondo momento anche per le oltre cinquecento caselle di posta elettronica di Microsoft 365. “Inizialmente abbiamo scelto Veeam perché funziona meglio con Vmware rispetto a qualsiasi altra soluzione per la protezione dei dati”, svela Adamo Mirko Frascolla, IT infrastructure manager di Atm. “Siamo rimasti colpiti dalla funzione di backup agentless, che ci ha permesso di semplificare notevolmente la gestione dei backup. Quando è giunto il momento di sceglie-

re una soluzione per proteggere le nostre applicazioni Microsoft 365 critiche per l’azienda, Veeam è stata la scelta naturale. È un grande vantaggio avere un unico set di strumenti per proteggere i dati onpremises e nel cloud”. Il primo risultato ottenuto è quello di una disponibilità dei dati prossima al 100%, che migliora l’esperienza di fruizione dei mezzi pubblici e delle relative applicazioni. I tempi di ripristino dei dati in caso di incidenti sono scesi drasticamente, da giorni a minuti: in questo modo, si riducono anche i danni finanziari di un’eventuale interruzione del servizio.

In terzo luogo, con la funzionalità di backup immutabile di Veeam (che impedisce a eventuali attaccanti di compromettere i dati colpiti) Atm ha potenziato la cyber resilienza della propria infrastruttura informatica. La soluzione ha già dato prova di sé in una specifica occasione, quando un aggiornamento di sicurezza non andato a buon fine ha impedito ad alcuni clienti di effettuare pagamenti. “Veeam”, racconta Frascolla, “ci ha permesso di ripristinare rapidamente un cluster di server applicativi e di ripristinare i servizi di pagamento in pochi minuti, anziché nei diversi giorni lavorativi che sarebbero stati necessari in passato. Questo ci ha permesso di ridurre i disagi per i passeggeri e di evitare una significativa perdita finanziaria”. Atm ha recentemente acquistato licenze per Veeam Data Platform in edizione Premium per introdurre nuove funzionalità di orchestrazione del ripristino. “Abbiamo una quantità impressionante di dati, che cresce continuamente, e Veeam ci aiuta a proteggere e gestire questo bene prezioso come mai prima d’ora”, rimarca Natali. “Mano a mano che scopriamo nuovi modi di sfruttare i dati per migliorare i nostri servizi, garantire la disponibilità non-stop diventa sempre più importante, ponendo Veeam al centro della nostra strategia tecnologica a lungo termine”.

CLIENTI PIÙ SODDISFATTI

CON L’OSSERVABILITÀ

Dynatrace permette visibilità in tempo reale sui processi IT, migliorando la user experience dei servizi.

Nei servizi finanziari, così come in altri campi, dal funzionamento delle piattaforme informatiche dipende la qualità della user experience offerta ai clienti. Lo sa bene Agos, fornitore italiano di credito al consumo, presente sul territorio con 230 filiali e, tramite partnership, in migliaia di punti vendita. La società, partecipata dal Gruppo Crédit Agricole e da Banco Bpm, si rivolge a un bacino di 9,4 milioni di clienti con servizi che includono prestiti personali, finanziamenti al consumo e carte di credito. Nel proprio percorso di trasformazione digitale, Agos ha deciso di migrare i propri sistemi IT nel cloud di Amazon Web Services (Aws).

In questo passaggio, per mantenere una qualità del servizio costante e controllare i costi, l’azienda voleva avere visibilità in tempo reale sul funzionamento dei servizi erogati.

Da qui la scelta di utilizzare la tecnologia di Dynatrace (già da tempo adottata in azienda) per il monitoraggio del sistemi di IT. Inizialmente l’attenzione si è concentrata sul miglioramento del processo di firma digitale, fondamentale per garantire ai clienti un rapido accesso al credito. “Nel panorama competitivo del credito al consumo, è fondamentale offrire sempre interazioni rapide, accurate e fluide”, fa notare il Cio di Agos, Sergio Novelli. “Quando clienti o partner commerciali riscontrano ritardi o problemi, la loro fiducia diminuisce e rischiamo di perdere il loro business. Ecco perché un’osservabilità completa è fondamentale”. L’impatto dell’iniziativa sulla firma digitale è stato significativo: i tassi di suc-

cesso della procedura sono migliorati del 25% e i tempi di completamento sono scesi da una media di 42 secondi a soli 16 secondi. Si è quindi è deciso di estendere l’uso di Dynatrace all’intero stack tecnologico aziendale: Agos ha ottenuto una osservabilità end-to-end su tutto l’ecosistema IT, e ciò consente a diversi team aziendali (IT, operativi e di business) di avere una comprensione condivisa e in tempo reale dell’esperienza del cliente e delle prestazioni dei sistemi. Tutti possono accedere alle stesse informazioni aggiornate in tempo reale, senza “silos” o punti ciechi, per identificare e risolvere rapidamente i problemi prima che influiscano sul funzionamento dei servizi. Di conseguenza, negli ultimi quattro anni il Net Promoter Score di Agos è aumentato di 12 punti. “Grazie a informazioni in tempo reale”, spiega il Cio, “possiamo individuare rapidamente le criticità, affrontare proattivamente potenziali problemi e migliorare costantemente i nostri servizi digitali. In definitiva, questo ci consente di mantenere standard costantemente elevati e di offrire esperienze affidabili ogni volta”.

Tra gli specifici vantaggi riscontrati, il software di gestione dei log e di analytics Dynatrace Grail ha ridotto del 50% i costi di queste attività e aiuta il personale IT a diagnosticare e risolvere rapidamente la causa dei problemi. “Per me, un chiaro indicatore è la drastica riduzione del numero di messaggi che ricevo relativi a problemi di sistema”, racconta Novelli. “In precedenza ricevevo reclami ogni due giorni, ma ora il mio telefono è notevolmente più silenzioso. Questa ri-

LA SOLUZIONE

Con il software di gestione dei log e analytics Dynatrace Grail, i dati dei log vengono trasformati in informazioni fruibili, tramite dashboard visuali e metriche tecniche e di business.

duzione degli avvisi sottolinea l’efficacia con cui Dynatrace ci consente di gestire proattivamente potenziali problemi, garantendo esperienze digitali costantemente di alta qualità”. Guardando al futuro, Agos intende sfruttare la tecnologia di Dynatrace anche per la conformità normativa (in particolare per i requisiti di segnalazione degli incidenti critici previsti dal regolamento europeo Dora) e per il monitoraggio, la rendicontazione e la riduzione delle emissioni di gas serra derivanti da attività informatiche.

PERSONALIZZAZIONE MASSIMA, IL SEGRETO DEL CRM

L’azienda produttrice di contenitori per alimenti ha realizzato con Impresoft un nuovo software gestionale customizzato.

Il vetro è un materiale duro, che però in fase di lavorazione è flessibile, plasmabile. Proprio come il nuovo Crm che Vetri Speciali ha potuto realizzare con il supporto di Impresoft Engage, assecondando tutte le esigenze della propria produzione. Nata a Trento nel 1994, l’azienda realizza e commercia in una cinquantina di Paesi contenitori in vetro per l’alimentare. “Abbiamo una capacità produttiva che coniuga tradizione artigianale e tecnologie innovative”, racconta l’Ict manager, Marco Guarascio. “Questo ci ha resi partner affidabili per i più importanti marchi del vino, dello champagne e dell’alimentare, in Italia e nel mondo”. Con la crescita degli ultimi vent’anni (nel 2006 l’acquisizione degli stabilimenti di Pergine, Ormelle e San Vito al Tagliamento, nel 2016 una nuova fabbrica a Gardolo) si è arrivati a contare 826 dipendenti, a un fatturato di oltre 227 milioni di euro e a quasi 7.000 modelli di contenitori in catalogo, declinati in undici colori e con capacità variabili da 4 centilitri a 30 litri. Per una produzione tanto diversificata e per una rete di distribuzione tanto ampia, il programma di Customer Relationship Management in uso non era più adegua-

to: si trattava di un software sviluppato all’inizio degli anni Duemila e modificato nel tempo, per sovrapposizioni successive. “Non c’erano logiche di processo vere e proprie”, spiega Guarascio. “Ogni modifica diventava un’impresa tecnica. Era diventato un freno”. Diverse le criticità del software in questione: performance limitate, linguaggio di programmazione obsoleto, difficoltà di aggiornamento e integrazione con gli altri sistemi. Inoltre la gestione dei lead era quasi inesistente. Era un software troppo rigido, ma anche privo degli standard richiesti da un’industria sempre più competitiva. L’azienda voleva, però, conservare una particolare caratteristica nel Crm, cioè l’integrazione di funzionalità di sviluppo prodotto, poiché questi processi si intersecano molto con quelli commerciali.

Vetri Speciali ha, quindi, selezionato SugarCrm come nuova piattaforma e Impresoft Engage come partner tecnologico. Il progetto è stato costruito a più mani, coinvolgendo area commerciale (Italia ed estero), servizio clienti, amministrazione, sviluppo prodotto, produzione. Quello realizzato è un Crm completamente personalizzato che integra funzionalità avanzate su tre macro aree, ovvero vendite, assistenza tecnica ai clienti e sviluppo prodotto. “Il reparto commerciale oggi riesce a gestire quasi tutto restando dentro il Crm”, illustra Guarascio. “Per noi è un enorme vantaggio. Non è solo efficienza: è visibilità, tracciabilità, continuità”. Il nuovo sistema, infatti, si integra perfettamente con l’Erp aziendale e tra le due piattaforme c’è uno scambio di dati flui-

LA SOLUZIONE

La soluzione basata su SugarCrm copre tre aree: vendite (gestione lead, anagrafica prodotti, gestione offerte, buoni di carico e contatti), assistenza tecnica ai clienti (tracciatura della mancata conformità, gestione lotti, note di credito e giacenze) e sviluppo prodotto (sette tipologie di richieste diverse). Il Crm si integra con l’Erp ed è sincronizzato con Outlook.

do e affidabile. Tra gli aspetti che hanno migliorato il lavoro quotidiano dei dipendenti di Vetri Speciali ci sono l’interfaccia di facile utilizzo, le personalizzazioni possibili e la sincronizzazione con Outlook tramite Sugar Connect. Grazie a monitoraggi precisi dei processi, il Crm ha anche permesso di individuare colli di bottiglia che in precedenza passavano inosservati, mentre funzioni di validazione automatica dei dati hanno ridotto drasticamente gli errori. La soluzione ha, poi, consentito di abbattere del 40% i costi di lavoro e di incrementare del 30% la produttività, grazie a funzionalità gestionali, maggiore automazione dei processi, riduzione degli interventi di manutenzione informatica, accorciamento dei tempi di risposta dell’assistenza tecnica. Nell’area vendite, il tasso di conversione dei lead è stato ottimizzato e l’efficienza operativa può essere misurata in modo diretto, su dashboard integrate. Vetri Speciali punta, in futuro, a realizzare campagne marketing sempre più strutturate e a sfruttare in modo più spinto le funzionalità di automazione, di analytics e di intelligenza artificiale.

L’ARCHIVIAZIONE FLASH È UN GIOIELLO DI TECNOLOGIA

NetApp ha permesso di centralizzare e velocizzare la gestione dei dati, migliorando le prestazioni dei software Sap.

L’archiviazione dei dati può fare la differenza, quando si mette in campo la tecnologia flash, che regala velocità, e quando con il consolidamento dello storage si mette fine alla frammentazione: il progetto di trasformazione della propria infrastruttura IT realizzato da Gruppo Morellato ne è esempio. Realtà italiana storica, nata a Venezia nel 1930 come laboratorio di orologeria (specializzato in cinturini) e gioielleria, oggi è una multinazionale da 4.800 dipendenti. Il gruppo è titolare di 15 marchi e vende i propri prodotti in una sessantina di Paesi, attraverso una rete di settemila distributori e di circa 660 negozi diretti. Per un business di queste dimensioni, la quantità e varietà di dati maneggiati quotidianamente è molto elevata, e Morellato era alla ricerca di una soluzione di storage che permettesse di superare la frammentazione e, quindi, di accelerare il funzionamento

delle principali applicazioni aziendali. Il gruppo fa ampio affidamento sui software di Sap per gestire la contabilità, le attività di produzione, la logistica e le relazioni con i clienti.

La scelta di NetApp è stata funzionale a queste esigenze. Attraverso il partner Enext è stata adottata una soluzione di basata sui sistemi di storage all-flash NetApp AFF serie A. Enext ha seguito tutte le fasi del progetto, dalla scelta delle soluzioni hardware, alla loro integrazione con i servizi Sap, al rilascio “in produzione”, completando il rollout in meno di tre mesi. Il progetto basato su tecnologia NetApp ha permesso di trasformare la gestione dei dati, di rafforzare la sicurezza dei dati e anche di elevare le performance delle applicazioni Sap. Di conseguenza, Morellato ha migliorato la propria efficienza operativa e la qualità del lavoro dei dipendenti che ogni giorno utilizzano le applicazioni gestionali

LA SOLUZIONE

AFF A-Series è la gamma di sistemi di storage all-flash di NetApp destinata alle infrastrutture cloud ibride e ai carichi di lavoro critici. Vantano una soglia massima di 40 milioni di IOPs (operazioni di input/output al secondo) e integrano funzioni di rilevamento in tempo reale dei ransomware.

Sap. Come passaggio finale, è migliorata anche l’esperienza di supporto e di acquisto offerta ai clienti.

“L’adozione delle soluzioni NetApp”, testimonia Davide Ruzza, technology manager del Gruppo Morellato, “è stata un elemento determinante per permetterci di aggiornare e far evolvere la piattaforma tecnologica a beneficio del business e del cliente finale, attraverso l’implementazione di sistemi automatici, veloci ed efficienti. Oltre alla possibilità di gestire snapshot e cloni di dati in maniera rapida e senza impatto sulle prestazioni, le soluzioni NetApp ci hanno consentito di consolidare ambienti di test e produzione su un’unica piattaforma, migliorando ulteriormente efficienza e sicurezza dei dati”.

“Le soluzioni NetApp sono state fondamentali per garantire la velocità e l’affidabilità che Morellato cercava nella gestione dei dati aziendali critici”, commenta Davide Marini, country manager di NetApp Italia. “Il nostro sistema ha reso possibile la creazione di un’infrastruttura intelligente, solida e scalabile, in grado di rispondere a tutte le esigenze di business e integrarsi perfettamente con l’ecosistema Sap del Gruppo”.

HEALTHCARE INNOVATION SUMMIT

Quando: 8-10 ottobre

Dove: Magna Pars Event Space, Milano

Perché partecipare: si discuterà, dati alla mano, della trasformazione digitale del Servizio Sanitario Nazionale, tra sfide e casi di eccellenza. In agenda c’è anche la presentazione delle linee guida di Aisis sulla conformità alla direttiva Nis2.

NETCOMM FOCUS

DIGITAL

EXPORT & MARKETPLACE

Quando: 22 ottobre

Dove: Palazzo Giureconsulti, Milano

Perché partecipare: giunto alla sesta edizione, è l’appuntamento del consorzio Netcomm dedicato alle opportunità, novità e trendenze dell’export digitale e del mondo dei marketplace. Spazio a testimonianze, casi di successo e analisi a cura di esperti e addetti ai lavori.

DIGITAL ITALY SUMMIT

Quando: 19 (solo su invito) e 20 novembre

Dove: Acquario Romano, Roma

Perché partecipare: è l’appuntamento più importante nel calendario annuale di TIG Events, giunto alla decima edizione. Il 19 novembre andrà in scena il “Digital leaders day”, evento accessibile su invito e focalizzato quest’anno sul tema dell’AIe delle tecnologie dual-use. Il 20 novembre, nel “PA Summit”, si farà il punto sui progetti nati sull’onda del PNRR e di strategie per una Pubblica Amministrazione digitalizzata.

CYBERSECURITY SUMMIT

Quando: 19 novembre

Dove: Acquario Romano, Roma

Perché partecipare: al centro dell’edizione di quest’anno (la tredicesima), l’intersezione tra cybersecurity, sicurezza fisica e threat intelligence. Si parlerà di infrastrutture critiche, di compliance normativa, di smart city, di rischi legati alla catena di fornitura dell’informatica, e ancora del duplice ruolo dell’AI, alleata e nemica della cybersicurezza.

QUANTUM COMPUTING SUMMIT

Quando: 27 novembre

Dove: Cefriel, Milano

Perché partecipare: sarà un’occasione di confronto sugli avanzamenti, i casi d’uso, le sfide tecnologiche e le prospettive di sviluppo un settore oggi in fermento come quello del calcolo quantistico. Accessibile su invito, l’evento è rivolto ad aziende, istituzioni e centri di ricerca dell’ecosistema italiano del quantum computing.

SOVRANITÀ DIGITALE E CYBERSECURITY

Quando: 2 dicembre

Dove: Cefriel, Milano

Perché partecipare: il tema della sovranità sui dati e sulle infrastrutture informatiche è di grande attualità, legandosi a dinamiche geopolitiche e di cybersicurezza, oltre che alla corsa all’intelligenza artificiale.

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.
Technopolis 69 by The Innovation Group - Issuu