Skip to main content

Forward. Numero 41 - 2026 Domani

Page 1


The future should be its own independent variable in our modelling and planning. The future is, after all, the arena in which justice for health will be won or lost.

– Richard Horton

domanidomanidomanidomanidomani domanidomani domanidomanidomani domanidomanidomanidomani domanidomanidomani domanidomanidomanidomani domanidomanidomanidomanidomani domanidomanidomanidomanidomani domanidomanidomanidomanidomani domanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomani domanidomanidomanidomanidomani domanidomanidomanidomanidomani domanidomanidomanidomani domanidomanidomanidomani domanidomanidomanidomani domanidomanidomani domanidomanidomanidomani domanidomanidomani

www.forward.recentiprogressi.it

DOMANI Della ricerca e della comunicazione

41

4 Il futures thinking come leva strategica

4 Quante cose fai senza pensarci? ANNAMARIA TESTA

Farmaci, evidenze e accesso

Rinforzi, motivazioni, imitazioni

6 Il tempo come valore della ricerca clinica

GENNARO DANIELE

Le

8, 9 Il domani dell’oncologia

DARIO TRAPANI,

GYAWALI

15, 16 Innovazione farmaceutica: tre prospettive a confronto

Osservare senza giudizi e

L’universo digitale tra opportu

DE ANGELIS 27 L’innovazione cambia forma

CAGNAZZO 24, 26 Lo spazio dell’incertezza. La cura digitale

28, 29 Il futuro dei dati sanitari. Privacy e ricerca

BELLEUDI,

Cosa dice il medico, cosa

Da chi dipende il domani del

Influenze perverse

Le “care” abitudini: dove iniz Nuove vecchie

Il futuro è nell’editoria

42 Il publishing scientifico. Meno metriche, più verità

33 Rompere vecchie abitudini

MIRJAM AMATI, ADRIANA DEGIORGI, ALAN VALNEGRI

34 Una guida al cambiamento

GIACOMO GALLETTI

routine nel cervello PAOLO BARTOLOMEO

Svegliarsi presto per iniziare con calma la giornata, anticipando poco alla volta l’orario in cui si va a dormire.

iano, dove finiscono

iano, dove finiscono

Piccoli gesti che fanno la differenza

MORENA, ANTONIA MANDUCA, MICHELA SERVADIO

11 Piramide delle evidenze: sì o no?

LISA WEISS, KIRK GEALE, MARY BETH RITCHEY, CHRISTINA DEFILIPPO MACK, JULIEN HEIDT, URSULA KIRCHMAYER

salute e il benessere

salute e il benessere

e trasparenza cerca e per la sanità

18, 20 La sanità in equilibrio precario

FRANCESCO TARONI, CHIARA CORDELLI

senza pregiudizi

senza pregiudizi

30, 32 Il costo ambientale. Il cognitive offloading

GIOVANNA SISSA, FABIO AMBROSINO

34 L’intimità è già artificiale DAVIDE BENNATO

pensa il paziente

pensa il paziente

nità e responsabilità la comunicazione?

44 La cucina di domani NIKO ROMITO

46 I giovani e il cinema che restituisce speranza

GIORGIO CAPORALI

una vita che cambia

36/37 Quel prima e dopo una diagnosi di cancro

STEFANO MAGNO, FLORI DEGRASSI

38 Scivolare nell’abisso GIANCARLO DE CATALDO

Ancora un domani

Abitare le abitudini

Abitare le abitudini

La quarantesima parola individuata dal gruppo di lavoro Forward caratterizza talmente l’obiettivo del nostro progetto da richiedere ulteriore spazio. Infatti, non poteva bastare un solo supplemento e così eccovene un secondo. Questa volta dedicato più specificamente alla ricerca e alla comunicazione che pensiamo avranno un peso importante nella medicina del futuro.

Tra le abitudini del gruppo Forward ve ne sono alcune ormai consolidate: non cercare mai le soluzioni semplici, la frase conclusiva, la risposta scontata. Ci siamo fatti convincere che la complessità, per quanto scomoda, possa garantire un maggiore spazio a tutti quelli che lavorano al progetto e consenta di esplorare meglio ogni tematica.

Tra le abitudini del gruppo Forward ve ne sono alcune ormai consolidate: non cercare mai le soluzioni semplici, la frase conclusiva, la risposta scontata. Ci siamo fatti convincere che la complessità, per quanto scomoda, possa garantire un maggiore spazio a tutti quelli che lavorano al progetto e consenta di esplorare meglio ogni tematica.

Una popolazione che invecchia, una società impaurita da ogni cambiamento sentito come una minaccia sono elementi che spingono i più a guardarsi indietro. Per questo, ribadire che il nostro progetto vuole concentrarsi sul riflettere, discutere e ragionare di governo dell’innovazione con uno sguardo volto al domani ci sembra – e lo diciamo senza falsa modestia – originale, controcorrente e coraggioso.

In questo numero troverete versioni sia positive che negative dei comportamenti ricorrenti. A volte parliamo dei veri e propri nemici del cambiamento; altre volte di ossessioni, deviazioni, ma anche di traguardi che fatichiamo a raggiungere per ottenere una salute migliore.

L’incredibile velocità con cui vengono proposte nuove opzioni terapeutiche serve a poco se non adattiamo e facciamo progredire di conseguenza le capacità di valutazione e di governo dell’incertezza. In tutto questo, però, anche la sola lettura delle prime pagine dei quotidiani non può che confondere e farci sentire fuori dalla storia quando diciamo che in tutto questo è indispensabile essere più aperti al dialogo, con meno confini, e disponibili alla contaminazione.

Insomma il tema è un prisma a mille facce che non poteva mancare alla nostra collezione, così come alla nostra voglia di confronto.

In questo numero troverete versioni sia positive che negative dei comportamenti ricorrenti. A volte parliamo dei veri e propri nemici del cambiamento; altre volte di ossessioni, deviazioni, ma anche di traguardi che fatichiamo a raggiungere per ottenere una salute migliore. Insomma il tema è un prisma a mille facce che non poteva mancare alla nostra collezione, così come alla nostra voglia di confronto.

I numeri possono alle volte aiutarci a seguire e capire le ragioni che stanno dietro gli stili di vita e le attitudini degli operatori sanitari, ma che non sempre combaciano con le migliori prove di efficacia disponibili. Una ragione in più per capire quando e come si forma un comportamento ricorrente.

I numeri possono alle volte aiutarci a seguire e capire le ragioni che stanno dietro gli stili di vita e le attitudini degli operatori sanitari, ma che non sempre combaciano con le migliori prove di efficacia disponibili. Una ragione in più per capire quando e come si forma un comportamento ricorrente.

Se queste vi sembrano solo parole vacue, vi invito ad andare all’ultima pagina di questo supplemento. Lì noterete qualcosa di insolito: chi decide di associare il logo della propria impresa al progetto Forward non è obbligato all’ipocrita dizione “con il contributo non condizionato di”. La speranza, al contrario, è quella di condizionarsi a vicenda, contaminandosi nello studio delle migliori pratiche e mettendo a disposizione quante più riflessioni critiche possibili, utili all’innovazione nella cura e nella salute. Si tratta in ogni caso di una scelta concreta che distingue il nostro progetto – e chi vi partecipa – dagli altri.

In alcune pagine del numero abbiamo cercato anche di rispolverare un linguaggio che fosse valido non solo per gli addetti ai lavori, traendo spunto da quanto abbiamo in passato sperimentato con Forward for Kids

In alcune pagine del numero abbiamo cercato anche di rispolverare un linguaggio che fosse valido non solo per gli addetti ai lavori, traendo spunto da quanto abbiamo in passato sperimentato con Forward for Kids

In sintesi, così come “visto da vicino nessuno è normale” anche le abitudini – a seconda di dove e come si collocano nella medicina del futuro – possono rassicurare o spaventare, con tutto quello che ci sta nel mezzo.

In sintesi, così come “visto da vicino nessuno è normale” anche le abitudini – a seconda di dove e come si collocano nella medicina del futuro – possono rassicurare o spaventare, con tutto quello che ci sta nel mezzo.

In fin dei conti, prima di abitarlo il domani occorre studiarlo ed essere disponibili per primi al cambiamento in modo che non ci cada addosso cogliendoci impreparati.

Antonio Addis

Antonio Addis Dipartimento di epidemiologia

Dipartimento di epidemiologia

Servizio sanitario regionale del Lazio, Asl Roma 1

Servizio sanitario regionale del Lazio, Asl Roma 1

ABITARE l'incertezza

Il futures thinking come leva strategica per governare la complessità

Oggi la complessità è la condizione di base di ogni ambiente decisionale ed è una sollecitazione che spesso supera la capacità di analisi dei sistemi tradizionali. Martino Bellincampi spiega come superare la gestione perenne dell’emergenza attraverso il futures thinking: non si tratta di prevedere il futuro, ma di costruire un metodo che combina osservazione profonda, analisi critica e immaginazione informata per trasformare l’incertezza in una leva strategica. Contrastare il “presentismo” del contesto italiano è possibile, oltre che augurabile: serve un approccio integrato all’uso dei dati — dai thick data ai segnali deboli dei forward-looking data. Un percorso necessario per allenare la capacità di guardare oltre e trasformare l’incertezza da minaccia a concreta possibilità progettuale.

Intervista a Martino Bellincampi, socio fondatore di IZILab, business partner e advisor.

Ha partecipato a diversi progetti imprenditoriali in vari settori industriali.

La lettura del presente sembra diventare ogni giorno più difficile. I cambiamenti sono molto rapidi, gli scenari politici ed economici mutano radicalmente a distanza di pochi mesi, settimane, giorni. Della trasformazione digitale siamo più portati a considerare i rischi rispetto alle opportunità. Quale approccio dovremmo adottare per governare quelle che nel vostro libro “Orientare il futuro” avete definito “le sfide del mondo moderno”?

Oggi la complessità sembra essere diventata la condizione di base di ogni ambiente decisionale: il ritmo degli eventi supera la capacità dei sistemi tradizionali di analisi e pianificazione, con il risultato che molte organizzazioni scivolano in una gestione perenne dell’emergenza. Per noi di IZILab il punto chiave non è prevedere tutto ciò che accadrà, perché è evidentemente impossibile, ma costruire un modo diverso di leggere il presente e di prepararsi al futuro: le “sfide del mondo moderno” si governano attraverso un approccio che combina osservazione profonda, analisi critica e immaginazione informata. Il futures thinking permette di sospendere la tentazione dell’istinto reattivo per creare uno spazio di lettura più ampio, dove segnali deboli, dati concreti e possibili implicazioni vengono integrati in modo sistematico. È un metodo che richiede disciplina, ma incoraggia anche la libertà di pensare diversamente: non si tratta di attenuare i rischi, ma di percepirli insieme alle opportunità emergenti, spesso invisibili quando si osserva il presente da troppo vicino. Governare la complessità significa accettare l’ambiguità, renderla leggibile e trasformarla in una leva strategica.

Governare la complessità significa accettare l’ambiguità, renderla leggibile e trasformarla in una leva strategica.

Quale mindset reputa fondamentale per prepararsi al domani in modo proattivo e non solo reattivo?

Nel contesto italiano, ritiene che prevalga ancora un presentismo che penalizza la visione a lungo termine?

Il mindset più importante è la capacità di abitare l’incertezza senza esserne travolti: prepararsi al domani in modo proattivo significa imparare a pensare per scenari e smettere di considerare l’incertezza come un problema da evitare. Ovviamente perché questo accada occorre una combinazione di rigore analitico e immaginazione metodica che permetta di progettare alternative credibili e di valutare decisioni che rimangano valide in più futuri possibili. In Italia non è un mistero che il presentismo, anche per caratteristiche culturali non intrinsecamente negative, sia ancora molto forte e diffuso: influisce sulla politica, sulla gestione aziendale, sulle scelte individuali. Non si tratta di mancanza di visione, ma piuttosto di una conseguenza strutturale dei sistemi di incentivazione, economici, sociali e culturali, che premiano molto spesso il ritorno immediato. Il futures thinking introduce un correttivo importante: amplia l’orizzonte, rende visibili le conseguenze di lungo periodo e permette di ragionare non solo su ciò che conviene oggi, ma anche su ciò che costruisce un maggior valore domani: rappresenta un cambio di mindset che non avviene attraverso rivoluzioni, ma costruendo e migliorando pratiche quotidiane che allenano la capacità di guardare oltre.

Prepararsi al domani in modo proattivo significa imparare a pensare per scenari e smettere di considerare l’incertezza come un problema da evitare.

Analizzare, comprendere e interpretare i dati sembra essere una competenza essenziale. Il futures thinking ci allena a lavorare su quattro tipologie di dati diversi, che a ben vedere sono abbastanza familiari a chi lavora nella sanità e soprattutto nell’epidemiologia: thick data, big data, forward-looking data e participatory data. Come si differenziano tra loro queste categorie di dati?

Sono quattro tipologie di informazioni che descrivono modalità diverse di osservare il mondo e di trarne significato. Queste tipologie, descritte nel box sottostante, trovano il loro valore non in una singola categoria ma nell’integrazione equilibrata: profondità più scala, presente più futuro, analisi più partecipazione.

Quattro tipologie di dati che raccontano il mondo

• Thick data: la profondità. Raccontano il perché dei comportamenti, le logiche implicite delle persone, i contesti culturali e organizzativi; senza questa dimensione qualitativa si rischia di interpretare i fenomeni in modo superficiale.

• Big data: la scala. Mostrano pattern, frequenze, anomalie, e danno una base quantitativa stabile da cui partire; sono essenziali per capire quando un fenomeno sia isolato o quando possa diventare sistemico.

• Forward-looking data: la direzione. Comprendono segnali deboli, tendenze emergenti e indicatori iniziali di cambiamento; sono il ponte tra il presente e le possibilità future.

• Participatory data: la pluralità. Offrono punti di vista diversi, spesso divergenti, che permettono di costruire visioni e scenari più completi; coinvolgere chi sarà toccato in prima persona dalle decisioni significa creare futuri più solidi e più condivisi.

Le competenze per navigare l’incertezza sono ciò che permette di rendere il futuro una possibilità progettuale molto più concreta di quanto si possa pensare.

È possibile immaginare – nel lavoro di previsione/ costruzione del futuro – un’analisi in sequenza di questi diversi tipi di dati, per avvicinarsi progressivamente a una migliore comprensione?

Sì, ed è uno dei passaggi più importanti del nostro metodo: una buona costruzione del futuro non nasce da pacchetti di informazioni isolate, per quanto di elevata qualità, ma dalla capacità di mettere in relazione tutto ciò che osserviamo, misuriamo e iniziamo a intuire per restituire un’interpretazione multidimensionale della complessità. Una sequenza possibile, che utilizziamo spesso in IZILab, è questa:

• partire dai thick data per comprendere il contesto, le dinamiche culturali e ciò che non si vede nei numeri;

• integrare i big data per verificare se ciò che emerge qualitativamente ha un riscontro misurabile e dove si posiziona all’interno di trend più ampi;

• attivare i forward-looking data per cercare anomalie, segnali deboli e dinamiche nascenti, in modo da delineare scenari alternativi;

• concludere con i participatory data per costruire interpretazioni condivise, confrontare ipotesi e trasformare gli scenari in leve strategiche operative.

È un percorso che coniuga evidenza statistica e immaginazione speculativa, rigore analitico e design partecipativo. Il risultato non è una previsione ma una comprensione più articolata e più robusta di ciò che potrebbe succedere, e di come prepararsi per affrontarlo al meglio.

In che misura pensa che le aziende italiane abbiano integrato questo tipo di pensiero? Quali sono gli ostacoli principali che ha rilevato nella diffusione del futures thinking nei contesti aziendali e istituzionali? Può fare un esempio recente in cui IZILab abbia applicato concretamente questo approccio per orientarsi verso il domani?

La diffusione del futures thinking in Italia è ancora disomogenea: molte organizzazioni stanno iniziando a riconoscerne il valore, ma incontrano tre ostacoli ricorrenti. Il primo è la pressione sul breve periodo, che rende difficile dedicare tempo e risorse a processi non immediatamente produttivi. Il secondo è la tendenza a cercare una previsione unica, rassicurante e lineare, invece di accettare la pluralità degli scenari. Il terzo è la frammentazione interna: il futuro richiede competenze trasversali, ma molte strutture lavorano ancora a silos. In un progetto recente dedicato al futuro dell’energia abbiamo lavorato integrando dati quantitativi, segnali emergenti e diversi scenari da cinque a quindici anni: questo ha permesso all’organizzazione coinvolta di rivedere priorità strategiche, individuare aree di investimento non ancora esplorate e valutare nuove forme di servizio con una forte componente innovativa legata all’integrazione delle intelligenze artificiali. Collocarsi in una prospettiva di lungo periodo non è stato solo un esercizio teorico, ma un modo per riorientare le decisioni strategiche già sul presente, rendendole più resilienti e più coerenti con i cambiamenti in corso.

In conclusione, quali competenze saranno le più richieste per affrontare il domani?

Le competenze fondamentali per navigare l’incertezza si distribuiscono su tre assi:

• capacità di interpretazione complessa: leggere i fenomeni a più livelli, comprendere dati e segnali, riconoscere le dinamiche nascoste dietro il rumore del presente;

• capacità immaginativa disciplinata: costruire scenari plausibili, esplorare alternative, formulare ipotesi che possano guidare decisioni reali: non creatività libera, ma immaginazione strutturata;

• capacità collaborativa e transdisciplinare: integrare competenze, far dialogare analisi e visione, creare processi decisionali in cui il futuro non sia riconducibile a un reparto isolato, ma un asset condiviso.

Sono competenze che evidentemente non sostituiscono quelle tradizionali, ma le integrano e le amplificano. Sono ciò che permette di trasformare l’incertezza in orientamento e di rendere il futuro non una minaccia, ma una possibilità progettuale molto più concreta di quanto si possa pensare.

Martino Bellincampi, Andrea Modica Bosinco, Luca Simeone, Giacomo Spaini Orientare il futuro

Data science, foresight e progettazione partecipativa per supportare il futures thinking Roma: Carrocci editore, 2025.

Cercare di intravedere il domani della ricerca è un buon esercizio. Ci mette di fronte a un’incertezza di fondo nella misura in cui coesistono traiettorie divergenti: da una parte, la tensione verso la centralità dell’individuo (“il paziente al centro” non può essere solo un claim promozionale) e, dall’altra, la speranza di riuscire a costruire una sanità capace di dare risposte universali a questioni che riguardano la salute globale.

Un’agenda della ricerca davvero nuova – e quindi capace di disegnare un domani migliore –dovrebbe impegnarsi su fronti diversi: a quel punto sarà il metodo –improntato a sobrietà, equità e trasparenza – a rendere coerente i differenti percorsi.

IL TEMPO come valore:

RISCOPRIRE IL SENSO PROFONDO DELLA RICERCA CLINICA

Intervista a Gennaro Daniele, medico oncologo, specializzato nello sviluppo di farmaci e nella ricerca transizionale.

Direttore dell’Uoc

Fase 1 e direttore scientifico del Clinical trial center del Policlinico universitario

“Agostino Gemelli” Irccs di Roma.

Il tempo è emerso come la dimensione strategica per la ricerca di domani. Come si è arrivati a questo cambio di prospettiva?

Si è arrivati prendendo consapevolezza che la ricerca non è solo un’attività intellettuale di ricercatori che cercano risposte a domande fondamentali per il bene dei pazienti, per la loro salute o per l’avanzamento della scienza, ma anche un processo di sviluppo della società industriale e della componente economico-finanziaria di una società. Da un lato c’è l’attività speculativa che necessita di un tempo per il suo svolgimento, per la sedimentazione e metabolizzazione dei risultati; dall’altro c’è la pressione di ottenere rapidamente risultati necessari ma spesso parziali e insufficienti. Il rischio è misurare l’efficienza della ricerca con il tempo in cui produce i risultati, piuttosto che la sua capacità di produrre risultati veramente utili in un tempo ragionevole.

Il rischio è misurare l’efficienza della ricerca con il tempo in cui produce i risultati, piuttosto che la sua capacità di produrre risultati veramente utili in un tempo ragionevole.

Come invertire questa tendenza, per far sì che si produca ricerca utile?

Il punto critico è la relazione molto delicata tra la ricerca e la produzione di valore a favore dei pazienti, certo, ma anche di chi la ricerca la fa. Basti pensare alla carriera promossa dalle pubblicazioni o dai progetti finanziati. La domanda è come si può invertire la estremizzazione di questo aspetto rispetto alla volontà di dare risposte ai bisogni della scienza? Secondo me bisogna invertirla partendo dal basso, educando alla ricerca intesa come attività che insegue una risposta a determinati bisogni clinici o scientifici reali. Educando i giovani che si affacciano al nostro mondo, i futuri ricercatori.

Quando dovrebbe essere avviato alla ricerca un giovane professionista sanitario?

Più precocemente possibile. È parte fondamentale dell’attività di un medico, di uno scienziato. Volendo usare un’analogia, solo dopo che avrà imparato a camminare stabilmente, il bambino imparerà ad andare in bici o a guidare l’auto. Così, dobbiamo educare i giovani medici prima a ragionare con metodo (quello scientifico) e quindi a comprendere e fare ricerca, e poi ad usare la tecnologia per produrla o applicarne i frutti. In altri termini, per me la ricerca rappresenta la dimensione fondamentale sia del lavoro di produzione di innovazione sia del modo

La ricerca rappresenta la più nobile attività che un medico o uno scienziato possa svolgere. È un processo complesso che intreccia il bene dei pazienti, suo obiettivo primario, con lo sviluppo industriale ed economico della società. Tuttavia, la sensazione è che sempre più spesso essa sia percepita come uno strumento nelle mani dei ricercatori e che le persone abbiano progressivamente perso fiducia in essa. Gennaro Daniele, responsabile della ricerca di Fase 1 presso il Policlinico Gemelli di Roma, individua nella dimensione del “tempo” la risorsa critica da riscoprire per migliorare la ricerca di domani. È inoltre necessario invertire l’attuale tendenza quantitativa, che valuta la ricerca esclusivamente in base al numero di pubblicazioni, per concentrarsi invece sulla qualità dell’impatto e sulla capacità di rispondere a reali bisogni clinici. Il percorso proposto parte dall’educazione precoce dei futuri ricercatori, chiamati a interpretare la ricerca non come un obbligo burocratico o come un semplice strumento di carriera, ma come un metodo di pensiero fondamentale nel rapporto con il paziente. In un panorama che guarda con crescente fascino alle nuove tecnologie, la sfida resta quella di garantire un dibattito scientifico libero da interessi e orientato esclusivamente al progresso della conoscenza.

con cui applichiamo le conoscenze, ogni giorno con i pazienti. Questo è un aspetto trascurato dell’educazione medica e scientifica in genere. Bisogna che si introduca sin dai primi anni della formazione dei medici e degli scienziati l’insegnamento dell’interpretazione dei risultati degli studi, del loro corretto disegno.

La ricerca rappresenta la dimensione fondamentale sia del lavoro di produzione di innovazione sia del modo con cui applichiamo le conoscenze, ogni giorno con i pazienti.

Non solo in Italia, si investe poco sulla ricerca indipendente…

Questa affermazione corrisponde, secondo me, a due problemi. Il primo è che non ci sono abbastanza fondi pubblici, strutturali, per la ricerca indipendente. Viviamo in un mondo in cui gli Stati non intendono investire in progresso intellettuale più di quanto non investano in innovazione tecnologica. Sebbene il nostro Paese sia un esempio importante di tutto ciò, non siamo i soli al mondo. Il secondo, forse più grave, è che temo che negli anni siano diminuite anche le idee, indipendenti, che vale la pena portare avanti e che lo scarso finanziamento sia in parte reazionario a questo e sicuramente motore di un circolo vizioso inesorabile. Sicuramente la burocrazia non aiuta. Promuovere ricerca indipendente innovativa oggi è costoso, a causa della burocrazia, quanto la ricerca industriale e non è sostenibile con i fondi delle università o dei centri di ricerca. La collaborazione sana con l’industria può essere una chiave.

La distinzione tra ricerca indipendente e quella industriale non dovrebbe essere nei contenuti, ma negli usi che la seconda fa dei risultati, che possono rispondere anche a legittimi interessi commerciali. Nel caso della ricerca clinica si può e si deve cercare convergenza tra la volontà di innovare dei ricercatori e quella di sviluppo delle aziende, e il punto di convergenza è la salute dei cittadini.

Nel caso della ricerca clinica si può e si deve cercare convergenza tra la volontà di innovare dei ricercatori e quella di sviluppo delle aziende, e il punto di convergenza è la salute dei cittadini.

Quali sono gli ambiti su cui faremo più ricerca domani?

Sicuramente l’avvento delle nuove tecnologie, pensiamo all’intelligenza artificiale o agli strumenti di raccolta degli outcome direttamente dai pazienti, è un ambito che affascina moltissimi di noi. In questo ambito, i quesiti aperti sono: come possiamo integrare questi strumenti negli studi per rendere efficienti i trial? E, soprattutto, come possiamo migliorarne la robustezza e trasparenza metodologica? Poi, spero che finalmente faremo un salto in avanti nella valutazione della ricerca. Oggi siamo ancora schiacciati dal peso delle metriche volte a valutare il singolo (numero di lavori pubblicati e metriche legate alla citazione). Spero che in futuro la pubblicazione diventi sempre di più lo strumento per condividere conoscenza e nutrire il dibattito intorno ad argomenti rilevanti per i pazienti e per l’avanzamento delle conoscenze.

RITROVARE IL SENSO DELLA CULTURA

In un panorama scientifico dominato da tecnologie sofisticate e algoritmi di precisione, l’oncologia rischia di parlare una lingua che perde di vista la reale proporzione tra promesse tecniche e benefici concreti per i pazienti. La Common sense oncology (Cso) non si oppone al progresso, ma propone di riportare al centro della disciplina il buon senso e la responsabilità umana. Attraverso l’uso di checklist etiche e metodologiche, la Cso invita i ricercatori a chiedersi se i trial clinici misurino endpoint davvero rilevanti per la vita quotidiana dei pazienti e se le popolazioni arruolate riflettano la fragilità dei pazienti reali. L’obiettivo è un’oncologia sobria e trasparente, capace di integrare la qualità di vita come pilastro strutturale della ricerca e di formare medici dotati di spirito critico. Restituire equilibrio tra ambizione scientifica e vissuto individuale è la sfida per un futuro della cura che sia, finalmente, più sensato e giusto.

Dario Trapani, medico oncologo presso l’Area Sviluppo di nuovi farmaci per terapie innovative dell’Istituto europeo di oncologia.

Negli ultimi anni, l’oncologia ha elaborato una lingua sempre più complessa, nutrita di tecnologie sofisticate e di algoritmi di precisione che ne articolano il lessico scientifico. Parallelamente, l’innovazione orientata all’accesso rapido delle nuove terapie si fonda su benefici che, pur reali, aprono zone d’ombra: una costellazione di misure del vantaggio clinico spesso indirette, più sfumate rispetto ai parametri tradizionali della sopravvivenza e della qualità di vita. Ne deriva un margine irregolare, un microcosmo di valutazioni preliminari, intermedie o dichiaratamente surrogate, che rende più difficile distinguere ciò che promette da ciò che davvero trasforma.

Si ha l’impressione che questa lingua abbia perso qualcosa di essenziale: la proporzione tra ciò che promettiamo e ciò che davvero riusciamo a cambiare nella vita delle persone. È da questa tensione che nasce la Common sense oncology (Cso): non un movimento contro il progresso, ma un tentativo di riportare la misura al centro del discorso, riportando le persone al centro del focus della disciplina oncologica, secondo la prassi del buon senso. Con questa espressione intendiamo la capacità di riconoscere la giusta proporzione tra mezzi e fini, di vedere con chiarezza ciò che è essenziale e di sottrarsi alle seduzioni dell’eccesso: un orientamento sobrio che unisce lucidità, misura e responsabilità.

Gli studi che conduciamo sono nell’interesse del malato?

La Cso parte da una domanda semplice, quasi ingenua: stiamo facendo studi che hanno senso per i pazienti che incontriamo ogni giorno? Non basta che un trial sia sofisticato dal punto di vista statistico o che un farmaco sia innovativo nella forma; ciò che conta è se la differenza che osserviamo nei risultati dei trial clinici si traduce in un beneficio percepibile, in giorni vissuti meglio, in una qualità di vita (QoL) nettamente incrementata. Per questo, uno degli strumenti più concreti proposti dalla Cso è l’idea di checklist condivise. Non

checklist burocratiche, ma domande essenziali da porsi prima di avviare uno studio clinico o di interpretarne i risultati. Domande come:

• l’endpoint principale è davvero rilevante per la vita quotidiana dei pazienti, o misura solo un segnale surrogato?

• La popolazione arruolata assomiglia alle persone che vediamo in ambulatorio, con le loro comorbilità, età, fragilità, oppure è un campione idealizzato?

• Il confronto è onesto, o il braccio di controllo è già superato nella pratica clinica?

• La tossicità è descritta con la stessa cura con cui descriviamo la risposta?

Accanto a questo, la Cso insiste sulla qualità di vita come dimensione non accessoria, ma strutturale della ricerca. In molti protocolli la QoL è inserita per dovere formale, con questionari somministrati e poi poco valorizzati. L’idea è ribaltare questa gerarchia: prevedere sin dall’inizio che la qualità di vita sia un outcome che può cambiare il giudizio complessivo sull’utilità di un trattamento. Una terapia che prolunga la sopravvivenza di poche settimane ma sacrifica in modo importante il benessere può essere statisticamente positiva e comunque clinicamente discutibile. La checklist, in questo senso, è uno strumento di vigilanza etica prima ancora che metodologica.

La prospettiva futura è quella di un’oncologia che non rinuncia alla sofisticazione dei mezzi, ma ritrova una sorta di sobrietà nei fini.

Guardando avanti, la Cso non propone di rallentare l’innovazione, ma di rendere più trasparenti le sue condizioni di legittimità. Significa, per esempio, favorire studi che coinvolgano popolazioni storicamente sottorappresentate, rendere più leggibili i conflitti di interesse, interrogare il rapporto tra costo dei trattamenti e reale guadagno per i pazienti. Significa anche ripensare la formazione dei giovani oncologi: non solo competenza tecnica, ma capacità

critica, attitudine a leggere i risultati di un articolo scientifico chiedendosi non solo se è vero, ma se è rilevante.

Interrogarsi sulle incertezze e sui limiti della ricerca e della cura

La prospettiva futura è quella di un’oncologia che non rinuncia alla sofisticazione dei mezzi, ma ritrova una sorta di sobrietà nei fini. Una disciplina che sa dire “non sappiamo ancora” senza vergogna, e che accetta che alcune domande, per esempio sull’incertezza, sul limite, sulla proporzionalità delle cure, non si esauriscano nell’astrazione di un hazard ratio.

La Cso è, in fondo, un invito a cambiare tono più che contenuti: parlare di trial, farmaci e linee guida con un linguaggio che non perda di vista le persone di cui stiamo parlando. Ricordarci che ogni grafico di sopravvivenza è fatto di traiettorie individuali, di biografie trasformate, dell’esperienza del percorso di vita, del vissuto umanistico tout court. In questo senso, non è un manifesto contro lo status quo, non è un orientamento avverso all’innovazione, ma un tentativo di rimettere ordine, di restituire all’oncologia un equilibrio tra ambizione scientifica e responsabilità umana.

Ogni grafico di sopravvivenza è fatto di traiettorie individuali, di biografie trasformate, dell’esperienza del percorso di vita, del vissuto umanistico tout court.

Se riusciremo a farlo, forse la parola “domani”, nelle stanze dove si prendono le decisioni cliniche e in quelle dove si disegnano i trial, smetterà di essere solo una promessa vaga e tornerà a essere ciò che dovrebbe: un impegno concreto verso un futuro più lucido, più giusto e, per quanto possibile, più sensato, e plasmato in concerto con le persone che vivono una diagnosi oncologica.

Il domani dell’oncologia globale non può essere a due velocità

Equità nelle cure, liste di farmaci essenziali e ricerca condivisa

Sul diritto all’assistenza sanitaria universale: come interpreta la responsabilità etica dell’oncologia nel garantire che il diritto alla salute, come definito per esempio dall’Organizzazione mondiale della sanità (Oms), sia rispettato in ogni nazione del mondo, compresi i contesti con scarse risorse? Quali sono le leve fondamentali necessarie per tradurre questo principio in una pratica reale e operativa?

Tutte le specialità della medicina svolgono un ruolo fondamentale nel garantire il diritto alla salute in ogni nazione del mondo, ma l’oncologia può dare un esempio importante. L’oncologia è un campo che non si occupa solo del trattamento delle malattie, ma svolge anche un ruolo nella prevenzione, nello screening e nelle cure palliative. Proprio per il suo ampio ambito di applicazione, deve mantenere un equilibrio che garantisca che il miglioramento della salute di una persona non dipenda dalla nazione in cui vive o dal suo benessere economico. Dobbiamo essere responsabili del garantire che le nostre priorità siano in linea con le esigenze dei nostri pazienti. Questi sono i principi fondamentali del cancer groundshot che sostengo da molto tempo. Dobbiamo promuovere la disponibilità di servizi oncologici essenziali e di alto valore in ogni Paese e, soprattutto, dobbiamo definire pratiche di cura e dare priorità a servizi che riflettano adeguatamente le esigenze e gli ostacoli di ogni nazione, radicati nella filosofia del cancer groundshot

Come tradurre in pratica questo principio di equità?

Risponderei per punti.

1. Definire le priorità basandosi sulla filosofia del groundshot

2. Adottare strumenti politici come l’elenco dei farmaci essenziali dell’Oms per aiutare le nazioni a dare priorità ai medicinali che meglio soddisfano le loro esigenze individuali.

3. Incentivare collaborazioni internazionali e diversificate tra medici, ricercatori e difensori dei pazienti per contribuire a garantire che gli studi clinici prevedano endpoint significativi e che si studino trattamenti importanti per i pazienti.

4. Accrescere la consapevolezza sugli interventi sanitari di scarso valore che i sistemi sanitari dovrebbero evitare per ridurre al minimo lo spreco di risorse.

5. Sviluppare le capacità nei Paesi a basso e medio reddito per garantire che i miglioramenti nell’assistenza siano basati su prove scientifiche, siano sostenibili e siano sviluppati a livello locale.

Sull’accesso a trattamenti efficaci nei Paesi a basso e medio reddito: considerando che molti trattamenti innovativi contro il cancro rimangono inaccessibili nei

Paesi a basso e medio reddito, quali strategie concrete consigliereste per garantire che terapie efficaci raggiungano tutti i cittadini, evitando l’emergere di un’oncologia “a due livelli” e promuovendo invece un panorama di cura del cancro equo e giusto?

In primo luogo, anche in questo caso, occorre allinearsi alla filosofia di cancer groundshot. Sebbene sia necessario compiere ogni sforzo affinché i nuovi farmaci antitumorali raggiungano tutti i cittadini indipendentemente dal luogo in cui vivono, ciò non deve avvenire a scapito di altre cure oncologiche efficaci e più importanti. L’adozione di linee guida quali l’elenco dei farmaci essenziali dovrebbe coincidere con cambiamenti politici a livello nazionale, al fine di garantire che tali farmaci siano effettivamente disponibili e accessibili per le popolazioni locali. I decisori politici dovrebbero assicurare che la spesa sanitaria dia la priorità ai servizi di alto valore piuttosto che alle cure costose e che offrono benefici marginali. La priorità dovrebbe essere data alle cure che garantiscono i maggiori benefici alla maggior parte dei pazienti e che prevengono i tumori in stadio avanzato (per esempio interventi chirurgici e radioterapia), piuttosto che a farmaci antitumorali costosi con benefici minimi.

In secondo luogo, l’attuazione di strategie basate su dati scientifici e adattate al contesto locale può migliorare la diagnosi precoce e la sensibilizzazione. In parallelo al miglioramento dell’accessibilità delle cure e della sostenibilità economica delle terapie antitumorali nei Paesi a basso e medio reddito, è necessario attuare misure di sensibilizzazione sanitaria e di prevenzione del cancro per aumentare il numero di pazienti che accedono alle cure disponibili. Ciò deve essere realizzato attraverso un approccio cancer groundshot che dia priorità alle strategie di controllo del cancro che hanno dimostrato la loro efficacia nei diversi contesti, che sono economicamente vantaggiose e prevedono una collaborazione diversificata.

Sulle sfide della ricerca globale sul cancro che coinvolge i Paesi a basso e medio reddito: dal suo punto di vista, quali sono i principali ostacoli – etici, normativi o infrastrutturali – che impediscono un’inclusione significativa dei Paesi a basso e medio reddito nella ricerca sul cancro. Quali azioni dovrebbero essere prioritarie per trasformare la partecipazione in una collaborazione autentica e reciprocamente vantaggiosa?

Oggi i Paesi a basso e medio reddito rappresentano il 57 per cento dei nuovi casi di tumori e il 65 per cento dei decessi dovuti al cancro, tuttavia la ricerca non coinvolge adeguatamente i partner di questi Paesi e le sfide etiche non mancano.

Intervista a Bishal Gyawali, medico oncologo, editor e blogger. È associate professor in Medical oncology and public health sciences presso la Division of cancer care and epidemiology della Queen’s university di Kingston (Canada). Ha partecipato come relatore a 4words19.

1. Dinamiche di potere nell’accesso alle sperimentazioni cliniche: spesso i pazienti dei Paesi a basso e medio reddito possono partecipare a una sperimentazione clinica perché potrebbe essere l’unica opzione di cura accessibile a loro disposizione. Spesso l’unica alternativa alla partecipazione a una sperimentazione è l’assenza di cure.

2. Il “paracadutismo della ricerca”1: le grandi sperimentazioni cliniche finanziate dall’industria arruolano pazienti da tutto il mondo con l’obiettivo di ottenere l’approvazione della Food and drug administration. Una volta conclusa la sperimentazione, non vi è alcun obbligo di garantire che l’agente sperimentale sia disponibile e accessibile in tutti i Paesi partecipanti. Inoltre, gli interrogativi di ricerca alla base degli studi potrebbero non essere adattati alle esigenze specifiche della popolazione. I Paesi ad alto reddito e quelli a basso e medio reddito dovrebbero collaborare per condurre ricerche applicabili a entrambi i contesti, secondo il principio di co-sviluppo che abbiamo sostenuto in precedenza2

Azioni: co-sviluppare domande e protocolli di ricerca con i ricercatori dei Paesi a basso e medio reddito per adattare meglio la ricerca alle esigenze dei pazienti che essa intende servire. Garantire l’obbligo di valutare la fattibilità delle sperimentazioni in ciascun paese partecipante.

3. Gruppo di controllo al di sotto degli standard: gli standard di cura nei Paesi a basso e medio reddito possono essere diversi da quelli dei Paesi ad alto reddito e vengono utilizzati per far apparire migliore un trattamento sperimentale, quando viene confrontato con un gruppo di controllo al di sotto degli standard. Queste pratiche sono immorali e perpetuano lo sfruttamento dei pazienti nei Paesi a basso e medio reddito, esacerbando le disuguaglianze.

Azioni: sostenere l’uso di standard di cura internazionali nelle sperimentazioni cliniche.

4. Competenze di ricerca e burnout dei medici: le infrastrutture di ricerca e le risorse umane nei Paesi a basso e medio reddito sono spesso inadeguate. Manca un “tempo tutelato” che consenta ai medici di concentrarsi sulla ricerca. I clinici lavorano per molte ore e visitano un numero elevato di pazienti al giorno, quindi è impossibile aggiungere a tutto questo il carico di lavoro della ricerca.

Azioni: i finanziatori della ricerca dovrebbero aumentare le opportunità di ricerca sul cancro guidata da ricercatori nei Paesi a basso e medio reddito. Il “tempo tutelato” per la ricerca per i medici, le collaborazioni internazionali tra Paesi a basso e medio reddito e quelli ad alto reddito per organizzare workshop con lo scopo di sviluppare capacità di sperimentazione clinica possono fornire una formazione pratica e costruire legami più forti.

5. Bias di pubblicazione: quando le sperimentazioni cliniche sono condotte nei Paesi a basso e medio reddito, molte di esse non vengono pubblicate su riviste di grande impatto.

1. Questa espressione indica l’attività dei ricercatori provenienti da Paesi ricchi che conducono studi sul campo in Paesi a basso reddito e poi completano la ricerca senza un coinvolgimento o una collaborazione effettivi con gli scienziati locali. Questo crea dipendenza, ostacola gli sforzi locali ed è visto come una forma di neocolonialismo. [Bockarie M, Machingaidze S, Nyirenda T, et al. Parasitic and parachute research in global health. Lancet Glob Health 2018;6:e964; Odeny B, Bosurgi R. Time to end parachute science. PLoS Med 2022;19:e1004099.]

2. Gyawali B, Bouche G, Crisp N, André N. Challenges and opportunities for cancer clinical trials in low-and middle-income countries. Nature Cancer 2020;1:142-5.

S tima di nuovi casi di tumori (in milioni)

Nonostante i progressi nella prevenzione e nelle cure, il numero di nuovi casi di tumori è in crescita in tutto il mondo. Il grafico mette a confronto i dati attuali con le proiezioni future nei Paesi raggruppati per human development index (Hdi), l’indice delle Nazioni Unite che misura il livello di sviluppo di un Paese in base a salute, istruzione e reddito. L’aumento percentuale più drastico è atteso nei Paesi a basso Hdi (+107,5%), dove i casi sono destinati a raddoppiare da 0,81 a 1,69 milioni, riflettendo la forte crescita demografica e la limitata capacità di prevenzione e diagnosi precoce. Anche i Paesi a medio Hdi registreranno un incremento significativo (+80,2%), mentre gli aumenti saranno più contenuti nei Paesi ad alto (+55,6%) e molto alto (+36,5%) Hdi, dove sistemi sanitari più sviluppati contribuiscono a mitigare la crescita. In termini assoluti, tuttavia, sono proprio questi ultimi a registrare il carico maggiore di nuovi casi, con 12,7 milioni stimati.

Hdi basso
Hdi medio
Hdi alto
Hdi molto alto

LE EVIDENZE DI DOMANI: PIRAMIDE SÌ O PIRAMIDE NO?

Abbandonare la gerarchia oppure reinterpretarla

Lisa Weiss, senior director di “Evaluation and surveillance” del Medical device innovation consortium - National evaluation system for health technology coordinating center (Arlington, Stati Uniti)

Kirk Geale, ceo di Quantify Research, società di consulenza specializzata in economia sanitaria e real world evidence a supporto del valore dei prodotti farmaceutici (Stoccolma, Svezia).

Mary Beth Ritchey, epidemiologa con anni di esperienza nella ricerca basata su real-world evidence. Responsabile e proprietaria di Med Tech Epi (Philadelphia, Usa). Associate research professor alla Rutgers University (New Brunswick, Stati Uniti). Parteciperà come relatrice a 4words26.

IChristina DeFilippo Mack, epidemiologa e ingegnere. È direttrice scientifica Real world evidence, IQVIA (Durham, Stati Uniti).

n un contesto nel quale la real-world evidence (Rwe) conquista sempre più importanza nella ricerca clinica, la tradizionale piramide delle evidenze – con gli studi randomizzati al vertice e gli studi osservazionali alla base – necessita di una rivalutazione attraverso una lente moderna. Al congresso 2025 della International society for pharmacoepidemiology (Ispe), alcuni esperti hanno discusso se la piramide delle evidenze debba essere completamente sostituita (squadra favorevole), modernizzata o lasciata così com’è (squadra contraria) per rispecchiare il modo in cui oggi le evidenze vengono generate e interpretate. Il dibattito ha messo in luce prospettive contrastanti, ma anche sorprendenti aree di consenso su come dovrebbero apparire le “evidenze di domani”.

Questa discussione non è nuova; interrogativi sulla validità scientifica della piramide e sulla sua rilevanza nella valutazione della Rwe circolano da decenni. Il presente contributo approfondisce idee recenti che stanno influenzando il dibattito in corso sulla strutturazione e valutazione della gerarchia delle evidenze.

Limiti della tradizionale piramide delle evidenze

La piramide semplifica eccessivamente la relazione tra il disegno di studio e la qualità delle evidenze. Anche se la randomizzazione può supportare la validità interna, non la garantisce: anche trial randomizzati e controllati (Rct) ben progettati possono essere compromessi da dropout differenziali, scarsa aderenza, deviazioni dal protocollo e misurazioni incoerenti degli esiti. Punto chiave: gli Rct non sono sempre ben progettati, ben eseguiti, rappresentativi o adeguatamente potenziati, e quindi l’etichetta di gold standard non è sempre giustificata nella pratica1,2 . Inoltre, la centralità del disegno nella piramide ignora molti altri fattori che influenzano la qualità di uno studio. L’approccio gerarchico presuppone erroneamente che gli Rct siano sempre etici, appropriati allo scopo e rigorosamente eseguiti. Al contrario, studi osservazionali moderni che applicano rigorosi approcci di inferenza causale possono raggiungere, o persino superare, l’affidabilità di alcuni trial, come

Julien Heidt, epidemiologa, responsabile della strategia scientifica IQVIA (Carlsbad, Stati Uniti).

Ursula Kirchmayer, epidemiologa del Dipartimento di epidemiologia del Ssr Lazio - Asl Roma 1. È presidente della International society for pharmacoepidemiology.

evidenzia l’iniziativa Rct-Duplicate, che ha emulato 32 trial utilizzando dati amministrativi statunitensi3. Quando gli elementi chiave del disegno venivano attentamente abbinati e venivano applicati aggiustamenti solidi, le emulazioni mostravano un’elevata concordanza con gli Rct originali – prova che il rigore analitico può competere con le caratteristiche del disegno tradizionale.

Rwe e metodi causali come motori delle evidenze

Inoltre, gli enti regolatori fanno sempre più affidamento sulla Rwe per decisioni basate su evidenze sostanziali. Per le indicazioni in etichetta, valgono gli stessi standard probatori indipendentemente dal fatto che le evidenze provengano da Rct o da studi Rwe, come affermato da Concato e colleghi4. L’approvazione del tacrolimus nel 2021, supportata in parte dalla Rwe quando i trial tradizionali erano impraticabili, illustra questo principio5

Oggi, le decisioni dipendono dall’allineamento tra quesito di ricerca e la stima ottenuta, dalla gestione degli eventi concomitanti e dalla valutazione esplicita delle minacce alla validità. La trasparenza sulle fonti dei dati e l’uso di metodi adeguati sono ora più importanti delle categorie di disegno rigide. L’ecosistema delle evidenze di domani ha bisogno di una struttura che tenga conto direttamente di questi attributi, qualcosa per cui la piramide non era stata concepita.

La piramide non è un monumento statico, ma un’euristica flessibile.

Argomentazioni per mantenere e raffinare la piramide

Le critiche alla piramide sono rivolte al bersaglio sbagliato. Il problema non è la gerarchia in sé ma il suo uso scorretto, spesso frutto di

eccessiva semplificazione. La piramide rimane utile proprio perché fornisce chiarezza, stabilità e un linguaggio condiviso tra regolatori, clinici, educatori e sviluppatori di linee guida a livello globale. La piramide non è un monumento statico, ma un’euristica flessibile. Strumenti moderni come Grade già consentono di declassare trial con difetti metodologici e di promuovere studi osservazionali che mostrano solida identificazione causale e robustezza degli effetti, dimostrando che la gerarchia può incorporare sfumature se applicata correttamente. In un mondo in cui l’ecosistema delle evidenze diventa sempre più complesso, l’assenza di un framework organizzativo trasformerebbe semplicemente la complessità in confusione, senza produrre innovazione significativa.

La sostituzione potrebbe introdurre frammentazione regolatoria, compromettere la formazione dei professionisti alle prime esperienze, rendere difficile il confronto delle ricerche nel tempo e complicare l’interpretazione dei segnali di sicurezza ed efficacia tra diverse giurisdizioni. Piuttosto che sostituire, si dovrebbe rafforzare l’impalcatura: integrare diagnostiche di inferenza causale, garantire che i dati del mondo reale siano idonei allo scopo e allineare i nuovi metodi digitali e basati sull’intelligenza artificiale (Ia) ai principi fondamentali della validità interna. Si tratterebbe, in sostanza, di modernizzare la gerarchia preservando la chiarezza e la coerenza per cui è stata progettata.

Qualsiasi framework futuro dovrà tenere conto di validità interna, validità esterna, trasparenza analitica e rilevanza dei dati.

L’innovazione evolve, non sostituisce, l’impalcatura

Innovazioni come l’Ia e i biomarcatori digitali non eliminano la necessità di una gerarchia; al contrario, vi si basano e costituiscono ulteriori prove che la logica della piramide è ancora rilevante. I modelli di Ia richiedono standard di riferimento di alta qualità per calibrazione e validazione, mentre gli endpoint digitali devono comunque dimostrare validità analitica, validità clinica e utilità clinica, spesso ancorate a evidenze derivate da trial. Anche i disegni di studio pragmatici e decentralizzati riflettono la stessa logica sottostante. L’innovazione è resa possibile da un quadro valutativo coerente, non dalla sua assenza. Senza una struttura di riferimento stabile, persino gli strumenti più avanzati rischiano di produrre rumore non interpretabile.

Che cosa potrebbe sostituire la piramide?

Sono state avanzate idee audaci su un framework pronto per il futuro, esplorando anche nuove strutture delle evidenze, da una strada con la “verità” al traguardo a una doppia elica con la “verità” al centro. Qualsiasi framework futuro, indipenden-

temente dalla sua forma visiva, dovrà tenere conto di dimensioni quali la validità interna, la validità esterna, la trasparenza analitica e la rilevanza dei dati.

Guardando al domani

In definitiva, il dibattito ha rivelato due visioni credibili e orientate al futuro. Un gruppo ha sostenuto un nuovo framework che ponga il rigore analitico, l’allineamento causale e la qualità dei dati al centro, insieme alle categorie di disegno. L’altro ha sostenuto che la piramide rimane un ancoraggio essenziale, fungendo da impalcatura flessibile in grado di incorporare nuovi metodi senza sacrificare la coerenza che ha guidato la valutazione delle evidenze per decenni.

Nonostante le differenze, entrambi i fronti hanno concordato su diversi punti:

1. l’esecuzione ora prevale sull’ideologia,

2. i disegni ibridi, pragmatici ed emulati definiranno il prossimo decennio della ricerca,

3. è urgentemente necessaria una più chiara articolazione della qualità metodologica.

Considerata da questa prospettiva, “domani” potrebbe non richiedere tanto l’abbandono della piramide quanto una reinterpretazione di ciò che essa rappresenta. Che la piramide venga perfezionata in un’impalcatura più articolata o che ispiri un nuovo framework multidimensionale, la sfida centrale rimane la stessa: costruire sistemi che premino il rigore, sostengano l’innovazione e garantiscano che le evidenze utilizzate per decisioni incentrate sul paziente siano credibili e realmente orientate ai quesiti di ricerca prioritari. Il passo essenziale successivo per i farmacoepidemiologi in particolare e per la comunità della ricerca medica in generale è definire collettivamente cosa costituisca un’evidenza di alta qualità e adeguata allo scopo nell’era contemporanea, e codificare tale quadro.

1. Van Noorden R. Medicine is plagued by untrustworthy clinical trials. How many studies are faked or flawed? Nature, 2023. Disponibile su https://www.nature.com/articles/ d41586-023-02299-w [ultimo accesso 1 dicembre 2025].

2. Vinkers CH, Lamberink HJ, Tijdink JK, et al. The methodological quality of 176,620 randomized controlled trials published between 1966 and 2018 reveals a positive trend but also an urgent need for improvement. PLoS Biol 2021;19:e3001162.

3. Wang SV, Schneeweiss S; Rct-Duplicate Initiative; et al. Emulation of randomized clinical trials with nonrandomized database analyses: results of 32 clinical trials. JAMA 2023;329:1376-85.

4. Concato J, Sacks L, Stein P, Corrigan-Curay J. Evidence generation for drugs and biological products isn’t magic or myth. Clin Pharmacol Ther 2025;118:769-71.

5. Fda approves new use of transplant drug based on real-world evidence. Food and Drug Administration, 2021. Disponibile su https://www.fda.gov/drugs/news-events-human-drugs/fda-approves-new-use-transplant-drug-based-real-world-evidence [ultimo accesso 1 dicembre 2025].

Studi clinici randomizzati controllati Metaanalisi/ Revisioni sistematiche

Studi di coorte

Studi cross-sectional

Le revisioni esaminano un corpus di letteratura e traggono conclusioni basate su un ampio bacino di prove.

La ricerca sperimentale può mostrare la causalità, ma solo in determinate circostanze.

La ricerca osservazionale mostra correlazioni. Quindi ci offre un'ampia visione di un argomento ma non può provare la causalità.

Tre prospettive su un problema aperto

INNOVAZIONE FARMACEUTICA, EVIDENZE E ACCESSO

Le tre interviste che seguono in questo numero di Forward offrono punti di vista complementari su un nodo che rimane irrisolto nelle politiche del farmaco: come favorire un accesso rapido alle innovazioni terapeutiche senza rinunciare alla solidità delle evidenze che ne giustificano il valore e il prezzo. Viviana Ruggieri porta la prospettiva di chi opera all’interno di un’azienda farmaceutica; Claudio Jommi quella dell’economista sanitario attento ai meccanismi di valutazione e accesso; Aaron Kesselheim quella del ricercatore che da anni analizza le politiche regolatorie statunitensi con uno sguardo comparativo internazionale. I tre punti di vista enfatizzano, però, anche priorità diverse, e proprio in queste differenze sta l’interesse del confronto.

Un punto sul quale si riscontra una sostanziale convergenza riguarda la qualità delle evidenze come prerequisito per qualsiasi ragionamento su accesso e prezzo. Kesselheim è esplicito: i pazienti non chiedono semplicemente accesso all’innovazione, chiedono accesso a un’innovazione che funzioni. A tal fine, è necessario che i nuovi farmaci siano valutati in studi clinici disegnati in modo adeguato, con endpoint clinicamente rilevanti, e con un confronto diretto rispetto alle migliori alternative terapeutiche disponibili. Jommi richiama i criteri alla base dell’accesso accelerato, fondati sull’assenza di alternative terapeutiche, sulla gravità della condizione da trattare e sul valore terapeutico aggiunto del nuovo farmaco. Ruggieri aggiunge una condizione praticata solo parzialmente dalle aziende farmaceutiche, ossia il coinvolgimento dei pazienti fin dalla progettazione degli studi clinici: la partecipazione alla definizione delle domande di ricerca aumenta la probabilità che gli studi misurino ciò che conta davvero per chi vive con la malattia, spostando l’attenzione dagli esiti surrogati a quelli clinici e imponendo disegni comparativi più robusti.

Un punto sul quale si riscontra una sostanziale convergenza riguarda la qualità delle evidenze come prerequisito per qualsiasi ragionamento su accesso e prezzo.

Differenze di analisi e di possibili soluzioni emergono quando si affronta la gestione dell’incertezza che accompagna inevitabilmente le procedure di approvazione accelerata. Ruggieri indica nell’intelligenza artificiale e nelle attività data-driven uno strumento utile per colmare i gap conoscitivi nella fase post-marketing. Questa indicazione si applica bene quando si tratta di identificare reazioni avverse rare, difficili da evidenziare negli studi pre-autorizzativi, ma è meno adatta per chiarire le incertezze nell’efficacia comparativa, che richiede di norma la conduzione di trial clinici randomizzati e non l’analisi di dati osservazionali. Jommi propone di rafforzare gli accordi di rimborso condizionato (managed entry agreement). Anche questa soluzione ha, però, dei limiti: da un lato, questi accordi sono poco adatti a colmare le incertezze di efficacia che derivano dalla mancanza di studi comparativi su esiti clinici; dall’altro, nell’esperienza italiana, il rimborso delle aziende farmaceutiche al Servizio sanitario nazionale è stato pari al 5 per cento circa della spesa dei farmaci coperti dagli accordi, un risultato che segnala la scarsa efficacia del meccanismo nel trasferire il rischio

dall’ente pagante all’azienda in presenza di evidenze di partenza deboli. La posizione di Kesselheim appare la più convincente sul piano metodologico: le procedure accelerate sono legittime a condizione che siano accompagnate da criteri espliciti per decidere i prodotti che vi possono accedere, in quali circostanze è accettabile affidarsi a endpoint surrogati e – punto cruciale – che sia previsto il ritiro dell’autorizzazione da parte delle agenzie regolatorie qualora gli studi di conferma non siano effettuati nei tempi concordati. In questo schema, la disponibilità di prove robuste è una condizione dell’accesso al mercato. Nella discussione sui requisiti da soddisfare per un accesso accelerato, le aziende farmaceutiche sono di solito rappresentate come un blocco con interessi omogenei. La ragione è che, quasi sempre, le aziende chiedono alle agenzie regolatorie di allentare i vincoli del processo autorizzativo, e alle istituzioni che negoziano il prezzo di adottare criteri meno stringenti, pena il rischio di un calo degli investimenti che penalizzerebbe lo sviluppo di nuovi farmaci. Tende, invece, ad essere trascurata la struttura di incentivi che orienta le scelte delle aziende farmaceutiche. Ruggieri presenta un modello aziendale governato da una fondazione no profit, in cui l’assenza di azionisti da remunerare nel breve periodo consente un orizzonte di investimento pluriennale. Sarebbe allora di grande interesse verificare se vi siano differenze fra assetti proprietari non profit e for profit nelle scelte di ricerca in aree terapeutiche ad alta complessità e bassa attrattività commerciale, nel ricorso a disegni di studio comparativo e nell’utilizzo di esiti clinici anziché surrogati.

Accettare autorizzazioni accelerate in mancanza di un valore aggiunto clinicamente rilevante non favorisce l’accesso: è un rinvio del problema a spese dei servizi sanitari e dei pazienti.

Il confronto tra queste tre prospettive evidenzia che il problema dell’accesso all’innovazione farmaceutica presenta una tensione fra l’intento di velocizzare l’autorizzazione di nuovi farmaci e l’entità dell’incertezza sul profilo beneficio-rischio che è accettabile per i potenziali pazienti. Un punto sul quale potrebbero convenire tutti gli attori coinvolti è che accettare autorizzazioni accelerate in mancanza di un valore aggiunto clinicamente rilevante, e di tempi brevi per chiarire le incertezze residue, non favorisce l’accesso: è un rinvio del problema a spese dei servizi sanitari e dei pazienti.

Giuseppe Traversa, epidemiologo. La sua attività lavorativa e di ricerca all’Istituto superiore di sanità si è svolta prevalentemente nell’ambito della farmacoepidemiologia, delle conoscenze sull’appropriatezza d’uso dei farmaci e sul profilo beneficiorischio.

Innovazione CHE FUNZIONA

L’agenzia regolatoria statunitense, la Food and drug administration (Fda), ha in parte modificato il proprio approccio ai percorsi di approvazione di farmaci e dispositivi. Abbiamo chiesto a Aaron Kesselheim le sue prospettive sulla regolamentazione dei farmaci negli Stati Uniti, ritenendo che il suo punto di vista possa essere d’interesse anche per chi guarda al futuro della regolamentazione farmaceutica nel nostro Paese.

Professor Kesselheim, in un’era di crescente complessità tecnologica – inclusi i dispositivi medici avanzati – quali criteri ritiene essenziali per garantire che le negoziazioni sui prezzi riflettano realmente il valore clinico aggiunto, senza rallentare l’accesso dei pazienti all’innovazione?

Indipendentemente da quanto sia complessa la tecnologia, ritengo rimanga essenziale garantire che il prodotto sia valutato rigorosamente in uno studio clinico adeguatamente disegnato, che sia sufficientemente solido, che arruoli una popolazione rappresentativa e che misuri endpoint clinicamente rilevanti. I pazienti non vogliono semplicemente l’accesso all’innovazione, vogliono l’accesso a un’innovazione che funzioni e, attualmente, gli studi prospettici rigorosi sono il modo migliore che conosciamo per garantirlo. Questo tipo di informazione è essenziale per una negoziazione dei prezzi che abbia un senso. Inoltre, nella misura in cui sono disponibili altri trattamenti per una determinata condizione, le negoziazioni sui prezzi sono informate in modo ottimale dal confronto tra una nuova tecnologia e i trattamenti preesistenti, per capire quanto sia effettivamente innovativa la nuova tecnologia.

I pazienti non vogliono semplicemente l’accesso all’innovazione, vogliono l’accesso a un’innovazione che funzioni.

La sua proposta di istituire un panel di esperti indipendenti per valutare rapidamente il valore dei nuovi farmaci potrebbe applicarsi anche ai dispositivi medici ad alta tecnologia. Quali standard metodologici e tutele contro i conflitti di interesse sarebbero necessari affinché un tale organismo possa produrre rapporti basati sulle evidenze che siano realmente utili per i medici e per i decisori normativi?

Concordo sul fatto che sarebbe molto importante assicurarsi che gli esperti di tale panel siano privi di conflitti di interesse. Per questo motivo, ritengo che i membri del panel debbano essere preventivamente valutati, rendendo chiari i loro conflitti di interesse recenti e quelli futuri che sia possibile prevedere. Gli esperti possono far parte della commissione ed eventualmente essere esclusi da certe valutazioni se queste rientrano in un ambito per loro potenzialmente conflittuale.

È importante che i farmaci approvati in via accelerata siano oggetto di rigorosi studi di follow-up che testino endpoint clinici significativi.

Nel ripensare il percorso di approvazione accelerata della Fda, lei sottolinea la necessità di prove pre-marketing più solide. Come immagina un equilibrio sostenibile tra urgenza terapeutica, rigore delle prove e pressioni del mercato, in particolare per le terapie avanzate e i dispositivi in rapida evoluzione come gli strumenti digitali o le tecnologie basate sull’intelligenza artificiale?

Il percorso di approvazione accelerata è un approccio regolatorio ragionevole, ma dovrebbero esserci criteri chiari su quali farmaci ne abbiano diritto e sul perché le misure surrogate siano considerate degne di essere utilizzate nel processo di valutazione. È inoltre importante che i farmaci approvati in via accelerata siano oggetto di rigorosi studi di follow-up che testino endpoint clinici significativi, e che la Fda abbia l’autorità sufficiente per garantire che tali studi siano completati in tempi ragionevoli, altrimenti le approvazioni dovrebbero poter essere revocate.

Intervista a Aaron Kesselheim, professore di Medicina presso la Harvard medical school. Fa parte del corpo docente del Dipartimento di farmacoepidemiologia e farmacoeconomia della Brigham and women’s hospital, dove ha fondato il Program on regulation, therapeutics, and law (Portal) che dirige.

Diversa è la questione dell’approvazione di dispositivi in rapida evoluzione, come gli strumenti digitali o le tecnologie guidate dall’intelligenza artificiale, poiché questi rientrano nelle norme della Fda sui dispositivi medici, per i quali esiste già un processo per valutare i progressi rispetto ai dispositivi già approvati (i percorsi 510(k) o Pma, a seconda del rischio associato al dispositivo). In definitiva, è importante non rendere meno stringenti gli standard normativi per tali dispositivi, ma adattarli per garantire che questi prodotti siano soggetti a test pre-clinici ragionevoli e a un attento follow-up post-approvazione.

Glossario

La presentazione del modulo 510(k) e quello Pma (approvazione pre-commercializzazione) sono due processi distinti per ottenere l’approvazione Fda per i dispositivi medici, ciascuno con i propri requisiti e procedure. Il modulo 510(k) è riservato ai dispositivi medici a rischio medio, sostanzialmente equivalenti a un dispositivo già commercializzato. Mentre la Pma è per dispositivi medici ad alto rischio, come quelli che supportano o sostengono la vita umana, o che presentano un potenziale rischio di malattia o lesione, per cui sono richieste ampie prove di sicurezza ed efficacia.

Criteri e strumenti per l’innovazione sanitaria

VALUTARE IL VALORE

Intervista a Claudio Jommi, economista sanitario. È professore ordinario di economia aziendale presso il Dipartimento di scienze del farmaco e direttore del Master in discipline regolatorie e market access in ambito farmaceutico e biotecnologico dell’Università del Piemonte Orientale. È stato presidente dell’Associazione italiana di economia sanitaria.

In un’era di crescente complessità tecnologica – inclusi i dispositivi medici avanzati – quali criteri ritiene essenziali per garantire che le negoziazioni sui prezzi riflettano realmente il valore clinico aggiunto, senza rallentare l’accesso dei pazienti all’innovazione?

Credo siano cinque gli elementi chiave:

• integrare i processi di valutazione delle diverse tecnologie (farmaci, dispositivi, terapie digitali), come avviene in alcuni altri Paesi: questo non vuol dire necessariamente creare una nuova agenzia di health technology assessment (hta), ma identificare e sviluppare ogni iniziativa finalizzata a integrare i processi di valutazione e accesso di tecnologie collegate tra loro;

• sfruttare al meglio l’attività di horizon scanning per tracciare in anticipo tutte le possibili criticità nell’accesso a tecnologie, dalla valutazione comparativa alla identificazione e gestione delle modalità di accesso sul territorio;

• definire criteri espliciti e processi riproducibili che conducano dalle componenti del valore (rilevanza della patologia, unmet need, valore aggiunto) a un prezzo e a un costo ragionevoli e sostenibili;

• dare, quindi, un ruolo esplicito alle componenti di valutazione economica dell’hta: costo-efficacia, con range di valori soglia al rapporto incrementale di costo-efficacia, e budget impact;

• gestire al meglio l’incertezza sulle evidenze, valorizzando accordi di rimborso condizionato all’esito e/o alla spesa in real-life.

Integrare i processi di valutazione delle diverse tecnologie non vuol dire creare una nuova agenzia di hta ma integrare i processi di valutazione e accesso di tecnologie collegate tra loro.

La proposta di istituire un panel di esperti indipendenti per valutare rapidamente il valore dei nuovi farmaci potrebbe applicarsi anche ai dispositivi medici ad alta tecnologia. Quali standard metodologici e tutele contro i conflitti di interesse sarebbero necessari affinché un tale organismo possa produrre rapporti basati sulle evidenze che siano realmente utili per i medici e per i decisori normativi?

Innanzitutto va specificato bene che ruolo abbia il panel di esperti: effettuare un assessment o realizzare/validare un appraisal che porti alla definizione delle condizioni di accesso? Se venissero prioritizzate le tecnologie per le quali è davvero importante procedere a una valutazione ai fini dell’accesso al rimborso (e al prezzo), l’assessment potrebbe essere anche affidato a una rete di centri, università e altri soggetti, per poi affidare al panel un giudizio sul valore (simile al ranking adottato per la valutazione di innovatività dei farmaci). Sul conflitto di interessi sono favorevole a un approccio molto pragmatico: la collaborazione dei “valutatori” con altri stakeholder e, in particolare, con le imprese non è un problema in quanto tale, ma lo diventa se ha per oggetto la tecnologia oggetto di valutazione.

La collaborazione dei “valutatori” con altri stakeholder e con le imprese non è un problema in quanto tale, ma lo diventa se ha per oggetto la tecnologia oggetto di valutazione.

Nel ripensare il percorso di approvazione accelerata, alcune agenzie regolatorie sottolineano la necessità di sviluppare prove pre-marketing più solide. Come immagina un equilibrio sostenibile tra urgenza terapeutica, rigore delle prove e pressioni del mercato, in particolare per le terapie avanzate e i dispositivi in rapida evoluzione come gli strumenti digitali o le tecnologie basate sull’intelligenza artificiale?

Un primo aspetto è definire cosa realmente richiede un’approvazione accelerata: l’indifferibilità di un trattamento a causa dell’assenza di alternative terapeutiche e della gravità della malattia target o la prospettiva di un profilo di beneficio/rischio decisamente migliore rispetto alle alternative esistenti sono pre-condizioni per un’approvazione e, auspicabilmente, un accesso accelerato. Il secondo elemento è un ruolo più proattivo e collaborativo delle agenzie regolatorie e dei soggetti che svolgono hta nella fase di disegno degli studi clinici. È però comprensibile che l’accelerazione dei processi approvativi e di accesso possa comportare l’arrivo sul mercato di prodotti con evidenze meno robuste. Il rafforzamento di accordi di rimborso condizionato può essere, “a valle” di tutto il processo, un elemento chiave da considerare.

Il rafforzamento di accordi di rimborso condizionato può essere, “a valle” di tutto il processo, un elemento chiave da considerare.

Leggi anche

Nuove strade per la valorizzazione di nuove terapie?

In un’intervista rilasciata a Forward, Claudio Jommi aveva discusso le trasformazioni innescate dalla pandemia di covid-19 nelle politiche del farmaco. Al centro, il ruolo dell’Unione europea nella negoziazione e nella valutazione delle nuove terapie: opportunità, limiti e prospettive di una cooperazione più strutturata tra Stati membri per garantire accesso equo, sostenibilità e riconoscimento del valore dell’innovazione. Un’analisi che intreccia economia sanitaria, governance e futuro delle tecnologie terapeutiche.

Mettere i pazienti al CENTRO significa ripensare il modello farmaceutico

Intervista a Viviana Ruggieri, External Relations, Market Access & Regulatory Director, Servier Group Italia.

Cosa significa concretamente “costruire il futuro del pharma” in Italia?

Partirei da due elementi che caratterizzano la nostra azienda: l’indipendenza e la governance affidata a una fondazione no profit. Questo permette una visione di lungo periodo, che incentiva gli investimenti in ricerca e innovazione senza essere ossessionati dal risultato trimestrale. Essere governati da una fondazione significa che non abbiamo azionisti da remunerare nel breve periodo. Il valore creato viene reinvestito nell’azienda, soprattutto in ricerca e sviluppo, e nei progetti di impatto sociale. Questo ci consente di prendere le nostre decisioni con un orizzonte temporale di anni, non di trimestri.

Segue questa logica anche la scelta di impegnarsi lì dove è difficile andare, ovvero nelle malattie rare di natura neurologica che colpiscono in particolare i bambini, un’area che rappresenterà il terzo pilastro del Gruppo nel prossimo futuro.

In Italia, ad oggi, questo si accompagna a due priorità: garantire ai pazienti un accesso tempestivo a soluzioni terapeutiche innovative in cardiologia e oncologia, in particolare per quelle patologie orfane di terapia, e contribuire alla sostenibilità del Servizio sanitario nazionale attraverso una migliore aderenza alle cure nelle malattie croniche. Il tutto in una cornice che rafforzi il ruolo delle aziende come partner del sistema salute, non solo come fornitori di prodotti farmaceutici.

Concretamente, in quali azioni si traduce questa partnership?

Per esempio, nel coinvolgimento dei pazienti fin dalla fase di progettazione anche per studi clinici complessi, in programmi creati per sostenerli nel loro percorso di cura o in innumerevoli iniziative di formazione per i clinici che non generano un ritorno immediato, ma che rafforzano il sistema nel lungo termine. È un ruolo che chiede responsabilità, perché obbliga le aziende a dimostrare ogni giorno che è possibile cooperare alla produzione di valore per i pazienti, per il Servizio sanitario nazionale e per le comunità in cui si opera.

L’Italia – penso per esempio alla qualità della sua rete oncologica e dei centri di ricerca estremamente avanzati in entrambi gli ambiti in cui operiamo – è un Paese che potrebbe tornare a essere molto importante per lo sviluppo clinico e per l’accesso tempestivo alle nuove terapie, in particolare nell’ambito dell’oncologia di precisione. Questo si traduce in tre grandi linee: collaborazioni di ricerca e studi clinici con Irccs e centri universitari; partnership con società scientifiche e associazioni di pazienti per progetti di formazione, prevenzione primaria e incremento dell’aderenza alle terapie; e, sempre di più, alleanze con startup digitali e aziende tech per sviluppare soluzioni e-health che accompagnino il paziente lungo tutto il percorso di cura.

È importante disegnare il percorso del paziente dall’insorgenza dei sintomi fino alla gestione a lungo termine della malattia.

A questo proposito, c’è sempre maggiore interesse per il cosiddetto “patient’s journey”: come vivono questo cambiamento le aziende del farmaco?

Quando pensiamo a un farmaco o a un programma di supporto, è sempre più necessario non tenere in considerazione solo i dati clinici o le logiche di accesso al mercato: occorre partire dalla vita reale delle persone che ne dovrebbero beneficiare. Questo vuol dire chiedersi: quali sono i passaggi del loro percorso diagnostico, terapeutico e assistenziale? Quali ostacoli incontrano per accedere alla terapia? Chi li accompagna – familiari, caregiver, associazioni – e quali informazioni mancano lungo la strada? Solo se comprendiamo questa traiettoria, possiamo definire il corretto ruolo della terapia all’interno del percorso di cura, garantire la corretta presa in carico del paziente nell’intero percorso e costruire servizi che non si limitano alla prescrizione, ma la rendono realmente accessibile e sostenibile nel tempo. È importante disegnare il percorso del paziente dall’insorgenza dei sintomi fino alla gestione a lungo termine della malattia. Mappare chi incontra – medico di famiglia, specialisti, team infermieristico, farmacista ospedaliero e di comunità, sempre più rilevante in questo senso il ruolo della farmacia dei servizi e se il paziente possiede un’assicurazione privata o meno – e individuare in quale punto emergono criticità: le liste di attesa e il conseguente ritardo nella diagnosi o nel follow-up, l’accesso tempestivo alle terapie nonché il monitoraggio dell’appropriatezza nel tempo, la paura degli effetti collaterali e l’impatto sull’aderenza, e infine la qualità della comunicazione medico-paziente che, evitando informazioni frammentate e incomplete, permette al paziente di essere parte attiva e responsabile del suo percorso di cura.

Su questa base si può capire dove un trattamento può fare davvero la differenza e quali servizi vanno costruiti intorno: supporto per l’accesso, materiali informativi, strumenti digitali, assistenza nella gestione delle pratiche assicurative.

In pratica, usare il percorso assistenziale per assicurarsi che il “posto” del farmaco nella terapia non sia solo teorico, ma allineato a ciò che il paziente vive ogni giorno.

Il futuro del pharma sarà sempre più datadriven: servono persone che comprendano la complessità clinica e anche il linguaggio dei dati, dell’Ia, delle piattaforme digitali.

Come si relaziona un’azienda come la vostra con l’intelligenza artificiale?

A livello globale molte aziende – e tra queste Servier – hanno già avviato partnership importanti con realtà specializzate in intelligenza artificiale (Ia) per accelerare l’identificazione di nuovi target e la selezione dei pazienti più adatti a specifiche terapie. Questo significa soprattutto due cose: da un lato, partecipare a studi che utilizzano dataset complessi e strumenti di analisi avanzata; dall’altro, lavorare con i centri per migliorare la qualità e l’interoperabilità dei dati che provengono dal mondo reale, i cosiddetti real world data. L’Ia non sostituisce il medico, ma può aiutarlo a prendere decisioni più informate, a patto che i dati siano robusti, rappresentativi e utilizzati in modo etico.

Altro aspetto importante dell’applicazione dell’Ia al mondo pharma è la gestione delle segnalazioni di farmacovigilanza. I social media sono ormai una fonte importantissima di raccolta dati e il supporto dell’Ia diventerà strategico per raccogliere segnali, che altrimenti resterebbero inascoltati. Il futuro del pharma sarà sempre più data-driven: servono persone che comprendano la complessità clinica ma anche il linguaggio dei dati, dell’Ia, delle piattaforme digitali. Stiamo investendo molto in formazione interna e in percorsi di sviluppo che integrano competenze scientifiche, tecnologiche e manageriali.

Come azienda vogliamo essere anche un luogo attrattivo per i giovani talenti: ci stiamo aprendo maggiormente a collaborazioni con università e master, a percorsi di stage e a forme di lavoro più flessibili. L’obiettivo è costruire team multidisciplinari e cross-funzionali, in cui le competenze mediche, di data scientist, di accesso al mercato e istituzionali siano poste al servizio di una visione più ampia, solution focused rispetto ad una specifica problematica.

Il futuro del pharma passa anche dalla sostenibilità ambientale e sociale. Come si declina l’impegno di Servier in Italia su questi temi?

La nostra visione parla esplicitamente di impatto non solo sui pazienti ma anche sul pianeta. A livello di azienda abbiamo definito obiettivi chiari di riduzione delle emissioni e di efficientamento energetico nei siti produttivi e di ricerca, così come iniziative per la gestione responsabile dei rifiuti e dell’acqua.

In Italia stiamo lavorando per allinearci a questi obiettivi, investendo in efficienza energetica, mobilità aziendale più sostenibile e progetti di responsabilità sociale sul territorio, in particolare in ambito prevenzione cardiovascolare e supporto alle comunità locali. La sostenibilità, per noi, è parte integrante della strategia, non un capitolo a parte del bilancio. Consapevoli dell’importanza della sostenibilità ambientale e sociale, stiamo portando avanti un serio programma di sensibilizzazione verso tutti i dipendenti con progetti di impatto ambientale e un percorso formativo anche verso tutti i nostri partner commerciali. Per noi la sensibilizzazione sui temi ambientali non è solo top-down, ma un percorso da fare insieme favorendo a tutti i livelli lo scambio di idee e best practice. Non da ultimo, ci impegniamo a sostenere quelle organizzazioni che vanno incontro ai bisogni dei pazienti e delle loro famiglie. Un esempio su tutte è il recente supporto fornito a Dynamo Camp, un’importante realtà del terzo settore che dell’iniziativa solidale “Sorriso è cura” ha fatto uno strumento estremamente efficace per i bambini, adolescenti e famiglie che affrontano ogni giorno la malattia e la disabilità.

Il dibattito sul Servizio sanitario nazionale (Ssn) tende spesso a individuare nel privato il principale avversario: la sanità a pagamento come minaccia, le convenzioni come passo verso un modello “all’americana”. Ma il progressivo indebolimento del Ssn non nasce da una contrapposizione ideologica. È piuttosto il risultato di un circolo vizioso: ogni delega al privato, pensata per rispondere a un’emergenza, prepara la successiva. Il personale lascia il pubblico, le liste d’attesa crescono, le risorse servono a regolare invece che a rafforzare. Il nodo non è scegliere tra pubblico e privato, ma spezzare un meccanismo che rende il primo sempre più fragile e il secondo sempre più necessario. Una sfida che richiede riforme strutturali, non soluzioni tampone.

LA SANITÀ in equilibrio PRECARIO

Crisi, sospensione e transizione verso un incerto destino

Francesco Taroni, professore presso il Dipartimento di medicina e sanità pubblica dell’Università di Bologna. È stato direttore di ricerca del Laboratorio di epidemiologia e biostatistica dell’Istituto superiore di sanità. Ha ricoperto ruoli di vertice nella sanità pubblica, tra cui direttore generale della Sanità e dei servizi sociali della Regione Emilia-Romagna e di Agenas.

Il Servizio sanitario nazionale (Ssn) versa in una condizione di crisi finanziaria, di personale e di fiducia rispetto alle tre funzioni fondamentali dello “Stato sanitario”: assicurare l’assistenza sanitaria come diritto di cittadinanza, negata dalla frammentazione e dalla potenziale frantumazione del suo carattere nazionale; finanziare prestazioni e servizi gratuiti al momento del consumo, limitati dalla crescita della spesa privata per necessità o per scelta; contribuire alla produzione diretta dei servizi e delle prestazioni sanitarie, compressa dall’espansione del ruolo di nuovi attori emergenti fra i produttori privati. Tutte queste funzioni sono oggi in una fase di transizione verso una incerta destinazione finale, in assenza di qualsivoglia strategia politica riconoscibile, da cui la fase di sospensione. Nel suo recente Quaderno dedicato alla sanità, la Corte dei conti lo rappresenta fin dal titolo “La Sanità in cammino per il cambiamento”1. Un cammino con una destinazione incerta, se la Corte avverte che “è necessario chiarire le caratteristiche del percorso su cui si intende muovere la sanità italiana”. Un chiarimento urgente, se “il 2026 si presenta come un anno decisivo per la sanità pubblica”. Un’urgenza che la Legge di bilancio per il 2026 non sembra raccogliere né dal lato del finanziamento né da quello dell’organizzazione.

La crisi attuale sembra consistere principalmente nel fatto che i vecchi strumenti sono sempre meno utili e i nuovi fanno fatica a emergere.

Riprendendo un vecchio adagio, la crisi attuale sembra consistere principalmente nel fatto che i vecchi strumenti sono sempre meno utili e i nuovi fanno fatica a emergere. È diversa dalle precedenti crisi in quanto si è sviluppata cumulativamente in modo inapparente durante un lungo periodo di compressione fiscale che si è combinata con l’inerzia delle politiche sanitarie di governi di varia natura nel corso di quasi un quarto di secolo. Malgrado l’inerzia dei governi e l’apatia delle politiche pubbliche, la sanità non è rimasta statica né immobile. La deriva dei tradizionali strumenti di intervento del Ssn rispetto alle esigenze dettate dai nuovi rischi della cronicità, della multimorbosità e della perdita di autonomia in un contesto di austerità permanente ha prodotto la mercificazione delle prestazioni sanitarie e la mercatizzazione delle regole di funzionamento del sistema. Penuria di mezzi e apatia delle politiche pubbliche assieme al dinamismo degli operatori privati hanno instaurato un sistema ibrido nel finanziamento e nella produzione, un sistema complessivo delle cure sanitarie di cui il Ssn continua a essere una parte importante, ma solo una parte. Questa fase è stata caratterizzata dall’espansione lenta ma costante dei mercati privati della sanità e dalla trasformazione dei suoi principali attori dal lato del finanziamento come dal lato della produzione. I processi in corso evidenziano il procedere di una privatizzazione passiva che combina l’aumento della spesa privata diretta e di quella intermediata prevalentemente attraverso fondi in trasformazione assicurativa assieme al progressivo e crescente trasferimento a grandi gruppi di

imprese private della produzione di servizi a finanziamento pubblico. Un crescente numero di persone lamenta problemi di accesso ai servizi e incontra difficoltà economiche per il loro uso, soprattutto nelle famiglie a basso reddito e composte da anziani soli, particolarmente nel sud del Paese2. Ridurre gli ambiti di azione del Ssn e limitare le tutele in ragione delle risorse che gli saranno messe a disposizione in nome di un compassionevole “universalismo proporzionale” non farà che accelerare i processi in atto. L’ulteriore accelerazione dell’originale forma di mercatizzazione del sistema complessivo delle cure sanitarie potrà forse ridurre gli impegni operativi diretti del sistema pubblico ma è destinata ad aumentare gli oneri fiscali e regolatori del governo della sanità. Il nuovo assetto potrà forse dirottare aspettative e lamentele dal sistema pubblico verso altri soggetti, ma dovrà certamente gestire relazioni complesse con attori dotati di grande forza negoziale e di efficaci strumenti di persuasione.

Penuria di mezzi e apatia delle politiche pubbliche assieme al dinamismo degli operatori privati hanno instaurato un sistema ibrido nel finanziamento e nella produzione.

La destinazione finale di questa fase di sospensione è la risultante dell’intreccio delle dinamiche dei quattro comparti che compongono il sistema complessivo delle cure sanitarie che seguono logiche diverse e razionalità proprie, nel contesto di un sistema di governo multilivello che comprende Unione europea, Stato nazionale e Regioni. Le politiche dell’Unione europea a tutela della concorrenza si sono fatte progressivamente più invasive anche rispetto alle competenze riconosciute ai singoli Stati sui sistemi di protezione sociale e assicurano comunque la continuità di una rigida politica di consolidamento fiscale e di austerità permanente. Rispetto alla configurazione del Ssn, a livello statale siamo attualmente in una fase di sospensione riguardo a una legge

sull’autonomia differenziata che potrebbe frantumarne il governo ben oltre la sua attuale frammentazione. La varietà è il connotato principale del comparto delle imprese sanitarie di diritto privato accreditate con il Ssn, che comprende sia grandi gruppi globali che piccole imprese locali. Per questo, il sistema delle imprese sanitarie di diritto privato accreditate col Ssn prospetta due diverse configurazioni estreme, con una varietà di soluzioni intermedie. Da un lato, il consolidamento del mercato privato accreditato attraverso l’ulteriore espansione di un numero ristretto di grandi imprese private attive spesso in numerosi mercati regionali e talora anche internazionali, che già esercitano un forte potere di mercato rispetto alle strutture più piccole e nei confronti delle Regioni. All’opposto, è possibile che si realizzi sullo stesso mercato la presenza di una doppia popolazione di imprese, in cui alcuni grandi gruppi coesistono con piccole imprese tradizionali attive su mercati locali. Sia le scelte strategiche delle imprese che la disciplina della loro selezione per accedere all’erogazione di prestazioni sanitarie per conto e a carico del Ssn avranno un forte impatto sull’evoluzione verso questi due possibili scenari alternativi.

La scelta fondamentale che si pone al legislatore è se le (presunte) virtù del mercato delle prestazioni sanitarie che si intendono mobilitare si esprimano meglio assicurando una vivace competizione fra un gran numero di imprese relativamente piccole ovvero, al contrario, favorendo il consolidamento ulteriore di un piccolo numero di grandi imprese. La legislazione attuale si presenta ambivalente rispetto a queste possibilità.

La Legge per la concorrenza e il mercato approvata dal governo Draghi aveva disposto lo svolgimento periodico di gare per selezionare le imprese private accreditate che intendono acquisire contratti di fornitura con il Ssn, con l’evidente obiettivo di stimolare la competizione per il mercato, indirettamente contrastandone il suo consolidamento. La successiva Legge per la concorrenza e il mercato ne ha però sospeso l’efficacia, incaricando un “Tavolo di lavoro” di formulare una nuova disciplina dell’accreditamento e degli accordi contrattuali entro il 31 dicembre 2026. Un’ulteriore disposizione ha fortemente attenuato l’impatto pro-competitivo delle norme iniziali prefigurando procedure separate per le imprese entranti rispetto a quelle già accreditate e garantendo comunque la continuità dell’assistenza. In ogni caso, malgrado i suoi lavori siano ignorati dai più, le scelte del “Tavolo” sono destinate a influenzare il cambiamento in corso del sistema delle imprese sanitarie private e a trasformare o consolidare il loro sistema di relazioni con il Ssn.

Le politiche nazionali privilegiano l’intervento di capitali privati a sostegno o, più verosimilmente, in sostituzione del finanziamento pubblico.

Dal lato del finanziamento, le politiche nazionali privilegiano l’intervento di capitali privati a sostegno o, più verosimilmente, in sostituzione del finanziamento pubblico. Il piano strutturale di bilancio prevede “il potenziamento e l’ordinato sviluppo dei pilastri complementari di previdenza e sanità” e “lo sviluppo e il riordino degli strumenti per la sanità integrativa”. Il generico intento di sviluppare il secondo e il terzo pilastro dell’assistenza sanitaria è stato autorevolmente qualificato dal presidente della X Commissione del Senato con l’obiettivo di raddoppiare da 14 a 30 milioni il numero di cittadini iscritti a fondi o assicurazioni sanitarie. L’obiettivo trascura il fatto che un raddoppio degli iscritti ai fondi cosiddetti integrativi è già avvenuto in passato, ma non ha significativamente aumentato la loro capacità di intermediazione della spesa privata delle famiglie. Forse, in previsione della scadenza della disponibilità delle risorse del Pnrr, il piano strutturale di bilancio intende anche riesumare vecchi strumenti che si ritenevano ingloriosamente consegnati alla storia dichiarando di voler realizzare “il potenziamento dell’assistenza territoriale ed edilizia sanitaria (ricorrendo anche a strumenti finanziari e al partenariato pubblico-privato)”. Dal lato della raccolta dei capitali privati delle famiglie, è rimarchevole l’aumentato attivismo dei soggetti privati della sanità cosiddetta integrativa che si accompagna alla trasformazione in corso di alcuni dei più grandi fondi di origine occupazionale in un ruolo di ponte verso le compagnie assicurative, malgrado abbiano già sperimentato le peggiori pratiche ripetutamente sanzionate dalla Autorità garante. Alcuni cambiamenti con effetti di più lungo periodo sembrano andare oltre la semplice redistribuzione dei ruoli fra i soggetti esistenti. I più recenti movimenti di mercato rivelano la tendenza a integrare

verticalmente finanziamento e produzione delle prestazioni sanitarie attraverso accordi fra compagnie assicuratrici e imprese sanitarie private. Informazioni giornalistiche segnalano per esempio l’acquisizione da parte di Unipol di Società e Salute spa, attiva nel settore dell’assistenza ambulatoriale, e la partnership strategica di Generali Italia con il Gruppo San Donato, il gigante della sanità italiana. Trasformazioni forse strategiche o soltanto tattiche, che denotano comunque l’interesse per il crescente mercato della spesa privata delle famiglie anche da parte di imprese di diritto privato dotate di importanti funzioni pubbliche di assistenza, ricerca e formazione.

Per la politica si avvicina il momento di grandi scelte, se vorrà affrontarle.

Per gli amministratori si prospettano ulteriori momenti difficili, e per gli operatori ancora di più.

L’attuale condizione di crisi del sistema complessivo delle cure evidenzia una fase di sospensione e l’inizio di una transizione verso un incerto destino la cui configurazione finale dipenderà o dall’evoluzione spontanea del mercato o dalle politiche che si deciderà di seguire. Le scelte fondamentali riguardano struttura e funzione del Ssn, per realizzare la transizione organizzativa mai realizzata che è alla radice della attuale crisi e per scacciare l’idea che al Ssn competa solo un ruolo residuale di soccorso alle persone indigenti e non assicurabili in un sistema che per una parte significativa già privilegia reddito e occupazione per garantire l’accesso ai servizi sanitari.

Per la politica si avvicina il momento di grandi scelte, se vorrà affrontarle. Per gli amministratori si prospettano ulteriori momenti difficili, e per gli operatori ancora di più. Ai cittadini, distratti dalla preoccupazione per i lunghi tempi di attesa, sembra invece si vogliano risparmiare apprensioni su temi che pure li riguardano da vicino. Salvo, naturalmente, lodevoli eccezioni come la campagna “Non possiamo restare in silenzio” (www.scossa.net).

Tratto dal libro di Francesco Taroni, Un sistema sanitario in bilico

Continuerà a volare il calabrone?

Roma: Il Pensiero Scientifico Editore, 2025.

1. Corte dei conti. La Sanità in cammino per il cambiamento. I quaderni del Rapporto sul coordinamento della finanza pubblica. Quaderno 4, 2025.

2. Fattore G, Preti LM. Can people afford to pay for health care? New evidence on financial protection in Italy. Copenhagen: WHO Regional Office for Europe, 2025.

La TRAPPOLA della PRIVATIZZAZIONE

Carenza di personale, conflitti d’interesse e falsi miti

Intervista a Chiara Cordelli, filosofa, è professoressa ordinaria presso il Dipartimento di scienze politiche dell’Università di Chicago. Tra i suoi ultimi libri “The Privatized State” (Princeton University Press, 2020) e “Privatocrazia” (Mondadori, 2022).

Nel suo lavoro descrive un “circolo vizioso” per cui ogni delega al privato rende la successiva ancora più necessaria. In ambito sanitario, dove molte Regioni italiane dipendono già da erogatori privati accreditati, quali segnali concreti indicano che questo processo è già in atto? E quali rischi intravede per la capacità dello Stato di pianificare e governare i servizi essenziali?

Più si indebolisce il pubblico, più il privato viene chiamato ad agire come supplemento essenziale, finché da supplemento diventa sostituto. Dalla metà degli anni Novanta ad oggi, i posti letto pubblici sono stati più che dimezzati e, nello stesso arco di tempo, i posti letto privati sono considerevolmente aumentati. Consideriamo alcuni esempi concreti.

Un esempio è la grave carenza di personale sanitario, in particolare di quello infermieristico. Il personale medico, depauperato e demotivato, abbandona il sistema pubblico cercando opportunità all’estero o nel settore privato. Questo crea a sua volta la necessità per il pubblico di assumere gettonisti privati, i quali spesso sono meno qualificati e più pagati dei medici nel pubblico. Ciò comporta una demotivazione ulteriore da parte del personale medico e infermieristico pubblico che si trova così ancora più incentivato ad andarsene. Ciò rende il supporto del privato ancora più necessario, perpetuando il circolo vizioso.

È inoltre emblematico il caso delle lunghe liste d'attesa dovute alla mancanza di personale e a insufficienti capacità logistiche e diagnostiche. Il modo in cui si cerca di abbattere le liste d’attesa, coinvolgendo strutture private accreditate, rinforza gli stessi fattori che in parte ne sono la causa. Per esempio, si usano fondi esistenti per aggiornare il tetto di spesa per gli acquisti di prestazioni sanitarie di assistenza specialistica ambulatoriale e di assistenza ospedaliera fornite da privati. In questo modo, si danno più soldi alle Regioni che già ricorrono al privato. Poiché parte dei fondi esistenti vengono usati per supportare i privati, questi stessi fondi non vengono usati per il potenziamento strutturale del Servizio sanitario nazionale, e quindi le liste d’attesa continuano ad allungarsi rendendo il supporto del privato sempre più necessario. Da supplemento il privato diventa sostituto e ci si muove verso un modello americano.

Da supplemento il privato diventa sostituto e ci si muove verso un modello americano.

Lei sostiene che una maggiore regolamentazione non sia un rimedio sufficiente alla perdita di controllo dello Stato. Nel caso della sanità, spesso si invoca proprio più regolazione per garantire qualità e appropriatezza. Qual è, secondo lei, il limite strutturale di questo approccio quando la funzione pubblica è stata ampiamente esternalizzata?

Perché la regolamentazione sia efficace essa richiede capacità di controllo e di monitoraggio; richiede fondi e personale sufficiente, non

in ultimo, richiede potere e indipendenza da parte di chi regola. Questi fattori sono spesso carenti nel caso della sanità rendendo le regolamentazioni inefficaci. In parte ciò è dovuto al proliferare di privati accreditati, spesso non accompagnato da un proliferare di funzionari pubblici che dovrebbero eseguire i controlli. Ma è anche dovuto ad una tendenza al quasi monopolio da parte di grandi gruppi privati sanitari quali San Donato e Humanitas. Se lo stato dipende per la propria sopravvivenza dall’azione di monopoli privati, le sue capacità di regolamentazione diminuiscono e il rischio di corruzione aumenta.

In ogni caso, la regolamentazione è insufficiente perché il problema non è solo un problema di rischio di abusi da parte del privato ma è anche, come dicevamo prima, una questione di depotenziamento progressivo del pubblico.

Inoltre, le regolamentazioni sono insufficienti a risolvere il problema delle diseguaglianze tra cittadini rispetto alla possibilità di accesso alle cure, che una sanità privatizzata necessariamente genera. Sono anche insufficienti a risolvere il problema del peggioramento delle condizioni di lavoro di professionisti e operatori sanitari nel pubblico, che è al centro del crollo della sanità.

La privatizzazione delle funzioni pubbliche, scrive, può favorire forme di influenza politica – dal lobbying al clientelismo – che orientano ulteriori privatizzazioni. Nel settore sanitario, dove gli investimenti privati crescono rapidamente, quali forme di influenza ritiene più rilevanti e quali anticorpi democratici possono essere ancora efficaci?

La corruzione in sanità causa perdite pari a circa il 15 per cento dei finanziamenti pubblici, e non solo in Italia1. Le aree più colpite sono la sanità privata (per i mancati controlli), la farmaceutica e la questione delle nomine, che sono ancora oggetto di ingerenze di partito.

Durante la pandemia, tra inizio 2020 e aprile 2021, in Italia sono stati riportati 132 casi di corruzione nell’ambito sanitario/farmaceutico. Prima si trattava di corruzione riguardante prevalentemente gli appalti, tuttavia, da quando è cresciuta la privatizzazione del sistema sanitario è aumentato il rischio di corruzione nei processi di accreditamento, rimborso e conferma dei requisiti.

Inoltre, c’è il problema dei grandi conflitti d’interesse. Come ha dimostrato un’inchiesta de L’Espresso, tra i maggiori finanziatori di vari partiti vi sono proprietari di grandi gruppi privati convenzionati con la sanità pubblica (Gianfelice Mario Rocca, patron di Humanitas, ha finanziato Azione, e Marco Rotelli, vice presidente del gruppo San Donato, ha finanziato Fratelli d’Italia, Partito Democratico, Lega, Forza Italia, Impegno Civico e Italia Viva). In alcuni casi sono i politici stessi ad essere proprietari di gruppi sanitari privati (per esempio, il leghista Antonio Angelucci è il fondatore di uno dei più grandi gruppi sanitari). A livello regionale, ci sono anche casi in cui cliniche convenzionate private sono di proprietà degli stessi politici che gestiscono le convenzioni.

Incentivi a fare profitto portano ad una sotto-erogazione dei servizi sanitari essenziali: ottima ricerca sul genoma o chirurgia plastica ma mancanza di medicina preventiva o di famiglia.

Lei afferma che la privatizzazione dei servizi più visibili, come sanità ed educazione, promuove “apatia civica” e riduce la vigilanza democratica. Come interpreta l’attuale disaffezione verso il Servizio sanitario nazionale e la crescente percezione dei servizi come “di mercato”? E cosa si può fare, in concreto, per ricostruire consapevolezza e partecipazione attorno alla sanità pubblica?

In primo luogo, è necessario migliorare il sistema sanitario pubblico, facendo dovute riforme strutturali e soprattutto assumendo più personale medico e infermieristico, con retribuzioni più adeguate e migliori condizioni lavorative. Servono maggiori investimenti a lungo termine sulla formazione, bisogna rimuovere il tetto alle assunzioni, e investire soprattutto sulla prevenzione. Bisogna investire nelle case di comunità, luoghi di prossimità fisica ai quali l’assistito può accedere per poter entrare in contatto con il sistema di assistenza sanitaria; sono strutture facilmente raggiungibili per l’accesso, l’accoglienza e l’orientamento. Queste riforme sono necessarie, i cittadini non possono fidarsi di un sistema che non funziona o che viene percepito come troppo complesso o distante.

Secondo, è necessario un cambio di retorica e più informazione per smascherare falsi miti sulla privatizzazione. Uno di questi miti, il più potente, è che privatizzare significhi risparmiare. La realtà è diversa:

1. monitoraggio, controlli e regolamentazioni adeguate costano molto allo Stato;

2. i privati hanno incentivi a fornire servizi più lucrativi a scapito della prevenzione (più cura, meno prevenzione), ma è la prevenzione che fa risparmiare;

3. negli Stati Uniti la spesa pro capite è quasi il doppio che nei Paesi europei e la causa ha a che vedere con i prezzi delle prestazioni, non con il loro utilizzo;

4. l’assenza di un adeguato coordinamento porta a sprechi, ci sono 2 miliardi di euro di sprechi e inefficienze dovuti a sovra- e sottoutilizzo dei servizi sanitari.

Un altro mito è che la privatizzazione aumenta la qualità dei servizi. Occorre però chiedersi quali Servizi. Incentivi a fare profitto portano ad una sotto-erogazione dei servizi sanitari essenziali: ottima ricerca

80%

La spesa sanitaria italiana privata si concentra per l'80% sulle famiglie con reddito lordo annuo superiore a 85 mila euro ma i suoi effetti negativi (impoverimento e spese insostenibili) colpiscono le famiglie meno abbienti.

Chiara Cordelli Privatocrazia Perché privatizzare è un rischio per lo Stato democratico Milano: Mondadori, 2022.

15% Visite specialistiche

19% Spese odontoiatriche

24% Farmaci

sul genoma o chirurgia plastica ma mancanza di medicina preventiva o di famiglia. Inoltre, i medici nel privato sono, in alcuni casi, medici che non sono riusciti ad entrare come strutturati nel pubblico, possono essere meno qualificati e con meno esperienza.

Terzo, per ricostruire la fiducia bisogna ridurre le disuguaglianze e democratizzare il processo di erogazione e gestione dei servizi pubblici. Stato, Regioni, Comuni e aziende sanitarie devono collaborare tra di loro, con l’obiettivo di assicurare condizioni e garanzie di salute uniformi su tutto il territorio nazionale. Nella gestione delle aziende sanitarie dovrebbero essere inclusi anche i pazienti, o le associazioni civiche che li rappresentano, oltre che medici e infermieri.

Le nomine dei direttori delle aziende sanitarie non dovrebbero rispondere a logiche di partito, dovrebbero essere nomine meritocratiche. Le commissioni di selezione dovrebbero includere non solo tecnici e personale medico ma anche associazioni che rappresentano i diritti e i bisogni dei pazienti e di tutti i cittadini (tutti saremo un giorno pazienti). Ciò contribuirebbe non solo ad arrivare a decisioni di qualità ma anche a rinvigorire la fiducia dei cittadini.

1. Giambelluca A. Corruzione in sanità: leggi e segnalazioni aiutano, ma senza formazione e tecnologia la corruzione è difficile da arginare. TrendSanità, 2020. Disponibile su: https://bit.ly/4a2ZtGN [ultimo accesso 27 gennaio 2026]

Fonte: Indagine conoscitiva sulle forme integrative di previdenza e di assistenza sanitaria nel quadro dell’efficacia complessiva dei sistemi di Welfare e di tutela della salute. Banca d’Italia, 2023.

58% 42%

IL FUTURO È UNA DOMANDA APERTA? Iniziamo da qui

IL PUNTO DI VISTA DEI LETTORI DI FORWARD

In queste pagine abbiamo esplorato i temi della ricerca clinica, dell’intelligenza artificiale in medicina e in sanità, delle evidenze scientifiche e del futuro del sistema sanitario. Forward ha voluto raccogliere il sentiment dei suoi lettori con la consueta survey online, a cui hanno risposto 353 persone.

Dalle risposte emerge una visione esigente e sfumata della medicina basata sulle prove: quasi la metà dei rispondenti (49%) ritiene che i nuovi farmaci debbano essere valutati su studi solidi e con endpoint clinicamente rilevanti, senza riserve, mentre il 42% riconosce che per alcune terapie o popolazioni condurre trial randomizzati tradizionali rimane difficile. Sul tema della piramide delle evidenze, un lettore su tre vorrebbe ripensarla non per abbatterla, ma per renderla più flessibile: il valore dell’evidenza dovrebbe dipendere

dalla pertinenza dello studio all’obiettivo, non da una gerarchia fissa. Per migliorare la ricerca clinica in Italia, la priorità indicata dai lettori è la formazione sulla metodologia dei giovani medici (35%), seguita dall’aumento dei finanziamenti per la ricerca indipendente (27%). Il dibattito sulla privacy dei dati divide: il 35% considera le norme una tutela indispensabile, mentre un altro 35% le ritiene troppo restrittive. Il rapporto con la privatizzazione sanitaria è critico: il 56% ritiene che provochi inevitabilmente un aumento della spesa pubblica o per i cittadini, mentre solo il 7% vi vede un motore di qualità attraverso la concorrenza. Quanto all’intelligenza artificiale, i lettori ne riconoscono il potenziale, soprattutto per la gestione dei servizi sanitari (30%), la ricerca e sviluppo (26%) e la formazione del personale (25%). Ma i rischi non

vengono ignorati: il pericolo più temuto è che comprometta le competenze cliniche e il pensiero critico dei professionisti (28%), seguito dal rischio di aumentare il rumore informativo (26%) e di accelerare la pubblicazione di letteratura scientifica inaffidabile (18%). Chiude il quadro una domanda sull’impatto di internet e dei social media sulla salute, che restituisce un’immagine di incertezza: il 41% considera l’impatto troppo difficile da valutare in modo netto.

In sintesi, la survey restituisce l’immagine di una comunità di professionisti e lettori attenta, critica verso le derive commerciali della sanità privata e i rischi tecnologici legati all’automazione del pensiero clinico, ma estremamente propositiva sul fronte della metodologia e della formazione.

I nuovi farmaci devono essere valutati in base a studi clinici “adeguatamente disegnati, solidi, su popolazioni rappresentative e con endpoint clinicamente rilevanti” (Aaron Kesselheim). Sei d’accordo?

Sì, senza riserve

In parte, ma per alcune terapie o popolazioni è difficile condurre studi controllati randomizzati tradizionali

No, credo che le evidenze del mondo reale debbano essere considerate a pieno diritto una base di conoscenza utile per le decisioni regolatorie

Non ho una posizione definita su questo aspetto

La piramide delle evidenze va ripensata?

Sì, semplifica eccessivamente il rapporto tra disegno di studio e qualità delle prove

Non saprei, è un tema complesso che richiede competenze specifiche

Sì, la robustezza di alcuni studi osservazionali può superare l’affidabilità di alcuni trial

A tuo parere, la privatizzazione nel servizio sanitario...

Sì, il valore dell’evidenza deve dipendere dalla pertinenza dello studio all’obiettivo, non da una gerarchia fissa

No, è sempre stata un punto di riferimento (e non un dogma) e tale deve restare

56% 27%

Provoca inevitabilmente un aumento della spesa pubblica o per i cittadini

Dipende molto dai modelli di gestione adottati a livello locale

Comporta costi elevati per la necessità di controlli e monitoraggio costante 10% 7%

Aumenta la concorrenza e migliora la qualità dei servizi

Compromettere le competenze cliniche e il pensiero critico dei professionisti

Aumentare la difficoltà nel distinguere tra prove credibili e rumore di fondo

Dove intervenire prioritariamente per migliorare il domani della ricerca clinica in Italia?

Formazione: introdurre precocemente i giovani medici ai metodi della ricerca

Risorse: aumentare i finanziamenti per la ricerca indipendente

Burocrazia: snellire le procedure autorizzative per rendere il Paese più competitivo

Agenda: dare priorità a interrogativi clinici realmente rilevanti

Partnership: incentivare la collaborazione tra pubblico e privato

Non ho una proposta prioritaria

Altre opzioni

Rispetto alla nostra salute, Internet e i social media...

Hanno avuto un impatto troppo ambivalente per essere giudicato

Ci hanno reso più disinformati e spaventati

Accelerare la pubblicazione di letteratura scientifica inaffidabile

Aumentare il divario tra strutture tecnologicamente avanzate e realtà sanitarie più fragili

Impatto ambientale eccessivo

Al momento non ravvedo rischi significativi

Le normative sulla riservatezza dei dati condizionano il futuro della ricerca. Cosa ne pensi?

È un tema tecnico in cui manca la voce dei diretti interessati (cittadini e pazienti)

Non conosco abbastanza le normative per valutarne l’impatto

Sono tutele indispensabili per i diritti dei cittadini

Ci hanno reso più informati e consapevoli

Sono troppo restrittive; andrebbe seguito l’esempio di nazioni con norme più agili

L’intelligenza artificiale è già utilizzata nella comunicazione scientifica. Per cosa potrebbe essere più utile, in prospettiva?

Gestione e ottimizzazione dei servizi sanitari

Ricerca e sviluppo di nuove tecnologie mediche e farmaceutiche

Formazione e aggiornamento del personale sanitario

Erogazione di servizi di assistenza domiciliare e territoriale

Investimenti in infrastrutture sanitarie

Non saprei

Altre opzioni

Piace molto – al gruppo di lavoro di Forward –sottolineare la preferenza per le domande rispetto alle risposte. Anche sul domani dell’intelligenza artificiale in relazione alla cura non ci smentiamo: incertezza è la parola che ci guiderà lungo i punti di vista che abbiamo voluto ascoltare. Il filo rosso è l’auspicio di poter fare affidamento sull’intelligenza artificiale per costruire un “nostro mondo” migliore. La cura digitale potrà essere quella innovazione capace di rendere la sanità più equa e vicina ai cittadini. Con una sorpresa finale: per quanto prudenti quando si tratta di pensare a una cura più tecnologica, perdiamo ogni pudore quando si tratta – con l’intelligenza artificiale – di fare l’amore.

IL DOMANI incerto DELL'INNOVAZIONE e lo d'azionespazioUMANA

L’intelligenza artificiale (Ia) potrebbe fornire soluzioni ad alcuni dei problemi più pressanti della medicina e dei servizi sanitari. L’uso di modelli sempre più sofisticati promette di accelerare la ricerca biomedica, potenziare i nostri mezzi diagnostici e rendere più equo l’accesso alle cure, riducendo al contempo i costi e, teoricamente, lasciando più spazio alla comunicazione e al contatto umano con i pazienti.

La crescente capacità di dirimere la complessità dell’immensa mole di dati a nostra disposizione porta con sé molte speranze, soprattutto in un periodo storico caratterizzato da problemi sanitari così sistemici da apparire irrisolvibili. Tuttavia, questo positivismo tecnologico che permea le conversazioni sull’Ia rischia di nascondere le sfumature di una realtà ben più complessa. Se vogliamo cogliere appieno il potenziale di questa innovazione, è necessario abbandonare la narrazione della “salvezza tecnologica” e abbracciare lo spazio dell’incertezza, analizzando come questi strumenti impatteranno realmente sul futuro della sanità.

È necessario abbandonare la narrazione della “salvezza tecnologica” e abbracciare lo spazio dell’incertezza.

Innanzitutto, è bene ricordare che le fondamenta su cui poggia questa innovazione sono meno solide di quanto appaiano. L’Ia non è magia, ma statistica e informatica applicate a enormi dataset, e se i dati sanitari storici contengono pregiudizi o non sono sufficientemente integrati il risultato non potrà che essere viziato. I bias presenti nei dati di addestramento rischiano di essere non solo replicati, ma amplificati e automatizzati dagli algoritmi, creando nuove forme di disuguaglianze sotto una patina di oggettività matematica. Inoltre, calare questi strumenti avanzati in contesti ospedalieri e di sanità territoriale, caratterizzati da una digitalizzazione frammentata e processi spesso non sufficientemente integrati, potrebbe non portare alla semplificazione sperata, ma aggiungere un ulteriore strato di complessità, trasformando l’innovazione in una nuova incombenza mal integrata e in un ulteriore peso per i professionisti sanitari.

Anche la narrazione che vede l’Ia come liberatrice del tempo medico va maneggiata con cura. Esiste il rischio concreto di un progressivo deskilling del personale sanitario: affidarsi eccessivamente al supporto decisionale delle macchine potrebbe, nel lungo termine, deteriorare le competenze cliniche e il pensiero critico che nascono dall’esperienza diretta e dalla gestione dell’incertezza. Invece di rafforzare il medico, la tecnologia potrebbe renderlo dipendente, inserendosi in processi di cura dove la comunicazione e l’empatia rischiano di essere mediate o ostacolate da interfacce digitali. Abbiamo già visto come gli algoritmi dei

Giacomo Diedenhofen, medico specialista in Statistica sanitaria e Biometria nell’ambito della sanità pubblica. È membro della Società italiana intelligenza artificiale in medicina e svolge la propria attività presso il Dipartimento di epidemiologia, Servizio sanitario regionale del Lazio, Asl Roma 1.

social media abbiano agito da motori e amplificatori di disinformazione, erodendo la fiducia tra cittadini e istituzioni sanitarie. Similmente, i modelli linguistici (large language model, Llm) stanno diventando di uso comune tra i pazienti, inserendosi di fatto già nella comunicazione sanitaria, e in un contesto segnato da disuguaglianze socioeconomiche e scarsa alfabetizzazione digitale, specialmente tra gli anziani, l’introduzione acritica di nuovi strumenti tecnologici potrebbe allargare il divario, invece di colmarlo.

Il rischio concreto è che la ricerca di domani si trovi a navigare in un mare di contenuti sintetici dove la verità scientifica diventa più difficile da isolare.

Nel campo della ricerca scientifica, il contributo dell’Ia si sta rivelando un’arma a doppio taglio. Se da un lato gli Llm sono assistenti validissimi in tante applicazioni, dalla ricerca bibliografica all’estrazione di dati, dall’altro stanno accelerando la sovrapproduzione di letteratura scientifica di valore talvolta discutibile. L’inflazione di pubblicazioni mette a dura prova la tenuta del sistema della peer review, un meccanismo di controllo ormai scricchiolante e che fatica sempre più a filtrare l’innovazione reale dal rumore di fondo. Si evidenzia anche l’uso dell’Ia come mezzo di screening e di review delle pubblicazioni, una pratica che non risolve i problemi sottostanti e che mina ulteriormente la fiducia tra ricercatori, che è alla base dell’intero sistema della peer review. Il caso di vari paper sottoposti con prompt nascosti nel testo, per spingere un revisore Ia a dare una valutazione positiva, è emblematico dell’erosione di questa fiducia. Il rischio concreto è

vedi anche

Nel 2023, quando pubblicammo il numero dedicato a ChatGPT, l’Organizzazione mondiale della sanità guardava con un misto di “ottimismo e cautela” allo straordinario progresso dell’intelligenza artificiale applicata alla salute globale. Nel riflettere sul potenziale dei grandi modelli linguistici, Sameer Pujari e colleghi ricordavano che, “affinché l’impatto sia positivo, è necessario porre i diritti dei cittadini, l’equità e la trasparenza al centro della progettazione tecnologica”1. Non è solo una questione di efficienza tecnica, ma di governance: “La velocità di applicazione è maggiore della capacità regolatoria e di valutazione della maggior parte delle agenzie incaricate di tutelare la salute pubblica e di fornire una supervisione delle tecnologie applicate alla salute e al benessere”. Questa necessità di una guida non riguarda però solo la gestione dei processi, ma tocca l’essenza stessa della pratica clinica. Luciano Floridi sottolineava – in un’intervista di alcuni anni prima, pubblicata sul numero di  Forward dedicato proprio all’intelligenza artificiale – che “la dignità umana, fondamento della dichiarazione dei diritti universali dell’uomo, è e resta il punto centrale di tutta l’etica medica, tanto più in un contesto in cui i dati possono essere molto sensibili e l’individuo tipizzato, trasformato in un numero. Noi abbiamo l’opportunità, oggi, di fare ciò che la medicina ha sempre voluto fare: ‘sartorializzare’ la cura sull’individuo”2

Nel solco di questa responsabilità si inserisce il dibattito emerso durante la riunione annuale

che la ricerca di domani si trovi a navigare in un mare di contenuti sintetici dove la verità scientifica diventa più difficile da isolare, minando alla base la stessa evoluzione della conoscenza medica.

Non c’è alcuna garanzia che l’Ia ci conduca verso un futuro radioso.

Non c’è alcuna garanzia che l’Ia ci conduca verso un futuro radioso. Questa incertezza non è un difetto del sistema, ma la caratteristica intrinseca di ogni grande cambiamento che ci chiama a una responsabilità diretta. Riconoscere che le soluzioni tecnologiche possono essere parziali e che è necessario istruire, comunicare e costruire fiducia per assicurare un’implementazione positiva è il presupposto necessario per governare la tecnologia anziché subirla. L’innovazione poggia sempre sull’uso che se ne fa: l’Ia avrà un impatto positivo solo se saremo disposti a compiere uno sforzo che non è tecnologico, ma etico, politico e profondamente umano. Ci viene richiesto di trasformare l’incertezza del domani non in paura, ma in un progetto consapevole, dove la tecnologia rimane uno strumento al servizio di una cura più giusta e attenta.

L’Ia avrà un impatto positivo solo se saremo disposti a compiere uno sforzo che non è tecnologico, ma etico, politico e profondamente umano.

OLTRE L’ALGORITMO: IL DOMANI DELLA CURA

4words 2018 dedicata, tra le altre parole chiave, all’intelligenza artificiale. Ziad Obermeyer, portando ad esempio alcuni casi osservati in pronto soccorso, evidenziava come l’intelligenza artificiale possa essere d’aiuto per superare i limiti cognitivi della mente umana nelle scelte cliniche difficili – grazie al potere predittivo del machine learning. Mentre Federico Cabitza metteva in guardia dal proiettare aspettative e abilità su sistemi che di fatto non sono intelligenti ma semplicemente in grado di leggere i dati che generano. La tecnologia, infatti, “dovrebbe farci vedere più lontano e più in profondità, ma lasciare a noi l’interpretazione di cosa vediamo”3

D’altronde, come sottolineava Carlo Alberto Avizzano, sempre nell’approfondimento “Intelligenza artificiale”, dietro ogni robot c’è sempre l’uomo che lo programma e ne detta regole e limiti. Il robot non è un pericolo autonomo, ma uno strumento che riflette le scelte economiche e politiche della società che lo accoglie4 In definitiva, la sfida non è tra l’uomo e la macchina, ma tra la consapevolezza e la distrazione prodotta dall’hype tecnologico. Douglas Rushkoff, in una sua riflessione pubblicata nel numero “ChatGPT”, invitava a superare il binomio tra panico e ottimismo acritico: “Invece di farci prendere dal panico per le macchine pensanti, dovremmo iniziare a pensare in modo intelligente a quali valori umani vorremmo fossero amplificati dalla tecnologia – e poi iniziare a perseguirli, insieme”5. In questo equilibrio tra

entusiasmo e pragmatismo torna attuale la riflessione di Kathrin Cresswell, pubblicata nel dicembre 2019 sul numero “(R)evolution”, che ci ricorda come la trasformazione digitale non sia un’avventura lineare: “Sono molti i bisogni primari che potrebbero meritare delle risorse, ma questi non ricevono dalla politica gli stessi onori: per esempio in molte realtà del National health service si usano ancora i fax, tuttavia questi non sembrano essere così seducenti come i nuovi robot basati sull’intelligenza artificiale che forniscono assistenza”6

1. Pujari S, Reis A, Zhao Y, et al. Intelligenza artificiale e la salute globale: ottimismo e cautela. Recenti Prog Med 2023;Suppl Forward30;S15-6.

2. Floridi L. Mandare il futuro nella giusta direzione. Recenti Prog Med 2018;Suppl Forward8:S8-S9.

3. Intelligenza artificiale. Recenti Prog Med 2018;109:16-9. Disponibile su: https://forward. recentiprogressi.it/it/convegni/4words-2018/ intelligenza-artificiale/

4. Avizzano CA. Non saranno i robot intelligenti a decidere il nostro futuro. Recenti Prog Med 2018;Suppl Forward8:S15-6.

5. Rushkoff D. AI panic = AI hype. Recenti Prog Med 2023;Suppl Forward30;S14.

6. Cresswell K. Trasformazione digitale: non sarà un’avventura. Recenti Prog Med 2020;Suppl Forward16;S29.

Il futuro della cura: più umani grazie alle macchine

Domani saremo una società più anziana, più fragile, segnata dalla presenza crescente delle malattie croniche. E allo stesso tempo, sempre più rifiuteremo l’idea di essere confinati in reparti sovraffollati, inadatti alla gestione delle molte comorbilità e lontani dalla vita reale. Cercheremo strade nuove per restare nei nostri spazi, nei nostri affetti. La cura digitale sarà una di queste strade.

Luigi De Angelis, medico in formazione specialistica in Igiene e medicina preventiva presso l’Università di Pisa, dove svolge attività di ricerca nell’ambito dell’epidemiologia delle malattie. È presidente e socio fondatore della Società italiana intelligenza artificiale in medicina.

Già oggi, quando un dubbio ci assale nel cuore della notte oppure quando il nostro medico di riferimento è troppo impegnato per rispondere, cerchiamo un riscontro immediato. Lo facciamo affidandoci a strumenti di intelligenza artificiale generativa ormai a portata di mano di chiunque, ma ancora generalisti e inclini, soprattutto in ambito sanitario, a produrre allucinazioni potenzialmente pericolose, spesso mascherate da un tono rassicurante ed empatico. Domani questo cambierà.

Avremo strumenti più adeguati, allineati per essere usati in ambito sanitario, auspicabilmente integrati con il nostro sistema sanitario e capaci di fornire risposte non solo testualmente ma anche tramite l’interazione vocale. Questi strumenti saranno co-creati per fornire risposte quando opportuno e per reindirizzare al professionista sanitario i dubbi o le decisioni che non possono essere gestite in autonomia. Verranno sviluppati sistemi basati sull’intelligenza artificiale che possano essere degli alleati prudenti (e non dei sostituti) e filtri intelligenti che aiuteranno a raccogliere dati rispetto ai sintomi e ai dubbi dei pazienti, offrendo un primo orientamento e preparando il terreno all’incontro con i professionisti. Nel frattempo, quasi senza accorgercene, saremo immersi in una rete silenziosa di monitoraggio remoto. Dispositivi medici supportati da strumenti di intelligenza artificiale ci accompagneranno

nel sonno, nel movimento, nel respiro; analizzeranno segnali deboli, anticiperanno peggioramenti, suggeriranno interventi precoci. Per i pazienti tutto questo diventerà abitudine, con strumenti di intelligenza artificiale integrati in quasi ogni esame diagnostico.

Ad accorgersi di questo cambiamento saranno soprattutto i professionisti sanitari, che si troveranno a collaborare quotidianamente con sistemi di supporto alle decisioni cliniche: non antagonisti né oracoli infallibili, ma preziosi strumenti con i quali imparare ad interagire.

Il ruolo del medico oggi è spesso quello di una mente sovraccarica di conoscenze cliniche in continuo aggiornamento, gravata da incombenze amministrativo-burocratiche che finiscono per offuscare l’ambizione più nobile: avere un impatto reale sulla salute delle persone. Domani questo lavoro sarà chiamato ad evolvere, mantenendo e potenziando l’esercizio dello spirito critico necessario per prendere con responsabilità le decisioni cliniche in collaborazione con l’intelligenza artificiale, ma rimettendo al centro il rapporto di cura con il paziente.

Nonostante il progresso tecnologico, continueremo ad avere bisogno del conforto derivante dalla relazione umana e dall’alleanza terapeutica che può trovare un ulteriore compagno nell’intelligenza artificiale.

Ci rivolgeremo a professionisti sanitari più consapevoli, finalmente sollevati dall’attuale pressione comunicativa e burocratica grazie a sistemi digitali

capaci di intercettare, filtrare e sintetizzare le informazioni che i pazienti affidano all’intelligenza artificiale. Da loro cercheremo chiarezza, supporto, presenza. E sarà proprio questa presenza – fragile, imperfetta, ma profondamente umana – a fare la differenza. Perché, nonostante il progresso tecnologico, continueremo ad avere bisogno del conforto derivante dalla relazione umana e dall’alleanza terapeutica. Alleanza che può trovare un ulteriore compagno nell’intelligenza artificiale, che sicuramente deve essere governata, ma che può rappresentare un’evoluzione senza precedenti nel rapporto di cura. Il futuro della cura digitale non sostituirà l’umano con le macchine, ma userà le macchine per restituire centralità all’umano. Un mondo in cui il tempo sottratto a incombenze che consumano energie e attenzione potrà essere reinvestito nell’incontro tra persone. Un mondo in cui la fragilità sarà accompagnata, non solo osservata.

Il vero domani della cura digitale è un futuro in cui la tecnologia non allontana ma restituisce il tempo, l’attenzione e la vicinanza necessari a prenderci cura gli uni degli altri.

E forse il vero domani della cura digitale è proprio questo: un futuro in cui la tecnologia non ci allontana, ma ci restituisce il tempo, l’attenzione e la vicinanza necessari a prenderci cura gli uni degli altri. Un futuro in cui l’intelligenza artificiale apre la strada per ripensare alla medicina dalle sue fondamenta, cercando di superare i limiti attuali che oggi la allontanano dal suo scopo più autentico.

L'INNOVAZIONE cambia forma

Come l’intelligenza artificiale sta ridefinendo il ruolo dei clinici per costruire una sanità più equa

Come l’intelligenza artificiale cambierà il rapporto con i medici prescrittori?

L’Intelligenza artificiale (Ia) non è destinata a sostituire il medico, ma ad affiancarlo, potenziandone le capacità decisionali. È altamente probabile che la relazione medico/ paziente diventi più fluida: basata su dati, con strumenti di supporto aggiornati e con maggior velocità di risposta. Tutti elementi che contribuiranno a ridurre gli errori e a migliorare l’appropriatezza prescrittiva.

La chiave di volta sarà un’integrazione completa e consapevole. L’Ia dovrà inserirsi senza frizioni nei flussi di lavoro clinici esistenti, dialogando con le cartelle elettroniche per interpretarne il significato e fornire informazioni chiare e facilmente spiegabili. Il medico, dal canto suo, dovrà imparare a utilizzarla correttamente, mantenendo il proprio pensiero critico e la propria esperienza come punti fermi. Solo in questo modo l’Ia sarà percepita come un alleato e non come un vincolo alla libertà di scelta. La fiducia dei medici si consoliderà dimostrando che l’Ia è in grado di far risparmiare tempo, migliorare la qualità delle decisioni e, soprattutto, restituire spazio alla relazione umana con il paziente.

Il ruolo dei medici sarà inoltre amplificato nel processo di “popolazione” dei dati all’interno dei modelli di Ia e nella selezione dei corretti quesiti scientifici, che andranno a formare le future linee guida cliniche.

La crescente privatizzazione della sanità e il maggior controllo dei payers cambieranno il finanziamento dell’innovazione?

Sì, ma si tratterà di un’evoluzione, non di una minaccia. A prescindere dall’area geografica, i payers stanno indirizzando i sistemi sanitari verso un modello di pay-for-value, dove la spesa deve generare un ritorno concreto in termini di esiti clinici. Affrontato con saggezza e rispetto, questo cambiamento può diventare un acceleratore, non un freno, per l’innovazione.

Le aziende farmaceutiche hanno oggi la conoscenza e la motivazione per andare oltre la semplice ricerca di farmaci, creando soluzioni integrate dove la componente terapeutica e quella digitale si fondono in un’unica proposta di valore. L’Ia, in questo contesto, può supportare la generazione di dati real-world solidi,

essenziali per dimostrare l’efficacia e la sostenibilità economica, abilitando al contempo nuovi modelli di partnership con i payers, anche attraverso negoziazioni basate direttamente sugli esiti clinici. In questo scenario, l’innovazione non si arresta, ma cambia forma, diventando misurabile e condivisa.

Affinché l’Ia possa effettuare calcoli previsionali utili alla valutazione, è indispensabile disporre di fonti dati ampie e certificate. Per questo motivo, la condivisione dei dati tra enti privati e pubblici è fondamentale e non può essere limitata da approcci isolati o da una mancata volontà di condividere le informazioni.

Il cambiamento demografico influirà sulla strategia di sviluppo delle aziende?

Senza dubbio. L’invecchiamento della popolazione e l’aumento delle malattie croniche impongono di ripensare il modo in cui vengono progettate terapie e servizi. Le aziende dovranno sviluppare soluzioni che accompagnino il paziente lungo l’intero percorso di cura, con un’attenzione particolare alla semplicità d’uso e all’inclusività.

Formulazioni più flessibili, dispositivi digitali intuitivi e programmi di monitoraggio remoto, supportati dall’Ia, potranno prevenire complicanze e ottimizzare l’aderenza. La sfida è integrare questi elementi fin dalla fase di ricerca e sviluppo, in modo che il farmaco non sia più solo un prodotto, ma parte di un ecosistema terapeutico ideato per garantire una migliore qualità della vita, maggiore autonomia e prossimità delle cure per una popolazione sempre più fragile e connessa.

L’obiettivo non è solo migliorare l’aderenza, ma trasformare la cura in un’esperienza più umana e personalizzata.

Quali servizi a valore aggiunto, supportati dall’Ia, possiamo offrire in ospedale per migliorare l’aderenza terapeutica e gli esiti clinici?

Grazie all’Ia, oggi possiamo immaginare reti ospedaliere e di medicina di base capaci di anticipare i bisogni del paziente, anziché limitarsi a inseguirli. Parliamo di sistemi predittivi in grado di identificare chi è a rischio di interrompere la terapia, reminder intelligenti che si adattano ai comportamenti individuali e caregiver virtuali che spiegano i trattamenti e monitorano i parametri vitali in tempo reale.

L’obiettivo non è solo migliorare l’aderenza, ma trasformare la cura in un’esperienza più umana e personalizzata. Un’Ia ben progettata aiuta i clinici a concentrarsi sui casi più complessi, riducendo le ri-ospedalizzazioni e migliorando gli outcome. Il vero valore aggiunto non è la tecnologia in sé, ma la sua capacità di potenziare l’empatia e l’efficacia del sistema sanitario. Questo sarà reso possibile dall’integrazione e dalla condivisione dei dati tra ospedale e territorio, condizione necessaria per valutare il paziente nella sua totalità come persona.

La trasparenza sarà la chiave della fiducia e la fiducia sarà la chiave per un’innovazione condivisa, che apra la porta a un accesso sostenibile, egualitario e tempestivo.

Quali saranno le aspettative dei pazienti e come dovremo comunicare il valore del farmaco in un contesto di terapia sempre più integrata e digitale?

I pazienti si aspettano, giustamente, semplicità, trasparenza e ascolto. Non cercano più solo un farmaco efficace, ma una soluzione che li accompagni, li informi e li rassicuri. Vogliono trasparenza sull’uso dei loro dati, desiderano essere parte attiva del percorso terapeutico e si fidano delle tecnologie solo se percepiscono un beneficio reale nella vita di tutti i giorni.

Per questo, è fondamentale cambiare il modo di comunicare il valore. Non basterà più parlare di efficacia clinica: dovremo tradurre il valore in storie vere, mostrare evidenze concrete e spiegare con chiarezza come l’Ia e i servizi digitali migliorano l’esperienza di cura. La trasparenza sarà la chiave della fiducia e la fiducia sarà la chiave per un’innovazione condivisa, che apra la porta a un accesso sostenibile, egualitario e tempestivo.

Il medico, con il supporto dell’Ia e degli strumenti digitali, potrà aiutare il paziente a comprendere le corrette aspettative riguardo alla patologia e alle cure, favorendo quindi l’aderenza. In fondo, la trasformazione digitale in sanità è una rivoluzione di linguaggio e di relazione, prima ancora che un semplice avanzamento tecnologico.

L’Ia è già una realtà. Possiamo temerla e subirla, oppure comprenderla e trasformarla in opportunità. Spetta a noi costruire ponti di fiducia tra tecnologia, medici, pazienti e industria. Se sapremo farlo con responsabilità e visione, l’Ia diventerà il motore silenzioso di una sanità più equa, personalizzata e, soprattutto, umana.

Intervista a Nicola Panzeri, responsabile Regulatory Affairs di Roche Italia.

IL FUTURO DEI DATI SANITARI

Tra innovazione digitale e vincoli normativi

Da anni chi lavora con banche dati amministrative sanitarie, registri clinici di patologia o trattamento immagina una sanità in cui i dati non siano solo numeri, ma strumenti concreti per guidare decisioni, pianificare interventi e orientare la ricerca. Un futuro in cui informazioni tempestive, integrate e affidabili permettano di anticipare trend di malattia, allocare risorse in modo mirato e valutare l’efficacia di interventi nelle popolazioni reali. Oggi, grazie alle nuove tecnologie e all’intelligenza artificiale, questo scenario sembra finalmente a portata di mano.

Un esempio concreto è il progetto Darwin EU1 dell’Agenzia europea dei farmaci, che mette a sistema dati real world provenienti da ospedali, registri, cartelle cliniche elettroniche e biobanche di diversi Paesi europei, generando evidenze utili per la ricerca clinica, la sorveglianza dei farmaci e la pianificazione sanitaria. Grazie a processi di estrazione, trasformazione e caricamento dei dati (extract, transform, load), in un formato comune predefinito (common data model), le informazioni vengono armonizzate e rese disponibili su piattaforme comuni, rendendo possibili analisi distribuite su larga scala tra Paesi.

Accanto a Darwin EU, il nascente European health data space mira a creare uno spazio europeo dei dati sanitari interoperabile e sicuro, dove ricerca, sorveglianza e programmazione possano dialogare nel rispetto della protezione dei dati personali. In Italia, tuttavia, nonostante il decreto che istituisce l’Ecosistema dei dati sanitari, il percorso verso un utilizzo pienamente integrato dei dati sanitari rimane complesso. Le diverse interpretazioni della normativa sulla privacy continuano a limitare l’impiego dei dati a fini di salute pubblica. A livello europeo è stato chiarito che, per finalità quali ricerca, innovazione, pianificazione sanitaria e sanità pubblica, la base giuridica non sarà più il consenso individuale, ma l’interesse pubblico. In questo modello, se il cittadino non vuole che i propri dati siano utilizzati per tali scopi può esercitare il diritto di opposizione (opt-out). L’Italia, invece, è ancora in una fase interlocutoria e si interroga su come garantire che l’eventuale dissenso del cittadino sia realmente informato e non semplice effetto di inerzia. Nel frattempo, ricercatori e programmatori sanitari stanno perdendo tempo prezioso e informazioni potenzialmente utili rischiano di non poter essere elaborate e condivise. Eppure, le esperienze recenti mostrano che è possibile trasformare tempestivamente i dati in conoscenza utile nel rispetto della privacy anche in Italia. Durante la pandemia covid-19, la rete di farmacoepidemiologia italiana, grazie all’applicativo “The ShinISS” – uno strumento per analisi distribuite che consente di analizzare centralmente i dati di diverse regioni italiane condividendo dataset analitici pseudoanonimizzati, sviluppato dai ricercatori dell’Istituto superiore di sanità –, ha prodotto in tempi rapidi evidenze preziose sull’appropriatezza d’uso dei farmaci durante una fase così delicata2

Nel nostro Paese esistono competenze e infrastrutture solide, capaci di generare evidenze tempestive e affidabili a supporto delle decisioni di sanità pubblica.

Allo stesso modo, l’Agenzia italiana del farmaco ha sostenuto reti nazionali di farmacoutilizzazione e farmacovigilanza che hanno permesso di analizzare l’impiego dei farmaci in specifiche aree terapeutiche individuando elementi di intervento per migliorare la qualità delle cure3-5. Parallelamente, diversi network di ricerca, attivi in ambiti come l’epidemiologia ambientale, occupazionale e valutativa, con tecniche simili, hanno prodotto dati di grande impatto, fornendo una fotografia chiara dello stato di salute della popolazione nei diversi contesti regionali, monitorando esposizioni e sottopopolazioni critiche e supportando politiche sanitarie più mirate. Tutto ciò conferma che anche nel nostro Paese esistono competenze e infrastrutture solide, capaci di generare evidenze tempestive e affidabili a supporto

delle decisioni di sanità pubblica, attraverso una condivisione dei dati sicura.

L’integrazione dei dati, supportata da metodologie e tecnologie emergenti, potrebbe rivoluzionare la programmazione e la ricerca sanitaria.

Valeria Belleudi, dirigente analista dell’Uosd Epidemiologia del farmaco del Dipartimento di epidemiologia del Ssr Lazio, Asl Roma 1.

L’integrazione dei dati, supportata da metodologie e tecnologie emergenti, potrebbe rivoluzionare la programmazione e la ricerca sanitaria. Database interoperabili che integrino dimensioni sanitarie, ambientali, economiche e sociali, analizzati da professionisti con competenze adeguate, aprirebbero la strada a studi su scala nazionale o europea, con ricadute concrete sulla pratica clinica e sulla salute pubblica. Questo approccio permetterebbe, per esempio, di rafforzare le attività di prevenzione, migliorare la medicina di precisione e rendere più tempestiva ed efficace la farmacovigilanza.

Tuttavia, il futuro non è privo di sfide. L’uso esteso dei dati sanitari solleva questioni delicate: garantire il consenso o il dissenso informato, minimizzare l’esposizione dei dati personali, assicurare trasparenza sui dati utilizzati, sugli algoritmi adottati e sulle finalità. Si tratta di aspetti fondamentali affinché la trasformazione digitale della sanità avvenga in modo etico e responsabile e le evidenze prodotte non risultino distorte. Accanto a queste sfide emergenti, persistono i problemi tradizionali ancora irrisolti. La qualità e la completezza dei dati raccolti rimangono eterogenee tra Regioni e sistemi; molte informazioni rilevanti, come le prestazioni erogate nel settore privato o alcuni percorsi assistenziali specifici (per esempio, nell’ambito della salute mentale o dell’assistenza domiciliare), restano parziali o del tutto assenti. Anche la validità e la standardizzazione delle fonti richiedono investimenti continui, così come la capacità di integrare nuove dimensioni informative oggi poco considerate.

Solo affrontando insieme le questioni etiche, giuridiche e tecniche sarà possibile costruire un ecosistema di dati realmente affidabile e interoperabile. Superando le barriere normative e infrastrutturali, un sistema integrato di dati, sostenuto da regole chiare, governance condivisa e comunicazione trasparente, può supportare una sanità più smart, basata non solo sulla cura, ma sull’anticipazione, la personalizzazione e l’equità, in cui la conoscenza si traduce, in modo rapido ed etico, in salute per tutti.

1. European Medicines Agency [Internet]. Data analysis and real world interrogation network (DARWIN EU). Disponibile su: https://bit.ly/4a1FXdp  [ultimo accesso 29 gennaio 2026].

2. Massari M, Spila Alegiani S, Da Cas R, et al. “The ShinISS”: un applicativo open-source per la conduzione di analisi distribuite in studi di farmacoepidemiologia multi-database Boll Epidemiol Naz 2020;1:39-45.

3. Belleudi V, Fortinguerra F, Poggi FR, et al. The Italian network for monitoring medication use during pregnancy (MoM-Net): experience and perspectives Front Pharmacol 2021;12:699062.

4. Trifirò G, Isgrò V, Ingrasciotta Y, et al. Large-scale postmarketing surveillance of biological drugs for immune-mediated inflammatory diseases through an Italian distributed multi-database healthcare network: the VALORE project. BioDrugs 2021;35:749-64.

5. Belleudi V, Rosa AC, Finocchietti M, et al. An Italian multicentre distributed data research network to study the use, effectiveness and safety of immunosuppressive drugs in transplant patients: framework and perspectives of the CESIT project. Front Pharmacol 2022;13:959267.

Privacy e RICERCA

La stratificazione normativa rischia di ostacolare il progresso scientifico invece di tutelare il paziente

“Privacy e salute: complementarietà e non antagonismo”. Così si apriva l’introduzione, ad opera dell’avvocato Guido Scorza, di un volume del 2022 riguardante la gestione dei dati in sanità. È una frase che ricordo bene, perché mi colpì profondamente: strideva in modo evidente con la percezione diffusa tra noi ricercatori ed operatori sanitari, secondo cui la normativa privacy stava – e sta tuttora – rallentando in maniera significativa il progresso scientifico.

È cambiato qualcosa negli ultimi tre anni?

Temo molto poco. Partiamo dalla norma cardine. Il regolamento generale sulla protezione dei dati (Gdpr) è davvero uno strumento efficace per la tutela dei dati particolari in ambito sanitario? Continuo ad avere seri dubbi al riguardo. Le mie perplessità maggiori, tuttavia, riguardano la scelta tutta italiana di irrigidire ulteriormente il quadro regolatorio attraverso una normativa nazionale – il decreto legislativo 101/2018 – caratterizzata da un’impostazione ancora più complessa, se non apertamente bizantina. Si tratta di un impianto normativo che, nonostante alcune semplificazioni introdotte successivamente, finisce per rendere la gestione dei dati nella ricerca un sistema complessivamente inefficiente, talvolta persino irrazionale. E, mi si consenta, non necessariamente più etico. È davvero una forma di tutela ricontattare, a distanza di anni, i genitori di un bambino guarito – magari da una patologia oncologica – per chiedere l’autorizzazione a riutilizzare dati già correttamente raccolti nel corso del percorso clinico-assistenziale, al solo fine di sviluppare una tesi compilativa? È realmente etico, oltre che operativamente sostenibile, applicare il concetto di “consenso progressivo” alla gestione di campioni biologici, magari “biobancati”? Ed è ragionevole chiedere a medici e ricercatori, già schiacciati da carichi di lavoro sempre più burocratici e sempre meno assistenziali, di “investire” – per usare un eufemismo – una quantità enorme di tempo nella compilazione di moduli e documenti su cui spesso hanno ricevuto una formazione frammentaria, astratta e poco aderente alla realtà operativa?

Ma soprattutto: giochiamo davvero tutti secondo le stesse regole? La risposta, inevitabilmente, è no. La normativa non è chiara, anche perché non esiste una normativa. Esistono il Gdpr, il decreto legislativo 101/2018, i molteplici provvedimenti e le prescrizioni del Garante per la protezione dei dati personali, la normativa specifica sulle sperimentazioni cliniche, l’Ai Act europeo e le sue declinazioni nazionali. Tutti questi strumenti vanno nella stessa direzione? Magari. Un esempio emblematico è rappresentato dalle posizioni – prevedibilmente divergenti – del Tribunale dell’Unione europea (sentenza 26 aprile 2023, causa T-557/20) e del Garante privacy (caso Thin, provvedi-

mento n. 226/2023) in materia di dato pseudonimo e dato anonimo. Se le massime autorità non sono concordi, è facile immaginare la confusione a livello operativo. Provate a riunire quattro data protection officer attorno a un tavolo: con buona probabilità otterrete quattro interpretazioni differenti della stessa disposizione.

La ricerca non può e non deve trasformarsi in un braccio di ferro permanente tra ricercatori, data protection officer, uffici privacy e comitati etici.

La ricerca non può e non deve trasformarsi in un braccio di ferro permanente tra ricercatori, data protection officer, uffici privacy e comitati etici. Questi ultimi, peraltro, sono oggi formalmente investiti del compito di vigilare sul rispetto della normativa in materia di trattamento dei dati personali nella ricerca, pur in assenza – tra le figure minime previste dalla normativa – di uno specifico esperto del settore e senza che esista una reale convergenza interpretativa sui nodi più critici: dall’uso secondario dei dati, alla rinuncia al consenso, fino alle analisi future.

Qualcuno ha mai chiesto ai pazienti se sono davvero d’accordo con questa mastodontica macchina che abbiamo costruito, almeno sulla carta, a loro tutela?

E allora, “liberi tutti”?

Assolutamente no. Chi mi conosce sa quanto io creda nel valore delle regole. Ma le regole devono essere proporzionate, contestualizzate e coerenti con le pe-

Celeste Cagnazzo, responsabile dell’Unità di Ricerca e sviluppo clinico della Struttura complessa Oncoematologia pediatrica, Aou Città della Salute e della Scienza, Presidio ospedaliero infantile Regina Margherita di Torino.

culiarità della materia che intendono disciplinare. Un primo passo potrebbe essere la semplificazione della gestione dei dati nella ricerca osservazionale ed epidemiologica, attraverso l’adozione di una base giuridica diversa dal consenso informato, valorizzando l’interesse pubblico, come già avviene in Spagna. Del resto, è sostanzialmente questo l’approdo cui sono giunti gli Irccs grazie alle Faq del Garante, laddove si afferma che “il trattamento dei dati personali raccolti per l’attività clinica, ai fini di ricerca, non costituisce trattamento ulteriore se effettuato da istituti di ricovero e cura a carattere scientifico, pubblici e privati, in ragione del carattere strumentale dell’attività di assistenza sanitaria svolta da tali istituti”. Piccolo dettaglio: in Italia la ricerca non si svolge solo negli Irccs, ma anche – e spesso soprattutto – al di fuori di essi.

Come scriveva il professor Barberis, “le soluzioni non stanno nella minuziosa regolamentazione della rete, ma in controlli a monte e a valle”. Investiamo allora nella formazione reale degli operatori del settore; insegniamo loro a redigere una valutazione d’impatto della protezione dei dati in modo consapevole e sostanziale, non come mero adempimento formale; pretendiamo trasparenza, chiedendo ai centri di ricerca di pubblicare sui propri siti i progetti svolti e le relative informative sul trattamento dei dati. E, soprattutto, sediamoci tutti intorno a un tavolo. Guardiamoci negli occhi e chiediamoci se questa stratificazione normativa sia davvero necessaria o se non rappresenti, almeno in parte, un esercizio di stile autoreferenziale. Ricordandoci, però, di invitare tutti gli attori coinvolti. Qualcuno ha mai chiesto ai pazienti se sono davvero d’accordo con questa mastodontica macchina che abbiamo costruito, almeno sulla carta, a loro tutela?

IL COSTO AMBIENTALE dell'universo digitale

Guardare oltre l’invisibile per un futuro migliore

Intervista a Giovanna Sissa, fisica di formazione, è professoressa a contratto all’Università di Genova dove insegna sostenibilità ambientale dell’Ict. Esperta indipendente della Commissione europea, è autrice di diverse pubblicazioni e saggi sui temi del rapporto tra Ict e ambiente.

L’universo digitale e l’intelligenza artificiale sono spesso descritti come infrastrutture cosiddette immateriali. Qual è invece, sulla base delle evidenze scientifiche disponibili, il loro impatto ambientale? Quali le principali fonti di inquinamento nascosto di questo settore?

L’universo digitale comprende tre macroinsiemi: i dispositivi di fruizione (smartphone, computer, tablet, internet delle cose), le infrastrutture di telecomunicazione e i data center. Dietro ogni dispositivo digitale si nasconde una filiera produttiva complessa che sfrutta risorse naturali non rinnovabili e responsabile di un importante impronta di carbonio. Questa filiera include più fasi: dall’estrazione delle materie prime alla costruzione e assemblaggio dei componenti fino all’imballaggio e distribuzione e per ultimo lo smaltimento. Ogni fase del processo produttivo richiede un consumo energetico che genera le cosiddette “emissioni incorporate”. Uno smartphone mai usato, rimasto nella sua scatola, per il solo fatto di essere stato prodotto ha già generato una quantità notevole di emissioni di carbonio a causa dei componenti elettronici che racchiude e dei processi di fabbricazione e smaltimento. Anche le apparecchiature che costituiscono le infrastrutture di rete e di elaborazione – Internet e data center – sono responsabili di emissioni incorporate. Alle emissioni incorporate si aggiungono le emissioni operative che derivano dal consumo di energia in ogni fase di utilizzo di ogni prodotto o unità di servizio del mondo digitale. Questo consumo, per esempio, non include solo l’energia elettrica necessaria per caricare il cellulare – consumo che troviamo nella nostra bolletta – ma anche tutta l’energia elettrica richiesta per l’utilizzo di tutti gli apparati relativi al funzionamento di Internet e i data center dove vengono gestiti i servizi digitali che usiamo tramite i nostri dispositivi. I server di solito risiedono in un data center che richiede una notevole quantità di energia sia per funzionare sia per smaltire il calore prodotto. Sono tutti impatti ambientali non noti né visibili all’utente finale che dipendono da molteplici fattori: dalla complessità delle infrastrutture all’efficienza dell’hardware, fino ai sistemi di raffreddamento, oltre alla quantità e complessità delle

richieste da elaborare. L’impatto ambientale in termini di emissioni di gas climalteranti dipende non solo dalla quantità di energia elettrica consumata ma anche dal tipo di fonte utilizzata per produrre l’elettricità: un kilowattora consumato in Svezia, dove predominano le fonti idroelettriche, produce meno di 1/10 delle emissioni di carbonio rispetto allo stesso consumo in Polonia, dove prevalgono le fonti fossili.

È quantificabile il peso dell’universo digitale sulle emissioni globali? Abbiamo delle stime univoche e affidabili?

Misurare l’impronta di carbonio dell’universo digitale non è affatto semplice. Richiede una volontà precisa di consentire questa quantificazione. Se ci riferiamo al 2020, di cui disponiamo stime consolidate, discusse e accettate dalla comunità scientifica, le emissioni globali di gas climalteranti rappresentano il 4 per cento del totale globale. Per un’attività che è considerata dalla maggior parte delle persone come assolutamente immateriale – usiamo termini come “cloud computing” o “virtuale” che ci tengono lontanissimo dalla materialità del pianeta e dal legame fisico con le risorse naturali e il consumo energetico – è una quantità non trascurabile che supera le emissioni di carbonio del trasporto aereo. Se fosse uno Stato, l’universo digitale sarebbe il quarto al mondo per emissioni di carbonio, dopo Cina, Stati Uniti e India. Ora, queste valutazioni globali sono molto difficili da fare, soprattutto perché si dovrebbero basare su dati completi e confrontabili relativi ai tre macro-insiemi che ho citato prima: dispositivi finali, infrastrutture di telecomunicazioni, infrastrutture di elaborazione. Ma per la maggior parte questi dati sono di proprietà di grandi aziende tech, non facilmente accessibili, non di semplice lettura. Comunque, al di là delle differenze di valutazione, dei pesi specifici attribuiti a un sottoinsieme rispetto all’altro, credo che parlare di un 4 per cento delle emissioni di carbonio derivanti dal digitale nel 2020 sia qualcosa di abbastanza consolidato e difficilmente opinabile. Al momento, poi, con l’espansione dell’intelligenza artificiale, questo aspetto è molto più presente di prima ed avrà sempre più peso nel computo globale dell’emissione di gas serra.

Guardando l’altra faccia della medaglia il digitale può aiutare a ridurre le emissioni: pensiamo al covid, con videoconferenze, smart working e riduzione degli spostamenti. Possiamo fare un bilancio tra debiti e guadagni ambientali? L’universo digitale potrà “ripagarli”?

Il bilancio è algebrico: i risparmi ci sono, ma possono essere vanificati da altri impatti negativi se non accompagnati dalla consapevolezza dei nostri comportamenti. Per esempio, risparmiare un viaggio di lavoro aereo – e dunque ad alto impatto di carbonio – non porta benefici se il tempo disponibile viene usato in viaggi di piacere con un mezzo di trasporto impattante. Servono metriche condivise e comprensibili per confrontare impatti positivi e negativi. Nella narrazione sullo sviluppo digitale si è posta l’enfasi sulla necessità di digitalizzare e sui relativi vantaggi ambientali, dimenticando però gli impatti in termini di emissioni di gas serra. Affinché l’utente finale abbia consapevolezza, deve poter accedere a termini di paragone ben definiti. Stabilire e comunicare quanta emissione di carbonio discende da una singola email è molto difficile. Il concetto di fondo che l’utente finale dovrebbe assimilare è che qualsiasi operazione di cloud computing – da un post sui social a una ricerca Google, al bonifico con l’home banking e alla “chiacchierata con ChatGPT” – richiede il transito di dati attraverso le infrastrutture di telecomunicazioni dal nostro dispositivo al server remoto (e ritorno) del servizio richiesto, servizio che per essere erogato richiede elaborazione e dunque energia. Ogni passaggio consuma energia e richiede apparecchiature in continuo aggiornamento, generando emissioni di carbonio. Questo è l’elemento principe da comunicare: le emissioni di carbonio dal mondo digitale – dalla produzione dei dispositivi all’utilizzo del cloud computing – hanno un impatto globale sull’ambiente.

Giustamente lei sottolinea la necessità di una consapevolezza. Ma l’uso dell’Ict e dell’intelligenza artificiale è ormai inevitabile oggigiorno: dalla scuola all’università, dal lavoro ai servizi pubblici. Oltre a consolidare la consapevolezza dell’utente finale non sarebbe prioritario orientare uno sviluppo sostenibile dei dispositivi e delle infrastrutture?

Certamente. Ci sono due livelli di interventi preventivi: quelli dell’utente e quello dello sviluppo tecnologico. Per l’utente, significa usare i dispositivi in modo consapevole: per esempio, non sostituire smartphone o computer prematuramente, evitare app inutili che consumano risorse per ogni aggiornamento, ridurre il carico digitale superfluo. Servizi percepiti come gratuiti hanno costi ambientali nascosti: non paghiamo direttamente, ma contribuiamo con dati e attenzione, risorse che alimentano lo sviluppo tecnologico. Per lo sviluppo tecnologico, invece, esistono margini significativi per il “green computing”: progettare applicazioni e servizi digitali più efficienti, considerare le specifiche non funzionali come il consumo energetico, sviluppare il cloud e le infrastrutture in modo sostenibile. Entrambi i livelli richiedono sia consapevolezza che responsabilità.

L’approccio della Planetary health sottolinea la responsabilità collettiva. Come possono etica, politiche pubbliche e normative orientare lo sviluppo digitale e dell’intelligenza artificiale tenendo conto della salute planetaria?

Abbiamo strumenti che possono guidare uno sviluppo sostenibile. E in questo le normative non andrebbero lette come vincoli, ma come framework di riferimento capaci di ridurre le emissioni di gas serra dell’Ict. Un esempio è il contrasto al greenwashing: una pratica diffusa nella comunicazione aziendale che

presenta come “sostenibili” comportamenti che in realtà non lo sono del tutto, spesso attraverso report poco trasparenti, privi di dati verificabili o affidati a consulenze opache. I report di sostenibilità – i cosiddetti report non finanziari, obbligatori per le aziende di una certa dimensione – sono strumenti importanti sia per i consumatori, sempre più attenti a questi temi, sia per gli investitori interessati a criteri etici. E come tali dovrebbero essere rafforzati, resi chiari e verificabili. In direzione diversa però vanno le modifiche inserite della normativa ambientale comunitaria: il recente decreto Omnibus 1 per la semplificazione, approvato dal Parlamento europeo con una inedita maggioranza, indebolisce gli obblighi sulla divulgazione delle informazioni ambientali contenute nella direttiva Csrd (Corporate sustainability reporting directive) e sulla trasparenza della catena di approvvigionamento della Csddd (Corporate sustainability due diligence directive).

Chiedere alle imprese di rendere conto del proprio impatto ambientale e sociale favorisce invece una competizione sana e consente agli utenti di giudicare consapevolmente.

Un altro esempio, più vicino agli utenti finali, è l’obsolescenza programmata dei dispositivi. La direttiva europea sul diritto alla riparazione ha introdotto un principio nuovo e significativo: i dispositivi digitali non devono essere scatole nere, ma oggetti che, entro certi limiti, possono essere riparati. La normativa contrasta anche l’obsolescenza programmata indotta dal software, mediante artifici come l’interruzione nel rilascio degli aggiornamenti che rende i dispositivi insicuri o inutilizzabili. Limitare queste pratiche mostra come la normativa possa favorire uno sviluppo più sano e duraturo, basato su trasparenza e responsabilità condivisa. Sono ambiti in cui l’Europa può giocare una propria specificità: non solo in termini di forza economica, ma di competenze e intelligenza regolatoria. È qui che questi framework di riferimento trovano il loro senso.

L’IMPRONTA DI CARBONIO DEGLI SMARTPHONE SU SCALA GLOBALE

1% Processo di fine-vita (incluso l'attività di riciclo)

4% Ripristino smartphone esistenti

11% Utilizzo dopo il primo anno

2022

146 milioni di tonnellate di CO2

83% Produzione, trasporto e primo anno di utilizzo

Una quota di emissioni di gas serra del settore Ict è riconducibile ai dispositivi digitali, analizzati lungo l’intero ciclo di vita: dalla produzione all’uso, fino allo smaltimento e al riciclo. Secondo la società di consulenza Deloitte Global, nel 2022 i 4,5 miliardi di smartphone in uso a livello mondiale sono stati responsabili dell’emissione di 146 milioni di tonnellate di CO2. Di queste, ben l’83% deriva dalla produzione, spedizione e utilizzo nel primo anno di vita dei 1,4 miliardi di nuovi dispositivi immessi sul mercato nell’anno di riferimento. In questo scenario, la longevità del dispositivo è un elemento importante per contenere l’impronta di carbonio. I dati globali evidenziano che la vita media d’uso si sta allungando: grazie a una tecnologia più matura, a una nuova consapevolezza ambientale e a una normativa più attenta, l’acquisto di un prodotto di seconda mano o ricondizionato è diventato una scelta di valore, orientata alla sostenibilità. Fonte: Deloitte Global report.

Guardando al futuro, quale cambiamento culturale e formativo è necessario per preparare ricercatori, decisori politici e cittadini a governare questa complessità?

Con l’intelligenza artificiale si aprono possibilità nuove e inesplorate. Serve grande attenzione, responsabilità e conoscenza critica: conoscere limiti e potenzialità delle tecnologie, svilupparle e usarle in modo intelligente. Lo sviluppo non deve essere guidato solo dal mercato o dalla fretta per il timore di rimanere indietro, ma anche dall’impatto ambientale ragionando in termini di emissioni di gas serra che derivano dal consumo energetico. È importante tenere insieme sviluppo e ambiente, senza vederli mai in contrapposizione. Uno sviluppo che contrappone tecnologia e ambiente può avere benefici a breve ma non li avrà a lungo termine. La ricerca e la progettazione devono integrare questi aspetti: è più complesso, ma più sostenibile e lungimirante. È questo, in sintesi, che vorrei dire guardando al futuro prossimo e lontano.

Giovanna Sissa Le emissioni segrete L’impatto ambientale dell’universo digitale Bologna: il Mulino, 2024

Premio nazionale di divulgazione scientifica 2025 Giancarlo Dosi per l’area “Ingegneria e Architettura”.

Fonte: Sellcell statistics.

CHE NE SARÀ DEL NOSTRO CERVELLO?

Il

cognitive offloading e come la tecnologia ridisegna la mente

Sempre più spesso attività che un tempo richiedevano attenzione, memoria, calcolo e ragionamento vengono delegate a dispositivi digitali. In psicologia cognitiva si parla di “cognitive offloading”: lo spostamento all’esterno di parti del lavoro mentale verso supporti tecnologici. Se un tempo erano taccuini e strumenti semplici, oggi sono smartphone, navigatori gps, motori di ricerca e, più recentemente, large language models. È un’espressione della naturale economia cognitiva: quando esiste una scorciatoia affidabile, il cervello tende a minimizzare lo sforzo.

Un esempio emblematico di recente adattamento delle nostre funzioni cognitive è l’effetto Google.

Questa delega si intreccia con il meccanismo della neuroplasticità: il cervello si adatta all’uso che ne facciamo. Circuiti rinforzati dall’esercizio diventano più efficienti, mentre quelli trascurati si indeboliscono. È il cosiddetto principio del “use it or lose it”, una forma di redistribuzione delle risorse in base a ciò che continuiamo a praticare. Fabio Del Missier, professore associato all’Università di Trieste e coordinatore del Laboratorio di memoria e decisione, lo spiega in questi termini: “Le nostre strutture neurali si adattano alle richieste che noi poniamo. In genere si tratta di modifiche che tendono a normalizzarsi con

il passare del tempo. Perché ci siano modificazioni permanenti l’adattamento deve essere costante e protratto nel tempo”. Un esempio emblematico di recente adattamento delle nostre funzioni cognitive è l’effetto Google. La possibilità di cercare una risposta nell’istante stesso in cui nasce una domanda ha trasformato il web in una sorta di memoria esterna. Già nel 2011 uno studio su Science mostrava che, sapendo di poter recuperare facilmente un’informazione online, le persone erano meno inclini a memorizzarla, mentre ricordavano con maggiore precisione dove trovarla1. In pratica, si sposta l’oggetto della memoria: meno contenuto, più strategia. È una differenza rilevante, perché la conoscenza interna non è solo un archivio: è ciò che consente inferenze rapide, controllo critico e riconoscimento di incongruenze.

Anche l’uso dei navigatori gps rappresenta un caso paradigmatico. Alcuni studi mostrano che durante una navigazione passiva si riduce l’attività neurale a livello dell’ippocampo, area cerebrale cruciale per la costruzione di mappe mentali e la memoria spaziale, con un possibile effetto negativo sulla quantità di materia grigia nella struttura e, in termini funzionali, sulla capacità di orientarsi2-4. Il pensiero va subito alla malattia di Alzheimer, patologia che in molti casi causa proprio atrofia ippocampale e difficoltà di orientamento. Usare quotidianamente i navigatori gps può avere un effetto negativo? E al contrario, rinunciare all’uso di questi strumenti, mantenendo attivo il proprio ippocampo, potrebbe avere un effetto protettivo? Apparentemente in linea con questa ipotesi, uno studio osservazionale retrospettivo pubblicato nel 2024 ha individuato

tassi inferiori di mortalità attribuibili alla malattia di Alzheimer tra i tassisti e gli autisti di ambulanze, professioni che richiedono un uso frequente della memoria spaziale e delle capacità di navigazione5

La performance può restare intatta (arriviamo comunque), mentre la strategia può impoverirsi.

Per Del Missier il punto è definire con precisione che cosa intendiamo per effetto negativo: “Un aspetto è la performance: la capacità di arrivare a destinazione. Un altro è la strategia che ci permette di arrivare alla performance”. La performance può restare intatta (arriviamo comunque), mentre la strategia può impoverirsi: alcune ricerche mostrano che chi pianifica e segue un percorso affidandosi alla tecnologia per esempio, tende a ricordare peggio i luoghi incontrati lungo la strada. Effetti simili sono stati dimostrati anche in altri contesti: fare delle fotografie durante una visita museale sembra avere un impatto negativo sulla capacità di ricordare i dettagli degli oggetti osservati6

Anche il ragionamento, poi, potrebbe non essere immune al fenomeno. Con la diffusione dei large language models, sempre più compiti analitici e creativi vengono esternalizzati. L’intelligenza artificiale è in grado di sintetizzare testi, generare ipotesi o risolvere problemi: funzioni utili, ma che potrebbero

indurre una progressiva disabitudine all’elaborazione personale. Uno studio dell’Mit di Boston, pubblicato quest’anno su un database di pre-print (e in seguito criticato da un punto di vista metodologico), mostrava dati che andavano in questa direzione: in un gruppo ridotto di studenti, l’uso di large language models durante la scrittura di saggi aveva facilitato la produzione dei testi, a scapito però dell’attivazione cerebrale, della connettività fronto-parietale e della profondità analitica7,8. “Se un giovane studente si affida sempre a ChatGPT può finire per non sviluppare una sua strategia per fare riassunti. Non sa quali sono i passi che deve fare: leggere il testo, evidenziare gli elementi centrali, capire quali sono i punti concettuali importanti, qual è la loro sequenza. Se la tecnologia non fosse più disponibile potrebbe trovarsi in serie difficoltà, non perché le sue abilità cognitive di base o le sue strutture neurali siano state danneggiate, modificate, ma semplicemente perché non ha sviluppato delle strategie che sono indispensabili per svolgere dei compiti cognitivi complessi”.

Qui entra in gioco il concetto di riserva cognitiva: la capacità del cervello di compensare danni o cambiamenti legati all’età grazie a reti più efficienti e flessibili, costruite nel tempo attraverso esperienze cognitive stimolanti, attività intellettuali, relazioni sociali e allenamento mentale. Sulla possibilità che la delega sistematica ci impedisca di costruirci una riserva cognitiva ricca, esponendoci quindi a un rischio maggiore di decadimento cognitivo precoce, la risposta onesta è però che mancano dati definitivi. “Oggi non abbiamo ancora gli elementi per dare una risposta: non sappiamo se effettivamente l’utilizzo massivo e quasi esclusivo di tecnologie possa portare a lungo termine a un indebolimento delle abilità o delle basi neurali stesse”, spiega Del Missier. “È un’ipotesi che andrebbe testata con studi longitudinali molto prolungati nel tempo. Ci sono però degli elementi di preoccupazione, ovviamente. Io sono più preoccupato dall’aspetto strategico che dell’indebolimento delle capacità, perché è un effetto più immediato. Però non si può escludere che ci siano anche degli effetti a lungo termine sulle abilità di base o le strutture neurali. È una questione aperta che richiede delle risposte empiriche”.

Se demonizzarlo è miope, ignorarlo potrebbe però essere irresponsabile.

I dati attualmente disponibili, inoltre, sono complessi. Una recente meta-analisi ha rilevato che l’uso frequente e attivo di tecnologie digitali si associa a un minor rischio di declino cognitivo, verosimilmente per effetto della varietà di stimoli e della maggiore connessione sociale che questi strumenti possono offrire9. La differenza, ancora una volta, sembra risiedere nell’uso che ne facciamo: passivo o attivo, delegato o integrato. Inoltre, non è detto che gli eventuali effetti negativi o positivi siano gli stessi per tutte le funzioni cognitive e tutti gli strumenti a cui decidiamo di delegare tali funzioni.

Un aspetto centrale è che al giorno d’oggi l’offloading non avviene in un contesto neutrale: si realizza dentro infrastrutture proprietarie e modelli di business che dipendono dalla raccolta di dati e dall’ottimizzazione dei comportamenti. La dipendenza, quindi, non riguarda solo l’abitudine individuale a delegare memoria o ragionamento, ma l’affidamento strutturale a sistemi opachi, governati da incentivi economici che possono entrare in tensione con privacy, autonomia e sicurezza informativa. In questo quadro, i rischi non sono remoti: la possibilità di sorveglianza, manipolazione e orientamento dell’attenzione è incorporata nell’architettura stessa delle piattaforme. “Dovremmo riappropriarci delle tecnologie”, sostiene Del Missier. “È sempre più evidente la necessità di un controllo serio, pubblico, da parte di chi ha il dovere di farlo, con la finalità di supportare le persone e non di controllarle e manipolarle per estrarre valore”.

Il punto è: saremo davvero liberi di scegliere?

Le ipotesi, al momento, sono tutte valide. Alcune tecnologie esistono da troppo poco tempo per studiarne gli effetti a lungo termine. Forse il nostro cervello non si sta degradando, ma si sta semplicemente adattando. La diffidenza verso gli strumenti innovativi ha

World Mental Health Day

accompagnato ogni trasformazione cognitiva nel corso della storia, ma l’essere umano ha sempre saputo integrare nuove tecnologie per estendere le proprie capacità mentali. In quest’ottica il moderno cognitive offloading potrebbe non essere un fattore di rischio ma l’ennesimo cambiamento funzionale frutto dell’interazione tra mente, corpo e ambiente. Se demonizzarlo è miope, ignorarlo potrebbe però essere irresponsabile. Verosimilmente, l’equilibrio tra delega e allenamento sarà cruciale per mantenere una mente efficiente. Il futuro della nostra cognizione potrebbe dipendere da quanto sceglieremo di esercitare attivamente le funzioni che la tecnologia ci consente di sospendere. Il punto è: saremo davvero liberi di scegliere?

Fabio Ambrosino Il Pensiero Scientifico Editore

1. Sparrow B, Liu J, Wegner DM. Google effects on memory: cognitive consequences of having information at our fingertips. Sci 2011;333:776-78.

2. Bohbot VD, Lerch J, Thorndycraft B, et al. Gray matter differences correlate with spontaneous strategies in a human virtual navigation task. J Neurosci 2007;27:10078-83.

3. Howard LR, Javadi AH, Yu Y, et al. The hippocampus and entorhinal cortex encode the path and Euclidean distances to goals during navigation. Curr Biol. 2014;24:1331-40.

4. Dahmani L & Bohbot VD. Habitual use of GPS negatively impacts spatial memory duringself-guided navigation. Sci Rep 2020;10:6310.

5. Patel V, Liu M, Worsham C, Jena A. Alzheimer’s disease mortality among taxi and ambulance drivers: population based cross sectional study. BMJ 2024;387:e082194.

6. Henkel LA. Point-and-shoot memories: The influence of taking photos on memory for a museum tour. Psychol Sci 2014;25:396-402.

7. Kosmyna N, Hauptmann E, Yuan YT, et al. Your brain on ChatGPT: accumulation of cognitive debt when using an AI assistant for essay writing task. arXiv 2025; arXiv:2506.08872.

8. Kovanovic K, Marrone R. Mit researchers say using ChatGPT can rot your brain. The truth is a little more complicated. The Conversation, 23 giugno 2025.

9. Benge JF, Scullin MK. A meta-analysis of technology use and cognitive aging. Nat Hum Behav 2025;9:1405-19.

L'intimità è già "ARTIFICIALE"

Il sociologo Davide Bennato racconta come desiderio, immaginario e corpo si ridefiniscono nell’era delle relazioni sintetiche: dai chatbot e avatar ai metaversi e sexbot. La sfida

non è tecnologica ma culturale.

Intervista a Davide Bennato, insegna sociologia dei media presso il Dipartimento di scienze umanistiche dell’Università di Catania. Si occupa di sociologia digitale, consumo di contenuti online e comportamenti collettivi nelle piattaforme digitali.

Nel suo libro “Amanti sintetici” analizza come il desiderio umano stia attraversando una metamorfosi profonda in un contesto di intelligenza artificiale, simulacri digitali e tecnologie immersive. Quali sono i segnali più evidenti che indicano come l’intimità del “domani” sarà sempre più negoziata tra ciò che è corporeo e ciò che è artificiale?

Per rispondere a questa domanda nella giusta prospettiva bisogna concentrarsi su cosa intendiamo per “artificiale” e quali sono le componenti sociali di una relazione intima. Sociologicamente, artificiale è da intendersi tutto quanto viene costruito in un contesto sociale, quindi sia dal punto di vista artefattuale – oggetti, tecnologie – sia dal punto di vista simbolico – il linguaggio, per esempio.

Mentre dal mio punto di vista, che è fondato sulla riflessione sociologica più recente, possiamo considerare la relazione intima come formata da tre componenti. La prima è il desiderio, ovvero quella componente che spinge alla ricerca dell’altro, la componente teleologica della relazione. La seconda è l’immaginario, la dimensione culturale con cui noi diamo forma ai nostri desideri e che consente di distinguere il sesso (l’atto fisico) dall’erotismo (l’aspetto simbolico). La terza componente è ovviamente il corpo: ciò che realizza la spinta del desiderio mediata dalla costruzione culturale dell’immaginario. Così strutturata, la relazione intima è il risultato di un processo di costruzione sociale. Il desiderio è espressione del modo con cui diventiamo persone, l’immaginario è legato al nostro essere soggetti sociali (scuola, amici, media), il corpo è espressione della nostra appartenenza culturale (genere, educazione, famiglia, classe sociale). In questo senso, la tecnologia digitale può intervenire in ogni aspetto modificandolo. Può intervenire sul desiderio, ovvero su cosa consideriamo spinta delle nostre pulsioni. Può avere effetto sull’immaginario, pensiamo all’erotismo dei sexbot di Sorayama. Può avere conseguenze sul corpo, come nel caso dei sex toy. L’intimità del domani è frutto di un mondo in cui le tecnologie digitali, essendo usate come strumenti relazionali, interrogano noi stessi sui confini dei nostri desideri, della nostra immaginazione, del nostro corpo. Da un lato qualcosa che esiste già, pensiamo per esempio al feticismo, dall’altro è un territorio tutto da comprendere, come il sesso nei metaversi.

L’intimità del domani è frutto di un mondo in cui le tecnologie digitali, usate come strumenti relazionali, interrogano noi stessi sui confini dei nostri desideri, della nostra immaginazione, del nostro corpo.

Fenomeni come fictofilia, virtual influencer, sexbot o relazioni con agenti conversazionali mostrano che attribuiamo valore emotivo a entità non umane. In che misura queste forme di connessione modificano il nostro modo di costruire legami e identità, e cosa ci rivelano sulla dimensione simbolica delle relazioni nella società digitale?

La prima cosa che queste forme di connessione ci dicono è quanto la nostra natura sia profondamente umana. Ovvero, poco importa la consapevolezza che queste entità digitali non esistano nel mondo reale – qualunque cosa voglia dire “reale”: ciò che noi consideriamo reale è l’atteggiamento emotivo (amicale, sentimentale, intimo) che esse esprimono. Una lettura sintomatica di questi comportamenti rivela il fatto che noi siamo già pronti ad interagire con entità sintetiche: se permettiamo a queste entità di accedere alla nostra vita intima, allora possono entrare in ogni ambito della nostra vita relazionale, dalla famiglia al lavoro, fino alle amicizie. C’è una sorta di continuità antropologica fra innamorarsi di una persona attraverso uno scambio di lettere – penso a un topos tipico della letteratura romantica dell’Ottocento – e innamorarsi di un chatbot che esprime un comportamento linguistico emotivamente connotato. Il vero problema sarà come contestualizzare queste interazioni: se nel tempo abbiamo imparato a interagire con gli esseri umani – pensiamo per esempio alla decodifica di un gesto come l’occhiolino – e abbiamo anche imparato a interagire con animali domestici che scodinzolano o fanno le fusa, oggi dobbiamo cominciare a imparare a interagire con entità digitali: è una questione che ci riguarda come società e non come singole persone.

Noi siamo già pronti ad interagire con entità sintetiche: se le stiamo facendo entrare nella nostra vita intima, allora possono entrare in ogni aspetto della nostra vita relazionale.

Nel libro affronta anche zone d’ombra: dall’effetto Eliza alla Uncanny Valley, fino alle forme di violenza simbolica nei mondi virtuali. Guardando al futuro, quali ritiene siano le principali vulnerabilità sociali e culturali che dovremo imparare a riconoscere e gestire in un mondo in cui l’intimità diventa sempre più “co-costruita” con sistemi intelligenti?

Al momento vedo due vulnerabilità chiave che dovrebbero essere affrontate da un dibattito pubblico e condiviso. La prima è la resistenza

culturale, ovvero creare una forma di accettazione sociale nei confronti di coloro i quali decidono consapevolmente di costruire legami emotivi con entità sintetiche, siano esse chatbot interattive o sexbot. Ogni volta che la tecnologia è entrata nelle relazioni affettive, c’è sempre stata una forma di ostilità culturale, figlia del pregiudizio della presunta naturalità dei rapporti sessuali considerati normali. La cinematografia ci ha aiutato molto a percepire questa condizione. David Cronenberg con “Videodrome” ha ricordato le conseguenze della pornografia televisiva, Nora Ephron con “C’è posta per te” ci ha raccontato la possibilità di innamorarsi attraverso uno scambio di e-mail, mentre Spike Jonze con “Her” ha mostrato la plausibilità di una relazione con un sistema operativo senziente. Il problema rimane lo stesso: c’è bisogno di una riflessione collettiva per affrontare i cambiamenti relazionali, e l’affettività in questo non è diversa da altre componenti. La seconda vulnerabilità è la riflessione sul concetto di consenso. Il sesso è un’attività consensuale, altrimenti alcune forme potrebbero essere di difficile interpretazione, pensiamo alle relazioni sadomaso. Il problema adesso si pone su nuove forme di consenso: come interpretare una relazione sessuale all’interno di un metaverso fra avatar che sono animati da persone reali? Come reagire quando una società commerciale cancella un profilo di un chatbot facendo sì che le persone che si erano affidate ad esso emotivamente si trovano di colpo a non avere più l’oggetto dei propri sentimenti? Le questioni sono complesse e delicate, c’è bisogno di una riflessione collettiva.

C’è bisogno di una riflessione collettiva per affrontare i cambiamenti relazionali, e l’affettività in questo non è diversa da altre componenti.

Molti osservatori parlano di una nuova antropologia emotiva: un’umanità aumentata che esplora il desiderio attraverso avatar, metaversi e intelligenze artificiali. Quali competenze –individuali e collettive – ritiene fondamentali per orientarsi in questo scenario e per immaginare forme di relazione che restino autenticamente umane pur dialogando con il digitale?

Secondo me servono essenzialmente tre cose sia a livello individuale che collettivo: ascolto, confronto e cultura. L’ascolto serve per comprendere ciò che spinge qualcuno a costruire un qualsiasi legame con queste entità, le risposte a questa domanda non sono mai semplici. Il confronto serve per mettere in relazione i propri valori: si può tranquillamente avere delle idee incrollabili su cosa debba considerarsi una relazione affettiva senza necessariamente pensare che sia l’unica interpretazione possibile. Ognuno ha le proprie idee su cosa sia una relazione, e questa diversità non solo è auspicabile ma è anche necessaria. La cultura serve per mettere nella giusta prospettiva le incrollabili certezze che ognuno di noi ha sul mondo, ma bisognerebbe averle sapendo che esistono mondi sociali altri per cui quello che è certezza per qualcuno è questionabile per qualcun altro. Bisogna ricordare il monologo finale di Spencer Tracy in “Indovina chi viene a cena”: “Non importa un corno quello che ne pensiamo, la sola cosa che conta è ciò che loro sentono, e quanto sentono. Ed anche se è la metà di quello che sentivamo noi, è già tutto”.

Davide Bennato Amanti sintetici

Sesso, relazioni e intimità nell’epoca dell’intelligenza artificiale

Roma: Il Pensiero Scientifico Editore, 2025

Spoiler: a qualcuno potrebbe sembrare che l’avversario sia la tecnologia. La rete come determinante di cattiva informazione. L’intelligenza artificiale come strumento per alimentare frodi e falsificazioni in un publishing scientifico attraversato da venti di tempesta. In realtà, sia dietro i contenuti più o meno tossici che corrono online, sia dietro la tastiera di chi usa i large language model per creare contenuti fraudolenti ci siamo noi umani. Serve ottimismo: quello di chi vede e dà valore all’impegno diffuso per costruire progetti di qualità, fatti di forma e contenuti pensati e realizzati nell’interesse dei lettori. Una prospettiva in cui vogliamo riconoscerci.

INFLUENZE PERVERSE: come algoritmi e incentivi stanno ridefinendo la salute moderna

Intervista a Deborah Cohen, medica di formazione, giornalista investigativa e conduttrice radiotelevisiva. Ha fondato e diretto la BMJ Investigative unit. Parteciperà come relatrice a 4words26.

Dalla sua indagine, quali caratteristiche strutturali di Internet hanno rimodellato più radicalmente il modo in cui i cittadini intendono e gestiscono la propria salute? Perché questi cambiamenti sono avvenuti così rapidamente e profondamente?

Molte cose sono accadute simultaneamente con la pandemia di covid-19, che ha costretto le persone online durante i lockdown. Nel Regno Unito, abbiamo affrontato anche i problemi del nostro servizio sanitario nazionale, il National health service, dove le persone continuano a fare fatica a ottenere appuntamenti, portando a una mancanza di fiducia nel sistema.

Su Internet sono emerse nuove piattaforme dove le persone non sono solo consumatori di informazioni, ma anche creatori. Questo fenomeno è noto come “effetto prosumer”. Vari fattori contribuiscono a questi cambiamenti, insieme agli algoritmi. Nel primo capitolo del mio libro, mi riferisco a questo come alla “convergenza del cambiamento”, evidenziando il complesso mix di fattori in gioco. Siamo andati oltre i pochi fornitori di contenuti del passato; ora ci sono numerosi canali che competono per guadagnare la nostra attenzione, tra cui TikTok, Instagram, Facebook, YouTube e vari podcast.

Queste piattaforme hanno sviluppato nuove modalità di relazione con il loro pubblico. Come ho menzionato, l’“effetto prosumer” significa che interagiscono con i propri utenti per capire cosa ha un’eco e aumenta la loro portata, influenzando così i contenuti che producono.

Sono emerse nuove piattaforme dove le persone non sono solo consumatori di informazioni, ma anche creatori. Questo fenomeno è noto come “effetto prosumer”.

In “Bad Influence”, lei descrive un ecosistema in cui incentivi commerciali, algoritmi opachi e il design delle piattaforme possono distorcere le decisioni di salute pubblica. Quali meccanismi considera oggi più dannosi?

Questo ecosistema può distorcere le decisioni sulla salute pubblica. Fattori come la natura oscura degli algoritmi e le potenziali “echo chambers” (casse di risonanza), combinati con spazi pubblicitari scarsamente regolamentati, amplificano il problema. Per esempio, in Europa, sebbene il divieto di pubblicità diretta ai consumatori per i farmaci soggetti a prescrizione rimanga intatto, la sua applicazione nella sfera online è sotto esame. La ricerca su questo tema si è concentrata principalmente sui media tradizionali negli Stati Uniti, lasciandoci incerti sulle implicazioni per i social media.

I social media presentano le informazioni in vari modi, e c’è anche l’influenza del rapporto con i creatori di contenuti, noto come “relazioni parasociali”. Le piattaforme hanno il potere di entrare in azione quando necessario. Per esempio, durante la minaccia di una messa al bando di TikTok negli Stati Uniti, hanno rimosso contenuti dannosi sulla perdita di peso. Allo stesso modo, quando l’amministrazione Trump ha preso il potere, le informazioni sull’aborto sulle piattaforme Meta sono state colpite dal “shadow banning”. Recentemente si è discusso della necessità che le piattaforme si assumano maggiori responsabilità, simili a quelle degli editori: se godono di libertà di parola, dovrebbero anche affrontare le conseguenze della disinformazione.

Se le piattaforme godono di libertà di parola, dovrebbero anche affrontare le conseguenze della disinformazione.

In un’epoca in cui l’algoritmo di TikTok può avere più peso del parere di un medico di base, la giornalista investigativa Deborah Cohen apre lo sportellino del nostro armadietto dei medicinali digitale. Nel suo libro “Bad Influence”, Cohen esplora quella che ha definito la “convergenza del cambiamento”: una tempesta perfetta in cui la crisi del servizio sanitario britannico e l’isolamento provocato dalla pandemia hanno favorito l’ascesa del “prosumer”. In questa intervista, Cohen analizza come le caratteristiche strutturali di Internet abbiano fatto molto più che condividere informazioni; hanno radicalmente trasformato il modo in cui gestiamo il nostro corpo. Abbiamo parlato del cosiddetto effetto prosumer, vale a dire il passaggio del pubblico da consumatore passivo a creatore attivo di contenuti; della prescrizione parasociale, del perché ci fidiamo più degli influencer che delle istituzioni; del potere opaco degli algoritmi e degli incentivi commerciali nel distorcere le decisioni sulla salute; infine, della via da seguire verso un cambiamento: se la vigilanza normativa e la trasparenza professionale possano ricostruire il senso di fiducia pubblica andato in frantumi.

Dato che Internet è qui per restare, quali cambiamenti realistici – nelle politiche, nella governance delle piattaforme, nella comunicazione professionale o nell’impegno pubblico –potrebbero aiutare a contrastare la disinformazione e a ricostruire la fiducia nella medicina basata sulle evidenze?

I professionisti devono comunicare in modo più efficace, anche se è da vedere se siano loro le persone giuste per stare su queste piattaforme. Alcuni professionisti della salute in questo sono molto capaci, spesso supportati da forti team di pubbliche relazioni (Pr). Ironia della sorte, poco prima di questa nostra conversazione, una nota dottoressa britannica che prescrive terapie ormonali sostitutive faceva contattare giornalisti nei forum dai suoi Pr, rendendo del tutto chiaro come chi ha strategie raffinate di pubbliche relazioni tenda a guadagnare maggiore attenzione.

C’è un urgente bisogno di maggiore supervisione normativa e di maggiore trasparenza, specialmente riguardo agli algoritmi.

Guardando al futuro, vede tendenze emergenti (tecnologiche, normative o culturali) che abbiano il potenziale di reindirizzare l’informazione sanitaria digitale verso una maggiore trasparenza, responsabilità ed empowerment del paziente?

C’è un urgente bisogno di maggiore supervisione normativa e di maggiore trasparenza, specialmente riguardo agli algoritmi. C’è anche una richiesta di condivisione dei dati su questi algoritmi, in modo da poterne comprendere appieno l’impatto. Studiare l’effetto dei post sui social media sul comportamento, in mezzo a un mare di altre informazioni, è impegnativo. Sarebbe fondamentale avviare nuove ricerche per comprendere davvero le ramificazioni di queste problematiche.

Deborah Cohen Bad Influence How the Internet hijacked our health London: Oneworld Publications, 2026

IL FUTURO È NELL’EDITORIA INDIPENDENTE.

E NELLA COMUNITÀ

Stefano Cipolla, art director de L’Espresso e fondatore di Grafica, racconta con ottimismo controcorrente il futuro delle riviste culturali. Mentre l’editoria mainstream fatica, quella indipendente fiorisce costruendo comunità fedeli attorno a contenuti di qualità. Dall’eredità di grandi grafici come Noorda e Huber alla sfida dell’intelligenza artificiale, Cipolla riflette sul ruolo delle immagini, sulla fiducia tra committente e designer, e su come la leggibilità resti l’arma vincente contro la tentazione di una grafica non rispettosa delle esigenze del lettore.

Come vede il domani delle riviste culturali?

Vado controcorrente: sono estremamente ottimista di natura, ma cerco anche di dare dei dati. L’editoria mainstream generalista non se la passa benissimo, ma provo a ripercorrere la mia storia professionale. Quando sono arrivato a Repubblica nel 2004 dopo un’esperienza al manifesto, mi sono innamorato dei giornali. Repubblica vendeva 600.000 copie e aveva 500 giornalisti, ma oggi i numeri sono diversi. Quella che invece sta avendo un grandissimo successo è l’editoria indipendente: un tipo di editoria che ha un target verticale. Esistono riviste di qualsiasi tipo, anche meravigliose, sugli archivi, sul food and wine. Periodici che hanno un target specifico che non è ampio come il target mainstream, ma che comunque assicura interesse e diffusione. Secondo me il futuro è nell’editoria indipendente, dove ci sono eccellenze come per esempio L’integrale, una rivista di food con firme provenienti dal mondo letterario. Penso anche a The Passenger e a molte altre.

Quella che sta avendo un grandissimo successo è l’editoria indipendente: un tipo di editoria che ha un target verticale.

E attraverso l’editoria indipendente si può fare anche cultura, festival per esempio. Per i giornali, l’importante è costruire una comunità ed è quello che era riuscito benissimo a Ezio Mauro intorno agli anni dieci del 2000 quando realizzò “la Repubblica delle idee” a Bologna: un grande incontro di tutti i lettori con le firme del giornale, un successo incredibile. Sta accadendo ancora con realtà come Il Post di Luca Sofri, che – nonostante si mettano un po’ in cattedra “spiegando le notizie” – ha ormai una grandissima comunità. Quando sono stato invitato al festival che fanno in Toscana in un piccolo paesino, a Peccioli, mi chiedevo: “Vabbè, chi mai andrà a Peccioli?”. Invece: una marea di gente che in maniera quasi liturgica era venuta ad ascoltare Francesco Costa, Luca Sofri, Stefano Nazzi. Un altro caso incredibile è quello di Internazionale: per il loro festival, Ferrara si riempie di gente ma la grande intuizione è stata quella di presentare gli articoli tradotti. Ragione vorrebbe che nel 2026 chiunque, bene o male, potrebbe leggere in rete gli articoli in inglese. Di nuovo, pensavo: “Questo giornale va a morire”. E invece no, perché hanno raggiunto una fidelizzazione tale per cui io lettore – piuttosto che passare un’ora a cercarmi l’articolo online – sono contento che loro lo selezionino per me. È così che si riesce a creare la comunità. L’editoria indipendente sta riuscendo a farlo.

Per i giornali, l’importante è costruire una comunità.

Intervista a Stefano Cipolla, Art director, L’Espresso

Ha citato esempi come Il Post e Internazionale che hanno fidelizzato i propri lettori quasi sottolineando il primato del contenuto sulla forma. Internazionale ha un’attenzione costante alle immagini fotografiche. Ma non sembrano due progetti particolarmente condizionati dalla tentazione di inseguire lettori spesso distratti e assorbiti dalla fruizione dei contenuti in rete. In generale, però, quanto le riviste oggi sono condizionate dalla concorrenza dello smartphone? È cambiato il mestiere del grafico?

A me piace pensare che questo tipo di giornali che danno importanza ai contenuti più che alla forma abbiano ancora un tipo di grafica non tradizionale, assolutamente contemporanea e comunque leggibile. Ecco: la grande differenza è con una grafica che segue le mode e finisce col risultare poco leggibile. Per far apprezzare i contenuti è necessaria una leggibilità alta. Insomma, sono più vicino alla tradizione della grafica editoriale italiana: pensiamo che il progetto grafico di Internazionale lo creò Giovanni Lussu, figlio di Emilio, e questo dà l’idea di quanto possa essere importante un approccio “culturale” alla comunicazione visiva.

La disponibilità di software per impaginare i contenuti sui social come Instagram ha reso tutti “designer inconsapevoli”, come dice Silvio Lorusso. Credo che il contenuto non possa prescindere dalla forma e mi sembra che il trend di una grafica molto aggressiva che imita il web stia fortunatamente un po’ scemando.

Parliamo di immagini: possono giocare un ruolo anche autonomo rispetto ai contenuti testuali?

Consideriamo che nei giornali i grafici sono anche giornalisti professionisti e questo già ti dice quanta attenzione ci sia per il contenuto. Ci sono dei testi che vengono capiti o percepiti meglio se accompagnati dalle immagini. Torno a citare Ezio Mauro, grande direttore che aveva un grandissimo rispetto per la grafica. Il grafico che aveva portato a Repubblica dalla Stampa, Angelo Rinaldi, fu nominato vicedirettore del giornale, coinvolto quindi nella definizione della gerarchia della comunicazione. Negli anni, le immagini si sono evolute, alla fotografia si è aggiunta l’illustrazione e penso a grandissimi illustratori americani come John Alcorn o Milton Glaser. Non è un caso che entrambi abbiano studiato e vissuto in Italia per molto tempo.

Quanta fiducia deve esserci tra committente – la direzione editoriale – e il grafico?

È fondamentale. Ti puoi spingere a utilizzare certe immagini solo se hai la fiducia del direttore. Prendo a esempio il lavoro di un grande grafico come Bob Noorda che non avrebbe mai potuto fare i lavori che ha fatto se non avesse avuto una relazione diretta e fiduciaria con personaggi come Piero Bassetti, presidente della Regione Lombardia nei primi anni Settanta. Quegli anni erano quelli appena successivi al boom economico e il progetto del marchio per la Regione Lombardia fu contemporaneo alla concezione della segnaletica per la metropolitana di Milano, che poi verrà ripresa da Vignelli per la subway di New York. Queste grandi commesse nascono solo da un rapporto profondo di fiducia tra committente e art director.

Ha da poco avviato Grafica, un bellissimo magazine dedicato proprio al design editoriale e non solo. È un giocattolo col quale divertirsi?

Forse sì, ma poi è diventata qualcos’altro. Grafici come Bob Noorda o Max Huber – che abbiamo celebrato in un numero con un servizio dedicato alla genesi dei marchi industriali – hanno fatto la storia, e per me è importante poter raccontare queste cose. Come anche il lavoro di un fotografo – Nicola Sacco – che ha “ritratto” San Donato Milanese, una cittadina dell’hinterland voluta da Enrico Mattei che creò questa città per i dipendenti Eni. Anche questa è una storia incredibile di “culture visive”, da raccontare.

La cosa bella di avere una certa età è di conoscere molte persone che puoi coinvolgere per costruire qualcosa di condiviso, e di bello.

E anche la relazione tra intelligenza artificiale e grafica è un tema da raccontare…

L’illustrazione diventa concettuale: laddove non hai un documento fotografico da mostrare, ricorri all’illustrazione e in questo modo si aiuta la lettura. Per poi arrivare all’infografica, altra “immagine” di supporto alla comprensione del contenuto, introdotta sul finire del secolo scorso. Tornando alla domanda, penso che il lavoro del grafico editoriale sia proprio questo: bilanciare testi con immagini.

Penso che il lavoro del grafico editoriale sia proprio questo: bilanciare testi con immagini.

Sì, abbiamo dedicato il numero 5 proprio a questo argomento. Abbiamo ascoltato un illustratore che ha fondato la Società europea per la tutela dei diritti degli illustratori e ho chiesto a Riccardo Falcinelli di preparare l’editoriale del numero. Abbiamo così avuto conferma che l’intelligenza artificiale è proprio un problema che ci coinvolge tutti. È stato divertente, anche, pensare alla copertina. L’ho fatta fare in un laboratorio di tipografia mobile perché è quanto di più analogico: sono state create due lettere fatte con i caratteri mobili e, sopra, le loro impronte digitali.

È un lavoro fotografico molto simile all’approccio di Matteo De Maida, fotografo molto bravo. Sua mamma – che oggi non c’è più – faceva le pulizie nei palazzi. Lui è andato su tutti i luoghi dove la mamma lavorava e, in questo modo, fotografava la memoria.

La cosa bella di avere una certa età è di conoscere molte persone che puoi coinvolgere per costruire qualcosa di condiviso, e di bello.

Il domani dell’editoria scientifica: MENO METRICHE, PIÙ VERITÀ

Attivista di punta nell’impegno per l’integrità della ricerca e l’open science, Lonni Besançon indaga cosa significhi davvero il “domani” per la scienza: metriche e valutazione della qualità, potere e limiti dei social media, rischi personali dell’esporsi in pubblico, ma anche strategie concrete per cambiare dall’interno un sistema che premia visibilità e impatto più della solidità delle evidenze.

L’editoria scientifica è un settore estremamente ricco e produttivo. Ma molti sostengono che sia in crisi. A chi dovremmo credere?

In un certo senso, a entrambi. L’editoria scientifica produce ogni anno una quantità straordinaria di conoscenze, molte delle quali essenziali per la medicina, la tecnologia e la salute pubblica. Ma il sistema che circonda tali conoscenze – i suoi incentivi, la sua economia, i suoi meccanismi di correzione – è innegabilmente in crisi. L’ho detto spesso: il problema non è che la scienza non funzioni più, ma che abbiamo ottimizzato il settore editoriale in termini di velocità, volume e indicatori di performance piuttosto che di affidabilità. In un certo senso ci siamo concentrati molto sull’editoria, rendendola un settore redditizio per i pochi editori che ne traggono milioni di dollari, piuttosto che concentrarci sulla produzione continua di conoscenze solide. Quello che sto dicendo non è che il metodo scientifico sia problematico, poiché ci ha portato la maggior parte delle tecnologie e degli interventi salvavita di cui disponiamo oggi (vaccini, vaccini a mRna, farmaci, internet, Crispr, ecc.), ma piuttosto lo è il modo in cui lo comunichiamo. E questo è dovuto principalmente al modo in cui vengono valutati i ricercatori e gli scienziati: solo in base alle loro pubblicazioni. Abbiamo esposto chiaramente questo problema in un articolo su PLoS Biology intitolato “Correction of scientific literature: too little, too late!”1. Quando un sistema permette che articoli problematici rimangano non corretti per anni, anche dopo che sono state documentate delle expression of concern, la conclusione è inevitabile: il processo di pubblicazione premia la produttività più della verità. Non si tratta di una crisi del pensiero scientifico, ma di una crisi dell’editoria scientifica.

Il problema è che abbiamo ottimizzato il settore editoriale in termini di velocità, volume e indicatori di performance piuttosto che di affidabilità.

Negli ultimi decenni, l’editoria scientifica ha subito una trasformazione: il web, l’accesso aperto, nuovi modelli di pubblicazione e metriche bibliografiche. Quale impatto hanno avuto queste innovazioni sulla comunicazione della ricerca?

L’impatto è stato enorme, a volte in meglio, a volte in peggio. L’accesso aperto e le pre-pubblicazioni hanno democratizzato la conoscenza in modi che vent’anni fa non potevamo immaginare. Durante la pandemia di covid-19, questi strumenti sono stati essenziali. Senza una diffusione rapida e aperta dei dati e dei metodi, avremmo perso tempo prezioso. Nel nostro articolo “Open science saves lives”2, abbiamo

dimostrato come una comunicazione trasparente e rapida abbia migliorato direttamente, in alcuni casi, l’affidabilità della ricerca durante la pandemia. In altri casi, abbiamo dimostrato che la mancanza di trasparenza ha effettivamente danneggiato sia la fiducia nelle iniziative scientifiche, sia direttamente la salute pubblica.

Ma gli stessi strumenti che rendono la scienza più veloce la rendono anche più facile da manipolare. L’ossessione per le metriche – fattori di impatto, indici h, conteggi delle citazioni – ha creato una cultura in cui i ricercatori sono ricompensati più per la visibilità che per il rigore. In alcuni casi, ciò ha portato a forme creative di manipolazione. Il nostro lavoro sulle “citazioni nascoste”3 ne è un buon esempio: i direttori delle riviste hanno manipolato solo i metadati degli articoli che hanno accettato di pubblicare in modo da gonfiare le citazioni, lasciando però invariato il pdf originale per evitare di essere scoperti. Questo comportamento non emerge spontaneamente, ma perché le istituzioni giudicano gli scienziati contando ciò che è facile da contare, che in questo caso sono le citazioni.

In altri casi, anche ciò che nasce da intenzioni giuste ha avuto conseguenze drammatiche. Per esempio, l’idea di passare all’open access (tutti gli articoli di ricerca dovrebbero essere disponibili gratuitamente) è ottima e costituisce la condizione sine qua non per rendere utilizzabili i risultati della ricerca. Tuttavia, questo movimento è stato sfruttato da quelli che oggi vengono chiamati “editori predatori” per creare molte riviste “ad accesso libero” in cui gli autori pagano solo per far pubblicare i loro articoli senza alcuna forma di revisione tra pari.

Quindi queste innovazioni hanno trasformato la comunicazione della ricerca, sì. L’hanno resa più veloce e più aperta, ma anche più fragile, più esposta alla manipolazione e talvolta più distante dallo scopo fondamentale della pubblicazione scientifica: comunicare conoscenze affidabili.

Intervista a Lonni Besançon, assistant professor presso la Linköping university (Svezia), specialista in visualizzazione di dati e interazione per l’analisi statistica. Noto per il suo lavoro di “investigazione” sui risultati della ricerca durante il covid-19, promuove attivamente la trasparenza metodologica e la revisione critica postpubblicazione.

La vera sorpresa, forse, non è che oggi stiamo scoprendo più frodi, ma piuttosto che per decenni ne siano emerse così poche.

Il suo è un lavoro unico, che potremmo definire “investigatore di pratiche scorrette nella comunicazione scientifica”. Si parla sempre più spesso di frodi, manipolazioni e comportamenti scorretti: si tratta davvero di un fenomeno in crescita o è solo dovuto a una maggiore vigilanza?

Direi che è entrambe le cose. Alcune forme di comportamento scorretto, in particolare le frodi industrializzate come le fabbriche di articoli scientifici, sono aumentate notevolmente. E alcuni comportamenti, come la manipolazione delle immagini o la revisione tra pari fasulla, sono semplicemente diventati più facili con la tecnologia moderna. Quando si esercita un’enorme pressione sui ricercatori affinché pubblichino e si combina questo con una supervisione editoriale debole, inesistente o addirittura fraudolenta, è quasi inevitabile che alcuni prendano scorciatoie o affidino la stesura dei loro articoli a società che non si interessano affatto alla scienza.

Ma parte dell’aumento è anche dovuto al fatto che finalmente stiamo osservando quello che accade. Ora abbiamo piattaforme come PubPeer, Retraction Watch e strumenti come il Problematic paper screener4. È emersa una comunità globale di investigatori indipendenti (per esempio: Elisabeth Bik, Guillaume Cabanac, Dorothy Bishop, Jennifer Byrne) per indagare su casi che le riviste non hanno mai notato o hanno preferito non affrontare. Nel nostro lavoro sul caso “IHU de Marseille” del Centro di malattie infettive dell’Università di Aix-Marseille5 e sulla manipolazione o il riutilizzo delle approvazioni etiche, lo schema è sempre lo stesso: una volta che si inizia a esaminare attentamente la letteratura, si scoprono problemi che esistono da anni. Nel caso “IHU de Marseille”, si potrebbe risalire fino a trent’anni fa6 La vera sorpresa, forse, non è che oggi stiamo scoprendo più frodi, ma piuttosto che per decenni ne siano emerse così poche.

Non stiamo ritirando troppi articoli. Ne stiamo ritirando troppo pochi, e spesso troppo lentamente.

Il fenomeno delle ritrattazioni è tra i più discussi: qual è la sua opinione al riguardo? Dobbiamo preoccuparci o è una conseguenza naturale di una scienza che si controlla e si corregge da sola?

Le ritrattazioni di per sé non sono il problema. Anzi, sono un segno che il meccanismo di autocorrezione della scienza funziona. Non dovremmo stigmatizzare le ritrattazioni per errori commessi in buona fede. Un articolo imperfetto non si-

gnifica che lo scienziato sia imperfetto. Chiunque lavori su problemi difficili per un periodo di tempo sufficientemente lungo finirà per commettere errori, ed è meglio correggere i dati piuttosto che lasciare che dati errati rimangano nella letteratura scientifica.

Ciò che dovrebbe preoccuparci è la lentezza e l’incoerenza del processo di ritrattazione. Molti articoli problematici vengono lasciati circolare per anni. Alcuni influenzano la politica o la pratica clinica molto tempo dopo che sono state sollevate delle preoccupazioni. Nell’articolo di PLoS Biology che ho citato prima, abbiamo documentato quanto questo sia comune. Quando un articolo imperfetto impiega cinque o dieci anni per essere corretto, non si tratta di “autocorrezione”, ma di inerzia istituzionale.

Eppure, nonostante la recente esplosione di ritrattazioni – più di 10.000 solo nel 2023, come riportato da Nature7 – queste rappresentano una piccola parte della letteratura. Non stiamo ritirando troppi articoli. Ne stiamo ritirando troppo pochi, e spesso troppo lentamente. Quindi sì, le ritrattazioni sono una parte naturale di un ecosistema scientifico sano, ma solo se avvengono in modo tempestivo, trasparente e senza stigma. Al momento, troppe ritrattazioni avvengono solo dopo pressioni esterne e solo in casi gravi di frode, mentre troppi articoli problematici rimangono intatti. La scienza non soffre perché ritiriamo gli articoli, ma perché esitiamo a farlo. Come abbiamo affermato nel nostro commento su PLoS Biology, considerare il ritiro degli articoli come un fallimento è una profezia che si autoavvera; dovremmo invece considerarlo una parte normale del processo scientifico e assicurarci che non avvenga solo in casi straordinari di frode.

1. Besançon L, Bik E, Heathers J, Meyerowitz-Katz G. Correction of scientific literature: too little, too late! PLoS Biol 2022;20:e3001572.

2. Besançon L, Peiffer-Smadja N, Segalas C, et al. Open science saves lives: lessons from the covid-19 pandemic. BMC Med Res Methodol 2021;21:117.

3. Besançon L, Cabanac G, Labbé C, Magazinov A. Sneaked references: fabricated reference metadata distort citation counts. J Assoc Inf Sci Technol 2024;75:1368-79.

4. www.irit.fr/~Guillaume.Cabanac/problematic-paper-screener/

5. Frank F, Florens N, Meyerowitz-Katz G, et al. Raising concerns on questionable ethics approvals–a case study of 456 trials from the Institut Hospitalo-Universitaire Méditerranée Infection. Res Integr Peer Rev 2023;8:9.

6. O’Grady C. The reckoning. Science 2024;383:1046-51.

7. Van Noorden R. More than 10,000 research papers were retracted in 2023. A new record. Nature, 12 dicembre 2023.

Il grafico mostra l’andamento, negli ultimi quindici anni, del numero di pubblicazioni ritirate e degli avvisi di ritrattazione. Questi ultimi sono documenti ufficiali pubblicati dalle riviste per annunciare e spiegare il ritiro di un articolo. Gli articoli retracted vengono formalmente rimossi dopo la pubblicazione, ma restano visibili e indicizzati, accompagnati dall’etichetta “retracted”. Dati aggiornati al 31 agosto 2025. Modificato da: Zhou Z, et al. arXiv:2511.21176

Articoli retracted Avvisi di ritrattazione
Anno

Il domani del comunicazi scientifica?

Dipende (anche) da te

Luca De Fiore, direttore de Il Pensiero Scientifico Editore e vice presidente della European association of science editors.

È stato presidente della Associazione

Alessandro Liberati

– Cochrane affiliate centre.

Iniziò a lavorare nel 1924, Paul Renner, al disegno di quel carattere che avrebbe lasciato il segno. Il Futura nacque nel 1927 e fu presto accostato alla scuola del Bauhaus, anche se il suo autore si riconosceva di più in un’altra tendenza culturale, il Nuovo movimento tipografico. Un font senza grazie, ricchissimo di “pesi”, dal più esile all’extra bold. Il suo nome ne ha anticipato la storia: scelto come carattere del testo della targa lasciata sul suolo lunare nel giorno del primo allunaggio, ha prima caratterizzato la comunicazione del Partito comunista italiano (nel 1932), di Eisenhower, Nixon e JF Kennedy – per restare alla politica – e poi di Stanley Kubrick e Wes Anderson nel cinema, di Nike, Vuitton o Absolut Vodka…  Ma quindi associamo il futuro all’assenza di tratti decorativi, alla rinuncia alla grazia? Ci auguriamo una modernità asciutta, capace di rinunciare a quello che non è essenziale? Un domani disegnato per sottrazione anche per la comunicazione e, in particolare, per quella scientifica? Mentre qualcuno lavora in questa direzione, altri – molti – vanno nella direzione opposta. Anche per queste prospettive divergenti, hai voglia a preparare tutorial online o guide alla comunicazione scientifica: nel migliore dei casi sono mappe di un territorio che sta cambiando.

Pensa agli editor delle riviste. Per decenni sono stati i guardiani della qualità della conoscenza scientifica, clinici o ricercatori che si improvvisavano manager ma che incarnavano una missione culturale. Oggi non possiamo essere sicuri che sia ancora, per tutti, così: con oltre 30mila periodici variamente indicizzati, i direttori e i componenti dei comitati scientifici delle riviste sono talmente tanti che sembra difficile giurare sulle loro competenze e, forse, anche sull’integrità di ciascuno. Quando un editor di una delle più note riviste del mondo sosteneva che la Massachusetts medical society avrebbe messo su un “New England Journal of Medicine Fried Chicken” se solo avesse intravisto la possibilità di un business, non stava scherzando ma descrivendo un cambiamento già in atto. Editor al servizio di proprietari con pochi scrupoli, spesso senza volto; editor non più tanto giudici della qualità scientifica quanto amministratori di operazioni commerciali. Inconsapevoli, ingenui o complici attori di un’industria capace di enormi profitti. Questo non li rende necessariamente tuoi avversari, ma cambia radicalmente il tono della conversazione che – come autore o lettore – dovresti avere con loro.

Tra cinque anni – o cinque mesi o cinque giorni – quando sottoporrai un articolo, chi lo valuterà veramente? Un collega esperto o un algoritmo? E se fosse, più probabilmente, un auspicabile ibrido dei due?

Ora pensa ai referee. Quelle creature misteriose che giudicano il tuo lavoro nell’ombra stanno diventando sempre meno disponibili a dedicare tempo a una peer review accurata. Ma contemporaneamente stanno emergendo sistemi di intelligenza artificiale (Ia) che possono verificare la coerenza metodologica di un articolo, controllare statistiche, suggerire miglioramenti. Tra cinque anni – o cinque mesi o cinque giorni – quando sottoporrai un articolo, chi lo valuterà veramente? Un collega esperto o un algoritmo? E se fosse, più probabilmente, un auspicabile ibrido dei due?

Tu e i tuoi coautori – con cui hai negoziato l’ordine delle firme, discusso l’interpretazione dei risultati, condiviso la fatica della stesura – potreste presto avere un nuovo componente nel team: un sistema di Ia che scrive sezioni intere di un articolo, ottimizza la versione in lingua inglese, disegna graphical abstract impeccabili, genera discussioni sui social, prepara relazioni ai congressi a partire dal vostro paper appena pubblicato. Come cambierà la dinamica delle collaborazioni? Chi prenderà le decisioni quando parte del testo sarà generata automaticamente?

Gli editori – i grandi gruppi internazionali – stanno consolidando il loro potere attraverso acquisizioni, controllo dei database, creazione di repository di preprint, transformative agreement. Ma stanno anche diventando vulnerabili: se l’Ia potrà fare peer review, editing, impaginazione, quale sarà il valore aggiunto che potranno realisticamente apportare al sistema? Tra dieci anni potrebbero essere ancora più potenti o completamente irrilevanti. Non lo sappiamo.

Al solito, grande incertezza

Proviamo a immaginare tre direzioni in cui potrebbe andare il publishing scientifico. Non sono previsioni, ma ipotesi di lavoro per dare sollievo ai nostri dubbi, illudendoci di riuscire a prevedere il domani.

la one

Il futuro della comunicazione scientifica? Un territorio in movimento dove certezze consolidate si mescolano a nuove possibilità. Gli editor cambiano ruolo, l’intelligenza artificiale affianca i referee, le riviste esplorano nuovi modelli. Tre scenari possibili, nessuno del tutto prevedibile. Ma una cosa è certa: ogni scelta che facciamo come ricercatori – dalla trasparenza sui limiti degli studi alla condivisione dei dati –contribuisce a disegnare il sistema che verrà. Il domani dipende anche da te.

• I grandi editori sopravvivono integrando massicciamente l’Ia nei loro processi. Elsevier, Springer Nature, Wiley diventano essenzialmente piattaforme tecnologiche. Submission, peer review, editing, pubblicazione: tutto viene mediato da algoritmi proprietari. Anche le banche dati che regolano le dinamiche citazionali e condizionano le carriere si confermano gestite dai grandi player editoriali. Le mega-riviste – quelle che già oggi pubblicano migliaia di articoli l’anno – diventano più numerose e ancora più grandi, e il processo di pubblicazione – dalla valutazione delle submission alla promozione dei contenuti sulle diverse piattaforme social multimediali – ancora più automatizzato. In questo scenario, voi autori interagite sempre meno con esseri umani e sempre più con sistemi. Un algoritmo valuta la vostra submission in ore, non in mesi. Suggerisce miglioramenti, segnala incongruenze, ottimizza la forma. Rapido, efficiente. Ma opaco e costoso, perché questi sistemi sono proprietari. Le università dei paesi ricchi o, comunque, quelle con adeguati finanziamenti possono permettersi di accedere a questi spazi. Le altre no.

• Oppure: il sistema si divide. Da un lato, un circuito premium di riviste prestigiose che conservano un percorso di peer review eseguita da revisori esperti e competenti, con editing accurato, selezione rigorosa dei contenuti e cura nella loro presentazione; il tutto a costi sempre più elevati ma non necessariamente insostenibili. Dall’altro, un oceano di pubblicazioni assistite dall’Ia, accessibili, rapide, ma di qualità estremamente variabile. Le mega-riviste crescono esponenzialmente. I paper mill diventano ancora più abili, usando l’Ia generativa per produrre articoli indistinguibili da quelli autentici. In questo scenario, gli autori dovranno scegliere: investire tempo e risorse per puntare al circuito premium, oppure accettare la pubblicazione più facile nel circuito ibrido, sapendo che il loro lavoro sarà difficilmente distinguibile da molti altri, ma non per questo meno utile ai fini della carriera se non cambieranno i sistemi di valutazione della ricerca.

• Gli articoli scientifici cessano di essere pubblicati su riviste. I risultati della ricerca si svincolano dalle imprese private e sono condivisi dagli autori in repository pubblici dove l’Ia li indicizza, li valuta, li rende ricercabili. Le riviste sopravvivono come spazi di commento, dibattito, interpretazione. Non più contenitori di articoli originali ma piattaforme per la discussione, come accade oggi con Medium e Substack. In questo scenario, voi autori depositate i vostri studi in un archivio pubblico. La valutazione della qualità del vostro lavoro non deriva più da “dove” avete pubblicato ma da quanti altri ricercatori usano i vostri dati, replicano i vostri risultati, riprendono il vostro lavoro per orientare linee guida, documenti di politica sanitaria. L’impact factor diventa un ricordo del passato, sostituito da metriche dinamiche e trasparenti basate sull’utilità reale dei contenuti della letteratura scientifica.

Ogni volta che scegli di pubblicare risultati negativi invece di nasconderli in un cassetto, stai appoggiando un sistema più onesto. Ogni volta scegli di fare meno ricerca ma migliore, stai cambiando il sistema dall’interno.

Quale di questi scenari si realizzerà? Probabilmente nessuno dei tre esattamente così, o forse tutti e tre in qualche misura. Ma il punto è un altro: tu non sei spettatore passivo di questa trasformazione. Ogni volta che scegli di pubblicare risultati negativi invece di nasconderli in un cassetto, stai appoggiando un sistema più onesto. Ogni volta che dichiari trasparentemente i limiti del tuo studio invece di minimizzarli, stai resistendo al ricorso all’enfasi che caratterizza lo storytelling prevalente. Ogni volta che lasci le posizioni che contano alla firma di chi ha più contribuito allo studio, aiuti a far crescere un sistema di valutazione basato sulla competenza. Ogni volta che condividi dati e protocolli, stai contribuendo a fare spazio alla scienza aperta. Ogni volta che rifiuti la logica del “publish or perish” e scegli di fare meno ricerca ma migliore, stai cambiando il sistema dall’interno.

Per quanto riguarda l’Ia, sarà un’alleata per tutti: per le persone disoneste e per chi, invece, vorrà credere ancora in una comunicazione caratterizzata da integrità, accessibilità, inclusività. L’Ia generativa potrebbe accrescere le nostre virtù o amplificare anche i nostri vizi. Liberare parte del nostro tempo o compromettere la nostra capacità creativa. Moltiplicare la produzione di letteratura scientifica di cattiva qualità e ridurne l’utilizzo e, forse, anche l’utilità.

Possiamo scegliere da che parte stare. Con ogni articolo che scriveremo, con ogni scelta che faremo nel processo di pubblicazione esprimeremo un voto – o quanto meno un auspicio – sul futuro del publishing scientifico.

L’unica certezza

In questo territorio in rapida trasformazione, c’è una sola cosa certa: la forma sta diventando sempre meno importante, l’integrità sempre più cruciale. Quando l’Ia può scrivere un abstract perfetto, dichiarare elegantemente i conflitti d’interesse, costruire una discussione formalmente impeccabile, l’unico valore distintivo che rimane è la tua – e la mia – onestà intellettuale. La decisione di condurre ricerca utile piuttosto che ricerca facile da pubblicare. La scelta di essere trasparenti sui limiti della ricerca invece che persuasivi sulle sue potenzialità. Il coraggio di dire “questo studio non ha funzionato” invece di nascondere i risultati negativi.

Le figure professionali che incontrerai nel tuo percorso – editor, referee, editori, coautori, documentalisti – stanno tutti navigando questa stessa incertezza. Alcuni cercheranno di mantenere lo status quo. Altri abbracceranno acriticamente ogni novità tecnologica. Altri ancora proveranno a orientare il cambiamento verso forme più giuste e sostenibili.

Possiamo scegliere da che parte stare. Con ogni articolo che scriveremo, con ogni scelta che faremo nel processo di pubblicazione esprimeremo un voto – o quanto meno un auspicio – sul futuro del publishing scientifico.

La cucina del domani

Dove cultura, salute e innovazione si incontrano

Intervista a Niko Romito, chef e imprenditore, tre stelle Michelin.

Il suo lavoro unisce alta cucina, ricerca nutrizionale e riflessione culturale sul cibo. Guardando al “domani”, quali principi ridefiniranno il nostro modo di cucinare, mangiare e pensare l’alimentazione sia nelle case sia nei sistemi collettivi come scuole e ospedali?

I principi su cui deve poggiare la cucina di oggi e di domani – sia essa casalinga o pubblica, alta cucina o ristorazione familiare – sono cultura, gusto, salute, sostenibilità e accessibilità. Oggi vedo maggior consapevolezza nel consumatore, specialmente nei giovani che si pongono molte domande su ciò che mangiano e sul futuro del pianeta. Sono molto fiducioso quando guardo al domani, ma penso che siano necessari studio, creatività, scienza. È indispensabile aprire nuovi percorsi formativi capaci di fornire gli strumenti necessari a chi si occupa di alimentazione – in tutte le sue forme – e aprire il dialogo tra discipline diverse. Proprio per questo sto lavorando alla creazione di un Campus, in cui confluirà la mia scuola di cucina, l’Accademia Niko Romito, ma che ospiterà anche nuovi spazi di confronto. Sarà un centro di ricerca e sviluppo innovativo sul cibo che lavorerà su diversi fronti, con un’attenzione particolare alla ristorazione collettiva. Diversi progetti di ricerca sono già in corso, mentre l’edificio è in costruzione.

Il linguaggio della cucina può veicolare messaggi molto forti.

Nei suoi progetti di ristorazione collettiva e nutrizione clinica ha dimostrato che qualità, equilibrio nutrizionale e accessibilità non sono obiettivi in conflitto. Che ruolo può avere la cucina – intesa come processo e come linguaggio – nel ridurre disuguaglianze alimentari e nel contribuire alla salute pubblica in un contesto di emergenze sanitarie e ambientali sempre più frequenti?

Lo ha espresso molto bene: la cucina è uno strumento importante per abbattere le disuguaglianze, sia in quanto processo – creativo, scientifico e produttivo – sia come linguaggio culturale. Il linguaggio della cucina può veicolare messaggi molto forti ed è attraverso l’ottimizzazione dei processi che la qualità può diventare effettivamente accessibile.

L’alta cucina, se intesa come ricerca e non come semplice spettacolo, può in realtà avere una ricaduta molto più vasta, grazie anche alla sua visibilità. Quando al Ristorante Reale ho dedicato il menù degustazione interamente al vegetale, volevo porre attenzione sulle sue potenzialità e questo è servito anche a ispirare molti giovani cuochi. Il mio approccio all’ingrediente ha sempre avuto come obiettivo quello di esplorarne le potenzialità nascoste attraverso nuove tecniche. Cerco espressioni del gusto pure e profonde, e amo utilizzare ingredienti considerati ordinari per portarli in una nuova dimensione. Questo approccio al gusto mi ha condotto naturalmente verso preparazioni salubri, in cui “buono” e “sano” sono due facce della stessa medaglia. Quasi dieci anni fa ho lavorato a “Intelligenza Nutrizionale”, un progetto di ricerca d’avanguardia sviluppato con La Sapienza univer-

sità, l’azienda Giomi e l’Ospedale Cristo Re di Roma. In quel contesto ho collaborato con medici, ricercatori e tecnologi per ripensare radicalmente l’offerta delle mense ospedaliere. Non si trattava semplicemente di scrivere menu più “accattivanti”, ma di rivoluzionare l’intero processo produttivo. Abbiamo dimostrato come tecniche innovative possano migliorare in modo significativo il profilo nutrizionale e organolettico dei piatti, ottimizzando al contempo le logistiche di preparazione e servizio, nel rispetto dei vincoli di costo.

Quell’esperienza mi ha dato lo stimolo per proseguire questo percorso. E proprio lo scorso 19 gennaio, a L’Aquila, abbiamo presentato #iomangioascuola: un progetto voluto e supportato dalla Regione Abruzzo per fornire strumenti innovativi a supporto delle linee guida regionali per la ristorazione scolastica. Una sinergia tra ricerca gastronomica e scientifica, grazie alla collaborazione con le tre università del Comitato di coordinamento regionale universitario dell’Abruzzo e il costante dialogo con la sanità pubblica attraverso le asl. La ristorazione collettiva rappresenta il terreno più strategico su cui si gioca questa sfida perché consente di raggiungere un numero elevatissimo di persone. Sia con “Intelligenza Nutrizionale” sia con #iomangioascuola abbiamo ottenuto risultati estremamente promettenti, che auspico possano stimolare nuove sinergie e dare vita ad altre iniziative virtuose.

La ricerca gastronomica diventa rigenerativa quando usa intelligenza, fantasia e innovazione.

Molti osservatori sostengono che la cucina del futuro dovrà essere “rigenerativa”: capace di ridurre l’impatto ambientale e, allo stesso tempo, di generare benessere culturale e sociale. In che modo la ricerca gastronomica può diventare uno strumento concreto di sostenibilità, senza rinunciare alla creatività e alla complessità sensoriale che caratterizzano la grande cucina?

La creatività può e deve generare sostenibilità. La ricerca gastronomica diventa rigenerativa quando usa intelligenza, fantasia e innovazione per trasformare ingredienti “semplici” in piatti gustosi, nutrienti e sostenibili, per ridurre gli sprechi, l’impatto ambientale, senza mai rinunciare alla complessità sensoriale. Estrarre il massimo del gusto da un ingrediente “povero”, ridurre le proteine animali o i tempi di cottura grazie alla tecnologia è un atto creativo che contribuisce a preservare le risorse del pianeta.

Un esempio è il lavoro che abbiamo svolto sulle zuppe di legumi. Utilizzando la tecnologia dell’autoclave, con uno studio meticoloso di tempi e temperature, siamo riusciti a ottenere piatti pronti con “etichetta pulita”, che preservano gusto, consistenze e valori nutritivi intatti e si conservano a temperatura ambiente per oltre un anno senza necessità di conservanti o della catena del freddo. Questo significa abbattere i consumi energetici e gli sprechi logistici garantendo un prodotto d’eccellenza. Le zuppe di legumi rappresentano la tradizione, sono un piatto della cucina cosiddetta “povera” di molte regioni d’Italia; l’innovazione le rende facilmente accessibili, anche per chi

non ha il tempo o la voglia di cucinare. La cucina italiana ha sempre dimostrato la capacità di trasformare ingredienti semplici in piatti straordinari. Il recente riconoscimento Unesco della cucina italiana come sistema culturale sottolinea quanto la nostra cultura gastronomica sia, per definizione, intelligenza applicata: una ricchezza che racconta la nostra storia e, al tempo stesso, guarda al futuro.

L’incontro tra cibo, salute e ambiente richiede un’evoluzione nelle competenze di tutti gli attori coinvolti.

vedi anche IL

Cosa succede al cibo mentre viene cucinato?

L’Accademia Niko Romito ha fatto di questa domanda il punto di partenza di due progetti che applicano la stessa filosofia in contesti diversi: l’ospedale e la scuola. L’idea è che la qualità del cibo collettivo non sia un lusso ma una questione di cura e che la ricerca gastronomica possa trasformare l’esperienza di chi mangia in corsia o in una mensa scolastica. Nel 2016 prende forma il progetto IN – Intelligenza Nutrizionale, nato dall’incontro tra un cuoco tre stelle Michelin e una mensa ospedaliera. Niko Romito ha voluto portare nei reparti lo stesso metodo con cui studia la trasformazione degli alimenti al Reale: analizza cosa accade alla materia prima durante la cottura, ne misura i valori nutrizionali e antiossidanti, e costruisce un protocollo replicabile che migliora insieme la qualità del piatto e il suo valore nutritivo, senza sforare i vincoli di budget della ristorazione collettiva. Promosso dalla società GioService che

I sistemi alimentari globali stanno attraversando una trasformazione profonda, che tocca tecnologia, filiere, educazione e immaginari. Quali competenze — dello chef, del ricercatore, del cittadino — ritiene indispensabili per costruire un nuovo patto tra cibo, salute e ambiente?

L’incontro tra cibo, salute e ambiente richiede un’evoluzione nelle competenze di tutti gli attori coinvolti. Allo chef è richiesta la capacità di dialogare tanto con il proprio territorio quanto con la scienza e di condividere le proprie competenze per metterle a sistema. Al cittadino è invece chiesta curiosità, insieme a una grande consapevolezza dell’impatto delle proprie scelte alimentari. Proprio per questo parlare di sostenibilità significa innanzitutto parlare di formazione: immaginare nuovi percorsi educativi, capaci di trasmettere conoscenze e competenze aggiornate, e di costruire una cultura del cibo che sappia guardare al “domani” in modo responsabile e integrato.

Credits: Andrea Straccini

CIBO COME CURA. DALLA CORSIA ALLA MENSA

offre servizi alle strutture sanitarie italiane, il progetto è stato sviluppato in partnership con l’Unità di ricerca in scienza dell’alimentazione e nutrizione umana della Sapienza università di Roma, l’ospedale Cristo Re di Roma e Analysis Group. L’obiettivo non è quello di portare la gastronomia d’autore nei reparti, ma qualcosa di più concreto: un pasto capace, nelle parole di Romito, di regalare un sorriso al paziente. Perché il cibo in ospedale non è solo nutrimento. È parte dell’esperienza di cura.

A distanza di dieci anni lo stesso principio si ritrova in #iomangioascuola, il neonato progetto promosso dalla Regione Abruzzo in collaborazione con l’Accademia Niko Romito, le asl regionali e le università abruzzesi, con l’obiettivo di ripensare la ristorazione scolastica. Il fondamento è la legge regionale del 2021, che per prima ha riconosciuto alle mense scolastiche un ruolo strategico nelle politiche di salute pubblica. Il cuore del progetto è ancora il metodo Romito:

l’applicazione di tecniche avanzate, quali cottura in depressione, vapore controllato, salamoia per i vegetali, per migliorare insieme profilo organolettico e valore nutrizionale, nel rispetto dei costi della ristorazione collettiva. Il risultato è un manuale operativo con schede tecniche e ricette, che diventerà la base delle future linee guida per le mense scolastiche abruzzesi, insieme a un programma di formazione con borse di studio per i giovani del territorio. Non è alta cucina calata dall’alto, ma qualcosa di più ambizioso: dimostrare che con una ricetta semplice si può ottenere un piatto leggero e saporito, che unisce gusto e benessere e che trasforma l’ora di pranzo in un momento di educazione al gusto. Perché la mensa – scolastica o ospedaliera – non è un semplice servizio di ristoro. È il luogo in cui si impara, o si reimpara, a riconoscere la qualità.

I giovani, l'incertezza, IL FUTURO

Quando il cinema restituisce speranza al futuro

Intervista a Giorgio Caporali, regista del film “L’Arca”.

In che modo la macchina da presa può catturare quel “domani” che sfugge ai modelli statistici? Cosa può raccontare lo sguardo di un giovane regista sul futuro che un’analisi sociologica o clinica non riesce a vedere?

È una domanda abbastanza complessa, ma molto bella. Credo — ma è un mio pensiero — che ciò che il cinema può catturare e che una ricerca sociologica o scientifica non può fare sia l’anima di un individuo, i suoi sogni… Ciò che un giovane regista può cogliere attraverso la sua macchina da presa, più di qualsiasi altro regista, è uno sguardo interno: non solo su sé stesso, ma anche sulla propria generazione. Spesso nel cinema ci sono film su ragazzi realizzati da cinquantenni che ragazzi lo sono stati trent’anni fa, quando il mondo era diverso. Per questo credo che bisognerebbe lasciare più spazio ai giovani per esprimersi, perché ciò che io posso raccontare adesso tra qualche anno non potrò più farlo. Per tornare alla domanda, conosco giovani nati in situazioni di degrado che hanno fatto, o stanno facendo, cose straordinarie nel mondo lavorativo e non solo, e che farebbero saltare le statistiche di qualsiasi dato sociologico o scientifico. Ecco, il cinema racconta questo: parla di queste persone, le mette sul grande schermo e le rende accessibili e comprensibili a tutti. Ed è, a mio parere, proprio da un esempio che può nascere un cambiamento. Il cinema mostra senza giudicare, ma soprattutto infonde speranza, e la speranza è il motore della vita.

Il cinema mostra senza giudicare, ma soprattutto infonde speranza, e la speranza è il motore della vita.

L’incertezza del futuro spesso può spaventare. Per Martin e Ryan, protagonisti de “L’Arca”, l’incertezza del domani è il punto di partenza. Nel girare il film, come ha cercato di trasformare la “mancanza di futuro” da condanna a opportunità di libertà?

Kierkegaard diceva che la maggior parte degli uomini insegue il piacere, inteso come felicità, con così tanta fretta da superarlo senza rendersene conto. Partendo da questo precetto mi sono domandato: “E se non dovessimo più arrivare da qualche parte? Cosa succederebbe?”. La risposta che mi sono dato è stata: “Forse smetteremmo tutti di correre”. Così facendo, ci fermeremmo per un attimo, ci guarderemmo intorno e forse ci renderemmo conto che ciò che ci circonda, ciò che abbiamo, anche se poco, è bello. E che forse, come diceva Kierkegaard, la verità è che ciò che ci rende felici ma-

gari già ce l’abbiamo, ma non ce ne siamo mai resi conto. Per citare il mio film: “A volte siamo seduti sopra ciò che stiamo cercando, ma siamo talmente impegnati a cercarlo intorno a noi che neanche ce ne accorgiamo”. Sono dell’idea che questa spasmodica ricerca di un qualcosa faccia venire l’ansia: molto spesso non si sa neanche cosa si stia cercando, e questo perché il mondo in cui viviamo va di corsa senza lasciarti il tempo di fermarti e riflettere. Il cinema in un certo senso è questo, una pausa di un’ora, un’ora e mezza all’interno di una corsa frenetica. Una pausa che ci intrattiene e a volte, come spero nel mio caso, ti fa riflettere e pensare. Detto ciò, credo che l’assenza di un futuro certo (e in un certo senso questa incertezza appartiene a tutti noi) sia una liberazione e non una condanna. Perché, se non hai una direzione certa, allora puoi andare dove vuoi, e questo vale per ogni ambito. Per esempio, la precarietà nel mondo lavorativo ci ha insegnato che si può fallire facendo ciò che non ti piace; allora tanto vale fallire facendo ciò che ami, inseguendo un tuo sogno. E credo che il cinema – in quanto testimonianza di storie e di vite – sia il miglior mezzo per smettere di temere l’incertezza e iniziare ad abitarla. A volte, guardando un film, ci si rende conto di non essere così soli nelle proprie paure e che c’è chi è riuscito là dove molti dicevano che non sarebbe stato possibile. Io, nel cinema, trovo la forza e la speranza nel domani.

L’assenza di un futuro certo è una liberazione e non una condanna: se non hai una direzione, puoi andare dove vuoi.

I giovani sono spesso raccontati come fragili e ansiosi rispetto al futuro. Martin però non è fragile: è furioso, visionario, attivo. Il cinema può avere il ruolo di ribaltare lo stereotipo della fragilità giovanile?

Penso che i media e la letteratura scientifica dovrebbero parlare con più giovani, perché sì, è vero che esistono giovani ansiosi, fragili e terrorizzati dal futuro, ma così come esistono anziani ansiosi, fragili e spaventati dal domani. Questo, però, non vuol dire che siamo tutti così. Ci sono anche tantissimi giovani che, nonostante le proprie fragilità e ansie (perché siamo esseri umani), si danno da fare, investono su sé stessi, prendono le proprie paure e le trasformano in un punto di forza. Io, per esempio, l’ho fatto attraverso il cinema.

La cosa più importante che insegna Martin è che se hai un sogno e ci metti tutto te stesso per realizzarlo, allora non fallirai mai. Perché in una società in cui la paura di fallire è più grande della voglia di riuscire, il fatto stesso che tu ci stia provando, riprovando, per me significa che hai già vinto.

Martin è l’incarnazione della libertà, perché quando sai di avere i giorni contati il futuro smette di essere così centrale. Ma questa consapevolezza dovrebbe diventare anche la nostra. Ed è ciò che lui insegna ai suoi compagni di viaggio, Beatrice e Ryan: non aspettate il futuro con ansia, ma vivete il presente con gioia. Il futuro è solo una conseguenza del presente, e non è neanche detto che esista.

In una società in cui la paura di fallire è più grande della voglia di riuscire, il fatto stesso che tu ci stia provando significa che hai già vinto.

Il testo è stato adattato dalla redazione per ragioni di spazio. La versione integrale è disponibile online.

Centro congressi

Roma Eventi

Registrazione dalle ore 9.00

Proponi il tuo poster

potresti vincere un premio ed essere pubblicato su Recenti Progressi in Medicina!

9° Riunione annuale

Prevenzione

Fabio De Iaco

Ospedale Maria Vittoria di Torino

Caterina Rizzo Università di Pisa

Cronicità

Maurizio Franzini

Sapienza università di Roma

Deborah Cohen

Giornalista scientifica

Contrasti

Mary Beth Ritchey

Rutgers University, New Brunswick, USA

Mario Tozzi

Saggista e divulgatore scientifico

Domani

Roma 14 maggio 9.30-16.30

I poster dovranno essere proposti compilando il form online presente sul sito, entro il 20 aprile.

Isabella Pierantoni Sociologa e futurista

Richard Smith

UK Health Alliance on Climate Change

domanidomani domanidomanidomani domanidomanidomani domanidomanidomani domanidomanidomani domanidomanidomanidomani domanidomanidomanidomanidomani domanidomanidomanidomanidomani domanidomanidomanidomanidomani domanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomani domanidomanidomanidomanidomanidomani domanidomanidomanidomanidomani domanidomanidomanidomani domanidomanidomanidomani domanidomanidomanidomani domanidomanidomani domanidomani domanidomanidomanidomani

FUTURO

agg. e s. m. [dal lat. futurus, part. futuro di esse «essere»].

1  agg. Che sarà o verrà in seguito; che, rispetto al presente, deve ancora avvenire: i secoli f.; la vita f. (in partic., quella dopo la morte, l’oltretomba); Ch’una favilla sol de la tua gloria Possa lasciare a la f. gente (Dante); quando vaghe di lusinghe innanzi A me non danzeran l’ore f. (Foscolo); il dì futuro Del dì presente più noioso e tetro (Leopardi). Riferito a persona: il f. direttore, la sua f. sposa, ecc., che, cioè, tale sarà o si pensa che debba essere in seguito (con il sign. di «futuro sposo», talora sostantivato al masch., ma solo in usi scherz. o iron.: che cosa ne dice il tuo futuro?).

2  s. m. Il tempo che verrà o gli avvenimenti che in esso si succederanno: prevedere, indovinare, predire il f.; leggere nel f.; pensare al f.; l’incertezza del f.; speranze per il f., ecc.; locuz. avv. in futuro, nel tempo avvenire.

3   agg. e s. m. In grammatica, tempo f., o assol. futuro, categoria del verbo che indica l’azione in quanto si deve svolgere nel futuro (appartiene quindi alle distinzioni temporali del verbo, non a quelle dell’aspetto); può appartenere a varî modi, per cui si ha, in alcune lingue, un indicativo f., un imperativo f., un infinito f., un participio f.; in italiano esiste soltanto il futuro dell’indicativo, detto anche f. semplice (in quanto formato, nell’attivo, di una sola parola: io farò, io andrò), per distinzione dal f. anteriore, tempo composto, che rappresenta anch’esso un’azione futura, ma passata rispetto a un’altra futura (avrò fatto, sarò andato). Sotto l’aspetto morfologico, il futuro italiano proviene da una precedente forma perifrastica del latino volgare: darò da dare habeo; in varie lingue, invece, la perifrasi è ancora presente: così in tedesco, dove si ricorre all’ausiliare werden «divenire», o in inglese, dove si utilizza shall «dovere» e will «volere».

Turn static files into dynamic content formats.

Create a flipbook