

LA BIOLOGIA SCIENZA DEL FUTURO

L’epigenetica e la genomica consentono di prevedere e curare le malattie, aiutandoci a vivere meglio e di più
UN SOGNO CHE È REALTÀ

Tutta la biologia al servizio della comunità
19 - 21 GIUGNO 2026
Centro Congressi G. Colosimo
Catanzaro







Anno IX - N. 1 Gennaio 2026
Edizione mensile di Bio’s
Testata registrata al n. 113/2021 del Tribunale di Roma
Diffusione: www.fnob.it

LA BIOLOGIA SCIENZA DEL FUTURO
L’epigenetica e la genomica consentono di prevedere e curare le malattie, aiutandoci a vivere meglio e di più
Direttore responsabile: Vincenzo D’Anna
Questo magazine digitale è scaricabile on-line dal sito internet www.fnob.it
Questo numero del “Giornale dei Biologi” è stato chiuso in redazione il 29 gennaio 2026.
Gli articoli e le note firmate esprimono solo l’opinione dell’autore e non impegnano la Federazione Nazionale degli Ordini dei Biologi.
Immagine di copertina: @ Shutterstock AI/shutterstock.com
Si informano gli iscritti che gli uffici della Federazione forniranno informazioni telefoniche di carattere generale dal lunedì al giovedì dalle 9:00 alle ore 13:30 e dalle ore 15:00 alle ore 17:00. Il venerdì dalle ore 9:00 alle ore 13:00
Tutte le comunicazioni dovranno pervenire tramite posta (presso Federazione Nazionale degli Ordini dei Biologi, via Icilio 7, 00153 Roma) o all’indirizzo protocollo@cert.fnob.it, indicando nell’oggetto l’ufficio a cui la comunicazione è destinata.
È possibile recarsi presso le sedi della Federazione Nazionale degli Ordini dei Biologi previo appuntamento e soltanto qualora non sia possibile ricevere assistenza telematica. L’appuntamento va concordato con l’ufficio interessato tramite mail o telefono.
Centralino 06 57090 200
Ufficio protocollo protocollo@cert.fnob.it

I Biologi nel terzo millennio
di Vincenzo D’Anna
Presidente della Federazione Nazionale degli Ordini dei Biologi
Abbiamo più volte scritto e ribadito, sulle colonne di questo giornale dedicato ai biologi italiani, che la difficoltà più grande da affrontare per coloro che, attraverso libere elezioni, sono stati legittimati ad amministrare e dirigere la categoria è rappresentata dal distacco e dall’indifferenza mostrati da gran parte degli iscritti. Sono infatti ancora molti - troppi! - i colleghi ai quali risulta estranea la vita dell'Ordine professionale al quale appartengono e che, pertanto, ignorano buona parte dei risultati positivi raggiunti. Una condizione di sciatteria e di trascuratezza, uno stato di cose che crea diffidenza tra coloro che sono amministrati e scoramento tra gli amministratori limitandone, giocoforza,
Sono ancora molti - troppi! - i colleghi ai quali risulta estranea la vita dell'Ordine professionale al quale appartengono
La disaffezione verso il proprio Ordine deforma la percezione del medesimo, che spesso viene ritenuto inoperoso e ininfluente
anche l’interlocuzione. Se quanto si ottiene in termini di riconoscimento delle competenze e delle tutele professionali, di rivalutazione della figura del biologo nei molteplici e vasti ambiti scientifici nei quali questo opera, non è conosciuto e quindi non apprezzato, il lavoro svolto perde di efficacia e l'intera categoria si attarda nella lamentazione e nella commiserazione per una condizione che si pensa essere rimasta immutata. Qualunque siano i benefici, le opportunità
e le tutele che ne derivano, essi saranno utilizzati solo da una parte degli iscritti. La disaffezione verso il proprio Ordine deforma la percezione del medesimo, che spesso viene ritenuto inoperoso e ininfluente, ridotto al rango di una tassa da pagare senza alcun corrispettivo. L’uso dei social, già di per sé alienante e isolante dal contesto reale, crea sacche autoreferenziali di soggetti che si avvitano su sé stessi e che addebitano con grande faciloneria i propri problemi esistenziali e professionali a una presunta inerzia dell’Ordine: un perpetuo commiserarsi onde evitare l’analisi delle criticità e delle difficoltà incontrate. Una specie di comoda, quanto
mendace, autoassoluzione dei propri ritardi culturali e cognitivi. Tuttavia, non possiamo e non dobbiamo lasciarci condizionare da uno stato di cose che per diversi colleghi tarda a trovare una sua felice soluzione. I biologi non possono attendere che tutti comprendano l’importanza del ruolo svolto dagli Ordini territoriali e dalla Federazione degli stessi. Bisogna “cantare” e, al contempo, portare la croce, per la semplice ragione che il futuro non si aspetta, ma si prepara. Se è vero che la biologia è la scienza che gode di maggiore credito per il futuro prossimo, la scienza che apre nuove strade di conoscenza e di inserimento professionale nel terzo
millennio, e che meglio di qualunque altra disciplina sfrutta il supporto della tecnologia e dell’intelligenza artificiale, allora si deve andare avanti. La prossima apertura della Scuola di Bioinformatica; gli eventi già definiti sulle nuove frontiere della biologia nello spazio, a Napoli, nella prestigiosa Reggia dei Borbone; lo studio della vita che si sviluppa in microgravità in modi diversi, imprevisti e sorprendenti, accompagnato da un dottorato in Scienze Biospaziali; la Bisogna “cantare” e, al contempo, portare la croce, per la semplice ragione che il futuro non si aspetta, ma si prepara
La Federazione esplora nuovi campi di pratica professionale perché intende istruire attraverso la pratica, oltre che la teoria, i giovani biologi
Scuola di Biorestauro dei monumenti e delle opere d’arte: sono solo alcuni dei prossimi appuntamenti di assoluta novità e di grande interesse professionale attualmente in cantiere. La Federazione esplora nuovi campi di pratica professionale perché intende istruire attraverso la pratica, oltre che la teoria, i giovani biologi, instradandoli su nuovi percorsi di conoscenza e di lavoro. Così sarà per la nanotossicologia, l’ecotossicologia e l’igiene pubblica ambientale, alle
cui specializzazioni potranno accedere anche i biologi. Con esse inizieranno i corsi di pratica professionale nei campi dell’embriologia clinica e del biorestauro, con altre due scuole permanenti sul campo. Noi non dobbiamo fermarci a ciò che di significativo si è ottenuto in questi anni e, apprezzato e conosciuto, dobbiamo ulteriormente innovare le pratiche professionali dei biologi. Insomma, nessuno può cullarsi sugli allori né contemplare quanto è stato fatto, ancorché atteso e realizzato dopo mezzo secolo dalla legge istitutiva dei Biologi. Non sarebbe giusto darla vinta alla parte meno attenta e partecipe della Categoria. Bisogna guardare a coloro
che ci seguono con assidua lealtà e non più a quelli che intendono vivacchiare sull’esistente. Alcune polemiche sorte sulla presunta mancanza di autonomia che FNOB riconosce agli Ordini Territoriali, sono farlocche e strumentali. Agli Ordini territoriali spetta tutta l’autonomia che loro compete per le materie che la legge ha trasferito agli stessi, così come irrinunciabili sono le competenze di coordinamento e di indirizzo che spettano alla Federazione. Il campanilismo è il rifugio di chi coltiva disegni ed ambizioni personali, segno della incapacità di fare cose egregie che vadano oltre la routine dei corsi ECM e dei corsi prelievi, di una politica ter -
ritoriale e clientelare di cui ci si debba servire per mantenere cristallizzato l’esistente. FNOB ha operato in favore degli Ordini Territoriali e mai in contrasto e così dovrà essere in futuro. Sono di questo segni sia i risultati del passato sia i propositi per il futuro, per favorire chi è capace di sentirsi interprete del buono che avanza, e non dei difetti e dell’incuria che appartengono al passato. Ho sentimento che il bene e il vero vinceranno e lavoreremo perché questo avvenga.
La Federazione ha operato in favore degli Ordini Territoriali e mai in contrasto e così dovrà essere in futuro
BIOLOGIA, LA SCIENZA CHE ALLUNGA LA VITA E LA RENDE MIGLIORE
Grazie alla genomica e all'epigenetica
è possibile prevenire malattie e agire subito
L'importanza del riconoscimento della figura del biologo tra le professioni sanitarie
di Rino Dazzo


UN ANNO RICCO DI OCCASIONI
DA COGLIERE AL VOLO, PROSEGUENDO
NEL PERCORSO CHE DA DIVERSI ANNI
LA FNOB HA INTRAPRESO E CHE STA
PORTANDO A RISULTATI ECCEZIONALI
Non solo o non più semplicemente la «scienza della vita». La biologia si sta rivelando sempre di più la disciplina che la vita l'allunga, la rende migliore, ancor più godibile rispetto al passato. La «scienza che ci fa vivere bene», insomma, grazie soprattutto ai progressi impressionanti di branche come la genomica o l'epigenetica e alla loro capacità di dialogare con efficacia con la medicina, in particolare con quella predittiva e di precisione.
Saranno sempre di più i biologi a dire a noi e ai medici di cosa ci ammaleremo, come curarci, ma anche quali accorgimenti mettere in campo per metterci al riparo da brutte sorprese, oppure come intervenire in modi rapidi, tempestivi e risolutivi. Lo ha spiegato, in un'interessante intervista pubblicata su PuntoEffe, il professor Giuseppe Novelli, ordinario di Genetica medica all'Università di Roma Tor Vergata, già rettore dello stesso ateneo nonché direttore della Scuola di specializzazione in Genetica medica e dell'Uoc di Genetica medica al Policlinico di Tor Vergata.
«La genetica sta smantellando il paradigma one-size-fits-all, quello di 'una sola taglia per tutti', quindi, ugualmente valida per tutti», è un passaggio dell'intervista al genetista. «Storicamente, le terapie si basavano su medie di popolazione e questo con un'efficacia variabile. Oggi, comprendiamo che malattie con sintomi simili - per esempio certi tumori o malattie cardiovascolari - possono avere basi genetiche radicalmente diverse. I progressi ci permettono di classificare le malattie in base al loro motore molecolare, come le mutazioni in geni specifici anziché solo all'organo colpito. E di identificare

LA BIOLOGIA SEMPRE PIÙ AL SERVIZIO DI UNA SOCIETÀ
CHE, GRAZIE ALLA FNOB, NE RICONOSCE LA SUA IMPORTANZA E LA SUA SPECIFICITÀ
sottogruppi di pazienti che, grazie al loro profilo genetico, risponderanno a un farmaco mirato oppure corrono il rischio di gravi effetti avversi. Nonché di spostare l'attenzione dalla cura in fase avanzata alla prevenzione predittiva per individui ad alto rischio genetico. In sostanza, stiamo passando da un modello reattivo a uno proattivo e predittivo che parte dal profilo genetico, passa per la prevenzione, e arriva a una terapia mirata».
Un'attenzione che, grazie ai biologi, dalla malattia si sposta sempre di più verso la persona, guardando alle sue specificità, alle sue caratteristiche peculiari, ma anche alle sue risposte alle cure.
Non solo terapie mirate, non solo trattamenti il più possibile personalizzati, che pure sono cruciali: è la prevenzione, la possibilità di effettuare test accurati e specifici, di tenere sotto controllo l'insorgenza di malattie e disturbi individuandoli in anticipo, di contrastarne l'insorgenza ai primi segnali che già oggi fa la differenza, ma che in un futuro pros -
simo sarà ancora più impattante. Il 2026, dunque, si annuncia come l'anno della definitiva svolta per i biologi. Un anno ricco di occasioni da cogliere al volo, proseguendo nel percorso che da diversi anni la FNOB ha intrapreso e che sta portando a risultati eccezionali. Primo fra tutti, il riconoscimento a pieno titolo della figura del biologo tra le professioni sanitarie.
Già la legge 3/2018 e i successivi decreti avevano definito l'inquadramento giuridico della professione del biologo, ampliandone le competenze in ambito sanitario e riconoscendone a tutti gli effetti l'utilizzo nel Servizio Sanitario Nazionale per ruoli di ricerca, diagnostica e direzione presso strutture ospedaliere e di sanità pubblica, grazie anche alle lauree abilitanti e alle scuole di specializzazione. Lo scorso novembre, come reso noto dal ministro della Salute Orazio Schillaci, il decreto sul riordino delle professioni sanitarie è stato bollinato dal MEF e un comma dello stesso decreto prevede l'ingresso dei biologi
nelle scuole di specializzazione in igiene pubblica a indirizzo ambientale. La categoria, dunque, è entrata ufficialmente nel SSN, con la possibilità di approdare alla direzione dei presidi sanitari. Ma molto importanti sono anche i nuovi decreti in arrivo per i biologi, resi possibili dalla compiuta attuazione della legge 163/2021 sulle lauree abilitanti.
Tra questi, spicca il riconoscimento della denominazione di «biologo nutrizionista» e delle sue competenze professionali nel campo della nutrizione generale e specifica in settori come quello sportivo, bariatrico, pediatrico e oncologico, col potenziale ingresso negli organici del SSN (quindi nelle strutture pubbliche), ma anche con la possibilità di utilizzare apparecchiature biomedicali e di effettuare alcune tipologie di rilevazione di parametri analitici di base col metodo POCT, lo stesso utilizzato in farmacia.
Non va dimenticata la recente firma del protocollo d'intesa tra la FNOB e la Figc, Federazione Italiana Giuoco Calcio, che prevede l'organizzazione di corsi di aggiornamento e formazione dedicati a medici e biologi nutrizionisti per garantire a calciatrici e calciatori una corretta alimentazione e migliorare le loro prestazioni sportive.
La biologia, quindi, sempre più al servizio di una società che, grazie alla FNOB, ne riconosce la sua importanza e la sua specificità.



© PeopleImages/shutterstock.com
GENOMICA ED EPIGENETICA
NEL SSN: I BENEFICI
Quanto migliorerebbe la sanità italiana con l'introduzione massiva dei servizi innovativi legati alla genomica, all'epige netica e alla medicina predittiva e di precisione? I costi legati alla loro introduzione sarebbero compensati dai benefici derivanti dall'auspicabile riduzione delle spese per degenze e terapie a carico del Servizio Sanitario Nazionale?
La questione non è di poco conto e non è neanche tanto recente. Già nel 2017, infatti, attraverso un accordo Stato-Regioni, l'Italia ha avviato il suo Piano Nazionale per la Genomica, finalizzato al miglioramento dei sistemi di prevenzione, diagnosi e di cura personalizzati, a una maggiore effica -
cia delle terapie in ambito oncologico e delle malattie rare, oltre che alla riduzione dei tempi di diagnosi.
Tre anni dopo, nel 2020, il Consiglio Superiore di Sanità ha redatto il documento denominato «Trasferimento delle tecniche omiche nella pratica clinica», contenente una serie di soluzioni per migliorare il SSN quali l'inserimento nei Lea del sequenziamento dell'esoma come indagine di prima scelta nei pazienti senza diagnosi, lo sviluppo di una rete nazionale di centri clinici dotati di personale medico formato sulla gestione delle analisi genomiche, l'esecuzione delle stesse analisi genomiche presso strutture specializzate e certificate,
L'Italia e l'Europa hanno aperto sempre di più all'utilizzo delle tecnologie «omiche» nelle strutture pubbliche
la creazione di sinergie tra laboratori e centri di ricerca e la promozione di un Piano Nazionale per la Medicina di Precisione.
Le malattie rare, l'oncologia e le malattie complesse sono i tre gruppi di patologie per i quali sono previsti i maggiori benefici. Ma tutto il sistema sanitario, con la compiuta realizzazione del piano, sarebbe definitivamente stravolto, passando da una medicina delle quattro P - preventiva, predittiva, precisa e personalizzata - a quella delle cinque P, dove la quinta sta per «partecipativa», visto che il paziente sarebbe sempre più in grado di svolgere un ruolo proattivo.
Ma quali sono queste tecnologie «omiche», sempre più destinate a entrare tra gli strumenti offerti dalla sanità pubblica a supporto dei cittadini? Il sequenziamento della porzione codificante del genoma e dell'intero genoma, il sequenziamento dell'RNA codificante e non codificante di cellule e tessuti, lo studio e la caratterizzazione delle modifiche epigenetiche del genoma sono i test e le indagini ad alta risoluzione in grado di fornire una notevole quantità di dati preziosissimi, utili a mappare con precisione assoluta le caratteristiche di ogni paziente, la possibilità di sviluppare malattie o di andare incontro a determinate patologie, ma anche di prevenirle.
Anche l'Unione Europea, in particolare negli ultimi anni, si è resa conto dell'importanza di implementare la genomica sanitaria e di favorire la collaborazione tra stati membri, prima attraverso la dichiarazione «Towards access to at least 1 million sequenced genomes in the EU by 2022 (1+MG)», sottoscritta nel 2018 da 13 paesi tra cui l'Italia, poi col finanziamento del progetto «Beyond 1 Million Genomes (B1MG)». La strada, insomma, è tracciata. (R. D.).
Le analisi predittive e di precisione sono essenziali per mettere a punto opere di prevenzione e terapie mirate
Uno strumento utilissimo per accertare quanto sia alto il rischio di svilup pare malattie ereditarie, per focalizzare l'attenzione su pato logie di natura familiare, ma anche per impostare adeguate contromisu re preventive o per iniziare da subito eventuali cure.


La medicina predittiva e di preci sione sta diventando cruciale per il paziente e per gli stessi medici. Ma quali sono le operazioni da compiere per completare un check-up genetico? E quanto costano?
Il primo passo è la consulenza che precede il test vero e proprio, durante la quale il genetista raccoglie la storia clinica del paziente e dei suoi familia ri, focalizzando l'attenzione su speci fici rischi: un passaggio fondamentale per orientarsi e decidere insieme quali e quante analisi effettuare.
Il secondo passaggio è rappresen tato dal prelievo di campione biologi co (che può essere sangue o saliva) da cui sarà estratto il DNA. Quindi il test genetico vero e proprio, che può essere di varia natura.

Il pannello genetico, ad esempio, è utile per configurare il rischio specifico per un gruppo di condizioni monogeniche come predisposizioni a tumori o cardiomiopatie, o per coppie in previsione di una gravidanza, come nel caso dell'Extended Carrier Test, in cui si analizzano soprattutto geni associati a condizioni recessive per cui i genitori potrebbero essere portatori.
C'è poi il Polygenic Risk Score, punteggio che, analizzando diversi geni, assegna un livello di rischio per diverse patologie multifattoriali come le cardiovascolari.
Il WES (Whole Exome Sequencing) consiste invece nel sequenziamento delle regioni codificanti di tutti i geni conosciuti al momento del test (il 2%
TEST GENETICI: QUALI SONO E QUANTO COSTANO

del patrimonio genetico di ogni singolo individuo) e consente l'individuazione di eventuali varianti o mutazioni in geni associati a un gran numero di patologie; spesso è effettuato insieme a test di farmacogenetica, per un livello di analisi più completo e accurato.
Infine il WGS (Whole Genome Sequencing), cioè il sequenziamento di tutto il genoma, quindi anche delle le parti che non codificano proteine, che copre il restante 98% del patrimonio genetico personale e che permette di rilevare eventuali varianti «introniche profonde», che si verificano nelle regioni interne dei geni e che possono influenzare la produzione di proteine errate o non funzionanti alla base di
varie malattie. Al termine delle analisi la consulenza post test è essenziale per valutare e spiegare i risultati ottenuti e le loro eventuali precauzioni, in modo da indirizzare il paziente verso altre analisi specialistiche mirate, che possono essere preventive o terapeutiche. I costi? Non certamente contenuti. Se le consulenze pre e post test costano generalmente un centinaio di euro, gli specifici test genetici hanno un peso diverso. Il pannello genetico costa tra 300 e 500 euro, la valutazione del rischio poligenico intorno alle 500, il WES 7-800 euro, il WGS intorno ai 1000 euro. E l'attesa per i risultati può variare dai 40 giorni lavorativi del pannello ai 60 per il rischio poligenico. (R. D.).

BLUE MONDAY LA DEPRESSIONE COLPISCE SEMPRE PIÙ GIOVANI
Gennaio t’odio e t’amo: tra pressione di performance, confronto social e ritiro, il disagio non è “solo tristezza” e non dura un giorno
© SB Arts Media/shutterstock.com

OGNI ANNO IN EUROPA SI CONTANO
OLTRE 150MILA SUICIDI, E TRA
I 15 E I 29 ANNI IL SUICIDIO È
LA PRIMA CAUSA DI MORTE. IN ITALIA, NEL 2022, CE NE SONO STATI 3.934: IL VALORE PIÙ ALTO DAL 2015
Gennaio, puntuale, riporta in scena il Blue Monday: il terzo lunedì del mese definito “il più triste” per un mix di freddo, giornate corte, fine delle feste, conti da sistemare e buoni propositi già in crisi.
Passata l’euforia natalizia, per molti ragazzi la routine torna a pesare: poca energia, irritabilità, calo di entusiasmo, fatica a concentrarsi. È chiaro: non si può comprimere una sofferenza in un solo giorno.
Il Blue Monday è una “convenzione” nata da una fortunata campagna del 2005 eppure, come tutte le cose semplici, ha un grande potere: quello di rassicurare e di rendere il disagio più comprensibile, quasi condiviso.
Ma al di là del mito, l’inverno può davvero amplificare un umore già fragile: meno luce significa ritmi sfasati, più melatonina (sonnolenza) e meno serotonina (tono dell’umore). E il quadro generale non conforta: l’OMS prevede che la depressione diventi tra i principali pesi sanitari entro il 2030, con un impatto enorme anche economico.
Il nodo, però, sono i giovani. Secondo l’OCSE, oltre 700mila ragazzi in Italia convivono con problemi di salute mentale; ansia e depressione sono tra i più frequenti. E un dato pesa più degli altri: molti disturbi esordiscono presto, entro i 24 anni, su un terreno fatto di fattori biologici, esperienze traumatiche, nuove sostanze e stigma.
La pandemia ha aggravato ansia, depressione e solitudine (+25%), mentre la carenza di professionisti della salute mentale rende più difficile “agganciare” il disagio quando è ancora reversibile, soprattutto tra adolescenti e anziani. In Europa una persona su sei convive


con un problema di salute mentale, ma una su tre non riceve cure adeguate.
Ogni anno nella Regione europea OMS si contano oltre 150mila suicidi, e tra i 15 e i 29 anni il suicidio è la prima causa di morte. In Italia, nel 2022, i suicidi sono stati 3.934: il valore più alto dal 2015.
Ma come si scivola dentro la depressione?
Alex Korb, in “The Upward Spiral”, parla di una spirale verso il basso: niente interessa davvero, ci si isola, ogni scelta sembra sbagliata. E non è “solo tristezza”: può essere anestesia emotiva, insonnia, dolori più intensi, concentrazione che si sfalda, ansia e senso di vuoto.
Sul piano neurobiologico entrano in gioco soprattutto due poli: corteccia prefrontale (regolazione, decisioni, controllo degli impulsi) e sistema limbico (emozioni).
Quando la comunicazione tra questi sistemi si inceppa, lo stress cronico può alzare cortisolo e adrenalina e i segnali di allarme diventano costanti; inoltre, alterazioni in più neurotrasmettitori contribuiscono al mosaico dei sintomi.
Torniamo ai giovani: perché proprio loro? Berry Schwartz, nel “Paradox of Choice”, descrive la trappola delle infinite possibilità: più opzioni significa più confronto, più paura di sbagliare, più rimpianto per ciò che si è escluso.
La libertà totale sembra un privilegio, ma può diventare una pressione: se “sei il risultato delle tue scelte”, allora ogni passo pesa come un verdetto. Quando la vita reale non assomiglia a quella desiderata, delusione e colpa prendono il comando, con la sensazione di “guardare dalla finestra” la propria esistenza.
In alcuni casi lo smarrimento diventa ritiro radicale: nel fenomeno degli hikikomori l’isolamento in casa si prolunga per mesi o anni, con scuola e relazioni che si spengono. E spesso, per reagire al caos, arriva una risposta che promette controllo.
Ma è possibile un cambio di rotta? Per andare a fondo nella questione, abbiamo consultato una psicologa specializzata in terapia breve strategica.
“

Dottoressa, facciamo chiarezza. Quali sono le differenze chiave tra depressione e ansia sociale? E quali sono invece le aree in cui possono sovrapporsi o alimentarsi a vicenda?
Depressione e ansia sociale sono diverse, ma spesso si incastrano. La depressione è un abbassamento “a tutto campo”: umore deflesso, vuoto, poca energia, perdita di interesse, autostima che crolla (nei casi gravi anche pensieri di morte). Il ritiro sociale qui è spesso una conseguenza. L’ansia sociale, invece, è mirata: la paura intensa del giudizio, di esporsi e “fare errori visibili”. Se resto nella mia stanza posso stare meglio; fuori, sale l’ansia e l’evitamento diventa la strategia. E possono alimentarsi: l’ansia e il fallimento spingono verso il depresso, e la depressione aumenta insicurezza e paura sociale, soprattutto nei giovani.
Quali fattori stanno contribuendo, secondo lei, all’aumento del disagio depressivo e dell’ansia sociale nei più giovani?
L’aumento del disagio nei giovani è multifattoriale: non c’è un solo fattore, c’è un sistema che spinge. La pressione prestazionale arriva presto e su più fronti - scuola, sport, immagine - con un messaggio implicito: devi eccellere, devi “stare al passo”. A questo si sommano instabilità e incertezza sul futuro, insieme a una quantità di scelte che può remindere più difficile decidere: più opzioni, più paura di sbagliare, più paralisi.
In clinica emerge spesso anche una fragilità nelle competenze emotive e di problem solving: quando la gestione delle difficoltà è stata a lungo “anticipata” dall’ambiente, tollerare frustrazione, fallimento e attesa diventa più arduo. Infine, ritmi iperproduttivi e vita digitale - accelerati nel post-Covid - hanno ridotto tempi di relazione e di elaborazione: molte interazioni si spostano online, dove ci si espone meno e si evita più facilmente. In questo contesto, il disagio non solo aumenta: tende a cronicizzarsi se non viene intercettato.
Social, perfezionismo, paura di fallire: quali sono i meccani smi psicologici più comuni che vede in studio?
In studio vedo spesso gli stessi ingranaggi: confronto sociale continuo che produce svalutazione, perfezionismo disfunzionale (valgo solo se performo) e paura dell’erro -
INTERVISTA ALLA PSICOLOGA FEDERICA RECUPITO
SPECIALIZZATA IN TERAPIA BREVE STRATEGICA
re/giudizio. Da lì nasce la “soluzione” che peggiora tutto: evitare, rimandare, bloccarsi, chiedere conferme continue. Così però non si costruiscono né autostima né capacità di reggere l’ostacolo.
Il quadro che arriva è un’identità fragile: facce smarrite, zero desiderio, e la frase che sento più spesso è “non so cosa provo, non so cosa sento”. Per questo dico che spesso lavoro su un terreno arido: prima va reso fertile, poi si può seminare. E in questa fase non serve aggiungere stimoli e opzioni: spesso serve togliere rumore, ridurre il confronto e rimettere il ragazzo in contatto con scelte piccole, reali, sostenibili.
Quali sono i segnali che indicano: qui basta un lavoro psi cologico, qui serve una valutazione psichiatrica, qui meglio un trattamento integrato?
Non decide l’etichetta, ma tre fattori: gravità, durata e quanto il disagio compromette la vita quotidiana. Un lavoro psicologico può bastare quando i sintomi sono circoscritti o legati a stress e la persona mantiene un funzionamento discreto, senza segnali di rischio. Serve una valutazione psichiatrica se compaiono intensità e pervasività elevate, marcata compromissione, ideazione suicidaria/autolesiva o sospetti sintomi psicotici/maniacali.
Nei quadri moderati-gravi, il trattamento integrato è spesso la scelta più efficace: il supporto farmacologico riduce il carico sintomatologico e facilita la psicoterapia, che lavora sui meccanismi di mantenimento e sulla prevenzione delle ricadute
Secondo lei il SSN oggi riesce a offrire un supporto comple to per depressione e ansia sociale? Qual è il percorso più immediato per chiedere aiuto?
Il SSN c’è, ma oggi il problema è l’accesso reale: tempi, disomogeneità territoriale e risorse non sufficienti fanno sì che, quando una persona sta male, spesso non può permettersi di aspettare. Per questo, nella pratica, la via privata resta la strada più immediata.
Il Piano 2025–2030 può portare un cambiamento importante, ma non basta scriverlo: deve tradursi in équipe, continuità e presa in carico concreta sul territorio, altrimenti resta una promessa sulla carta. (E. B.).

CRANS MONTANA, OLTRE IL FUOCO: LA SCIENZA DELLA RIGENERAZIONE
SFIDA LE USTIONI PIÙ GRAVI
Il professor Lucio Tirone illustra il complesso percorso clinico che attende i pazienti. Dalle nuove frontiere della bio-ingegneria, con l’uso di cellule staminali e la coltivazione di pelle in laboratorio, fino alla microchirurgia estrema del trapianto di faccia: ecco come le sfide più difficili si trasformano in speranze di guarigione
“
La strage di Capodanno a Crans-Montana, il rogo che ha devastato il locale “Le Constellation” causando 40 morti e 116 feriti, ha riportato prepotentemente alla ribalta il tema della medicina rigenerativa. Il dibattito scientifico si concentra oggi sulla ricerca legata alle cellule staminali e alla rigenerazione dei tessuti, spinto dall'urgenza della cronaca: i media hanno acceso i riflettori sulla situazione drammatica dei sopravvissuti - per la maggior parte giovani e giovanissimi - ritrovatisi con il corpo martoriato da ustioni che, in molti casi, superano il 60% della superficie cutanea.
Si tratta di una lotta serrata contro il tempo e contro le infezioni, pericoli costanti in presenza di tessuto necrotico. La tragedia di Crans-Montana ha inevitabilmente aperto una finestra fondamentale sulla ricerca medica, toccando temi cruciali come la stabilizzazione del paziente, la gestione delle infiammazioni e la complessa organizzazione ospedaliera. In questo scenario, la rigenerazione cellulare della cute assume un rilievo vitale. In queste settimane si è discusso a lungo dell’importanza delle banche della cute e di strutture d’eccellenza per i grandi ustionati: argomenti a tratti pionieristici che abbracciano più discipline, a partire dalla chirurgia plastica e ricostruttiva.
Ne parliamo con uno dei massimi esperti del settore, il Professor Lucio Tirone, chirurgo plastico di fama internazionale con una solida esperienza maturata presso la Harvard Medical School e il Massachusetts General Hospital di Boston centro di eccellenza globale per la chirurgia plastica e ricostruttiva.

Quando un’ustione è definita grave?
«La pelle svolge funzioni protettive fondamentali. Quando viene distrutta dall'ustione, queste funzioni vengono a mancare e, a seconda dell’entità del danno, la situazione è più o meno critica. L’equilibrio idrico dell’organismo si altera completamente, con gravi ripercussioni sistemiche su reni, polmoni e cuore. L’insieme di queste alterazioni, che non sono limitate alle sole aree colpite, viene definita malattia da ustione».
Anche le ustioni superficiali possono essere pericolose?
«La cute ha due componenti: uno strato superficiale chiamato epitelio e uno più profondo chiamato derma. Le ustioni superficiali distruggono l’epitelio, che è sottilissimo e si ricambia continuamente; guariscono in pochi giorni senza cicatrici. Le ustioni profonde distruggono invece il derma, causando danni permanenti e l'abolizione delle funzioni cutanee in quell'area. Se parliamo di immediato pericolo di vita, la gravità è legata soprattutto all'estensione: nei soggetti fragili, come i bambini, anche ustioni superficiali ma molto estese possono risultare letali».
Perché un’ustione sul 60% del corpo è definita "molto grave"?
«Indipendentemente dalla profondità, un’ustione che superi il 60% della superficie corporea è considerata pericolosa perché causa uno shock nell'equilibrio dei liquidi interni. Questo provoca ripercussioni su reni, polmoni e cuore che pazienti delicati, come anziani o bambini, non riescono a compensare senza adeguate terapie intensive».
Qual è la procedura di pronto soccorso e perché l’idratazio ne è vitale? Unguenti e pomate sono utili?
«Nell’immediato, le piccole ustioni superficiali vanno pulite e protette con garze sterili; pomate anestetiche o antibiotiche possono alleviare il dolore e prevenire infezioni. Nelle grandi ustioni, invece, la distruzione della pelle causa una massiva perdita di liquidi che trasudano dai vasi sanguigni. Questo squilibrio è pericolosissimo per gli organi vitali. La terapia immediata deve quindi consistere nell'infusione di liquidi e sostanze specifiche per compensare le perdite e mantenere il sistema in equilibrio».
Professor Tirone, si dice spesso che le ustioni più profonde siano le meno dolorose. È un paradosso o una realtà clinica?
«È una tragica realtà. Mentre le ustioni superficiali sono estremamente dolorose perché irritano le terminazioni nervose rimaste intatte, nelle ustioni profonde (di terzo grado) il calore distrugge completamente i recettori del dolore e le fibre nervose situate nel derma. Paradossalmente, il paziente può non avvertire dolore nelle aree più colpite proprio perché i "sensori" che dovrebbero trasmettere lo stimolo al cervello sono stati annientati.


Perché la pelle è indispensabile alla vita?
Per comprendere perché un’ustione rappresenti un evento critico per la salute, è necessario sapere che la pelle non è un semplice rivestimento, ma un organo vitale che svolge funzioni insostituibili:
• Barriera Biologica: Impedisce a microbi e sostanze pericolose di penetrare nell'organismo.
• Termoregolazione: Regola la temperatura corporea tramite le ghiandole sudoripare e la circolazione superficiale.
• Protezione e Idratazione: Le ghiandole sebacee producono il sebo, che evita che la pelle si secchi a contatto con l’ambiente esterno.
• Centrale Informativa: Tramite decine di milioni di fibre nervose, invia al cervello dati precisi su temperatura, pressione e contatto.
• Il Paradosso del Dolore: Nelle ustioni superficiali il dolore è fortissimo. Nelle ustioni profonde, invece, il dolore scompare perché il calore ha distrutto le fibre nervose: l'assenza di sensibilità è dunque un segnale di estrema gravità tissutale.
Questo è un segno clinico di estrema gravità: l'assenza di dolore, in questi casi, è l'indicatore di una distruzione tissutale totale».
Perché il rischio di infezioni è così elevato?
«Le aree ustionate, non essendo più vitali, diventano un terreno di coltura per i batteri presenti sulla pelle o nell’ambiente. Alcuni microbi, particolarmente resistenti agli antibiotici, proliferano sui tessuti necrotici e possono passare nel sangue, causando un’infezione generalizzata (sepsi) che interessa l’intero organismo. È la complicazione più temuta».
Perché sono necessarie strutture specializza te come i Centri Ustioni?
«Quando l’ustione è estesa, il paziente richiede trattamenti basati su criteri precisi che variano a seconda dell'età e dello stato generale. Nei centri specializzati lavorano medici che hanno grande dimestichezza con la fase acuta e possiedono le competenze multidisciplinari necessarie per tutto il percorso di cura».
Come viene trattata la pelle dopo la fase di emergenza?
«Superata la fase critica, la priorità è chiudere le ferite, che restano una porta aperta per le infezioni. Bisogna eliminare la cute non più vitale. Se le ustioni non sono estesissime, si interviene con un unico intervento: si asportano le parti morte e si copre l'area con uno strato sottilissimo di pelle prelevato da zone sane del paziente.
Questi innesti attecchiscono stabilendo connessioni con i vasi sanguigni della ferita, mentre la zona del prelievo guarisce spontaneamente in pochi giorni».
Cosa si intende per "Banca della Cute"?
«Quando un paziente subisce ustioni così estese da non avere quasi più pelle sana, sorge la necessità vitale di chiudere le ferite per proteggere l'organismo. In questi casi ricorriamo alla Banca della Cute, una struttura che fornisce tessuto cutaneo prelevato da donatori.
Si tratta di una copertura temporanea: poiché la pelle non appartiene al ricevente, dopo un certo periodo viene rigettata e distrutta dal sistema immunitario.
Tuttavia, nel lasso di tempo in cui rimane in sede, svolge una funzione cruciale nel mantenere l’equilibrio vitale del paziente e nel proteggerlo dalle infezioni».
Dalla sua esperienza a Boston, presso il Massachusetts General Hospital e la Harvard Medical School, cosa è cam biato nella Chirurgia Plastica Ricostruttiva? È possibile oggi rigenerare la pelle?
«Durante il mio periodo negli Stati Uniti, i laboratori di ricerca di Harvard stavano muovendo i primi passi nelle tecniche di coltivazione della pelle umana. All'epoca era pura sperimentazione; oggi è una realtà clinica consolidata.
Nei casi più gravi, dove la superficie corporea è quasi totalmente distrutta, possiamo prelevare minuscoli frammenti di pelle residua e farli crescere in laboratorio. Si ottengono così sottili "fogli" di epitelio pronti per essere innestati.
Il grande vantaggio è che questo tessuto, essendo autologo (ovvero del paziente stesso), attecchisce definitivamente senza alcun rischio di rigetto. Tuttavia, è una procedura che richiede tempi lunghi di crescita, quindi il suo utilizzo va pianificato con estrema attenzione in base all'urgenza del quadro clinico».
Come si conciliano funzionalità ed estetica in un intervento di ricostruzione post-ustione?
«È bene chiarire che le procedure di emergenza servono a salvare la vita e ripristinare la funzionalità, non a ricostruire la pelle nella sua forma originale.
Gli innesti di cui abbiamo parlato sono privi del derma profondo, che conferisce elasticità, spessore e colore naturale. Di conseguenza, la pelle ricostruita può apparire diversa e tendere a retrarsi, causando limitazioni nei movimenti.
Per ovviare a questo problema, specialmente in zone critiche come il volto, le palpebre o le articolazioni, utilizziamo la tecnica dell'espansione cutanea.
Se vicino all'ustione c'è pelle sana, inseriamo sotto di essa dei dispositivi chiamati "espansori" che, gonfiati gradualmente, dilatano la cute normale fino a renderla sufficiente per coprire l'area lesa.
In questo modo, trasportiamo sulla ferita un tessuto identico per caratteristiche e colore a quello originale».
Si utilizzano tecniche di microchirurgia nel trattamento dei grandi ustionati?
«Certamente, sono fondamentali quando l'ustione è così profonda da esporre tendini, ossa o articolazioni. In questi casi un semplice innesto non sopravvivrebbe per mancanza di nutrimento. Dobbiamo quindi ricorrere ai lembi microchirurgici: preleviamo porzioni di tessuto da aree distanti del corpo insieme ai loro vasi sanguigni (arterie e vene).
Con l'ausilio del microscopio, colleghiamo questi vasi a quelli della zona ricevente, ripristinando immediatamente il flusso sanguigno. Questo garantisce la sopravvivenza del tessuto trasferito anche su superfici "difficili"».
Qual è la parte del corpo più complessa da trattare?
«Sebbene le tecniche siano ormai standardizzate in tutti i Centri Ustioni, il volto resta la sfida più ardua. È il nostro tratto distintivo e anche la minima deformazione incide pesantemente sulla percezione di sé e sulla vita sociale.
Sebbene oggi siamo in grado di ottenere ottimi risultati funzionali (permettere di chiudere gli occhi o muovere la bocca), il ripristino estetico totale è un traguardo per il quale la strada è ancora lunga».
Lo Xacduro (sulbactam-durlobactam) rappresenta l'ultima frontiera farmacologica nella lotta contro l'Acinetobacter baumannii, uno dei batteri più resistenti e letali identificati dall'OMS. La sua introduzione nel protocollo di cura per i pazienti di Crans-Montana è stata determinante: negli Stati Uniti, la Food and Drug Administration (FDA) ne ha già autorizzato l'uso per trattare polmoniti batteriche acquisite in ospedale (HABP) e associate a ventilazione (VABP).
Il farmaco combina il sulbactam (un antibiotico simile alla penicillina) con il durlobactam (un inibitore delle beta-lattamasi), che impedisce ai batteri di distruggere l'antibiotico stesso. Non essendo ancora approvato ufficialmente dall'AIFA, il farmaco è stato reperito tramite una collaborazione d'urgenza tra il Niguarda di Milano e l'Ospedale San Martino di Genova, sfruttando le scorte dedicate a protocolli speciali.
A differenza degli antibiotici a largo spettro, lo Xacduro è stato "progettato" specificamente per superare le difese dei ceppi multi-resistenti di Acinetobacter, offrendo una speranza concreta laddove le terapie tradizionali falliscono.
Le cellule staminali possono rappresentare una svolta?
«Le staminali, presenti in abbondanza nel grasso sottocutaneo, hanno la capacità teorica di trasformarsi in qualsiasi tipo di tessuto. Sebbene la prospettiva di "costruire" un organo nuovo partendo da zero sia affascinante, siamo ancora in una fase iniziale. Attualmente, queste procedure non sono ancora entrate nell'armamentario chirurgico quotidiano, ma rappresentano il futuro della ricerca».
Quali sono le frontiere più avanzate per resti tuire un aspetto normale a un paziente ustio nato?
«I principi base sono gli stessi, ma le tecniche si sono affinate incredibilmente. La novità più eclatante degli ultimi dieci anni è il trapianto di faccia da donatore cadavere. È una procedura estrema, eseguita solo in pochi centri al mondo, che richiede l'unione microchirurgica di vasi e nervi per restituire non solo l'aspetto, ma anche la mimica facciale. È una strada complessa, poiché il paziente deve assumere farmaci immunosoppressori per tutta la vita, con pesanti effetti collaterali.
In conclusione, il desiderio di un paziente di tornare ad avere l'aspetto di prima non è più una chimera. La scienza procede a passi che, visti nel tempo, sono straordinari: nel 1982, quando mi specializzai, il trapianto di faccia era pura fantascienza. Oggi è realtà». (M. A.).

In seguito al tragico incendio di Capodanno a Crans-Montana, è nata un'importante iniziativa di solidarietà che coinvolge la donazione di capelli per realizzare parrucche destinate ai pazienti giovani e adulti rimasti ustionati.
Numerosi parrucchieri in Canton Vallese, in Ticino e persino in Italia offrono il taglio e la piega gratuiti a chi decide di donare i propri capelli per questa causa.
La ciocca deve essere lunga almeno 20-25 cm (l'ideale sono 30-35 cm per parrucche più lunghe). L'iniziativa mira a restituire un senso di normalità e fiducia alle vittime dell'incendio, i cui bulbi piliferi sono stati danneggiati dal calore estremo, rendendo difficile o impossibile la ricrescita naturale.

Chirurgo di fama internazionale, il Professor Lucio Tirone è specialista in Chirurgia Plastica, Ricostruttiva ed Estetica, oltre che in Chirurgia della Mano.
Dopo la laurea presso l’Università Federico II di Napoli, ha conseguito la specializzazione in Chirurgia Plastica a Parma e quella in Microchirurgia presso la prestigiosa Harvard Medical School di Boston e presso il Massachusetts General Hospital.
Già docente presso la Scuola di Specializzazione in Chirurgia Plastica del Policlinico Universitario di Napoli, ha diretto per anni l'Unità Operativa di Chirurgia Plastica dell'Ospedale Villa dei Fiori di Acerra. Autore di circa cento pubblicazioni scientifiche e coautore di uno dei testi di riferimento per le scuole di specializzazione in Chirurgia Plastica, è celebre per la sua maestria negli interventi ricostruttivi complessi - in particolare su palpebre e naso - che esegue attualmente tra Napoli e Avellino.

L’ARTE DI GUARIRE: COME TRATTARE LE CICATRICI TRA SCIENZA E COSMESI
Non sono semplici segni sulla pelle, ma il racconto di una guarigione. Eppure, la visibilità di una cicatrice può condizionare il nostro rapporto con lo specchio. Capire come nascono è il primo passo per imparare a minimizzarle.
Biologicamente, una cicatrice è il risultato di un delicato equilibrio interrotto. La sua visibilità dipende da una sorta di "tempesta perfetta": come si distribuisce il collagene, quanto è stata intensa l’infiammazione, quanto sangue irrora la zona e quanta melanina vi si deposita.
Se questo equilibrio non è armonioso, il segno rimane evidente. Fortunatamente, la dermocosmetica moderna ci offre alleati preziosi per intervenire sui fattori chiave e migliorare drasticamente l'estetica della pelle.
1. Questione di spessore: la sfida del collagene
Per appiattire e uniformare una cicatrice, il segreto risiede nella modulazione del collagene. I gel e i fogli di silicone sono oggi i trattamenti più apprezzati dalla comunità scientifica, specialmente per cicatrici recenti o cheloidi. Creando una barriera che riduce la perdita d'acqua, "calmano" i fibroblasti ed evitano che producano collagene in eccesso: il risultato è una pelle più morbida e sottile. Per chi combatte con i segni dell'acne, invece, i retinoidi (come la tretinoina) sono i veri protagonisti, capaci di stimolare il turnover cellulare e riorganizzare la trama cutanea.
2. Spegnere il rosso: addio all'infiammazione
Una cicatrice arrossata è una cicatrice ancora "attiva". In ambito clinico, i corticosteroidi rappresentano l'intervento d'urto per inibire l'infiammazione e ridurne il rilie -
vo. Ma la natura non resta a guardare: estratti di centella asiatica, rosa mosqueta e germe di grano sono straordinari nel modulare la riparazione dei tessuti, accompagnando la ferita verso una guarigione più discreta e naturale.
3. Luce e uniformità: correggere il colore Spesso il problema non è la forma, ma il colore. Quando la cicatrice si presenta scura o discromica, entrano in gioco gli attivi schiarenti:
• Vitamina C: un potente antiossidante che inibisce la produzione eccessiva di pigmento e illumina la zona.
• Niacinamide: perfetta per ridurre la concentrazione di melanina e, contemporaneamente, lenire il rossore.
• Acido Azelaico: il miglior alleato contro le macchie post-acne, capace di uniformare l'incarnato con precisione chirurgica.
4. Il tocco finale: idratazione e protezione
Una pelle secca è una pelle che segna. Sostanze come l’acido ialuronico, la glicerina e il pantenolo (Vit. B5) non cancellano il segno, ma ne migliorano l'elasticità, rendendolo visivamente meno netto.
Tuttavia, ogni sforzo è vano senza la protezione solare. Un SPF 50 applicato rigorosamente per almeno 12 mesi è l'unica vera garanzia per evitare che i raggi UV "fissino" il colore della cicatrice, scurendola in modo permanente. Trattare una cicatrice richiede pazienza e costanza, ma con gli attivi giusti, quel segno può trasformarsi da inestetismo a un ricordo quasi invisibile. (C. C.).
BIOLOGI: NON PIÙ "FIGLI DI UN DIO MINORE".
COMPETENZE AMBIENTALI E DI
COMUNITÀ APRONO UNA NUOVA
ERA DI DIGNITÀ PROFESSIONALE
Il presidente della FNOB, Vincenzo D’Anna, ha illustrato le significative novità che stanno rivoluzionando la professione nel corso del meeting “Le frontiere dell’ecotossicologia 2026” tenutosi presso l’Università “Federico II” di Napoli
La figura del biologo diverrà sempre più centrale. Lo ha detto il Presidente della Federazione Nazionale degli Ordini dei Biologi (FNOB), Vincenzo D’Anna, che, in occasione del meeting “Le frontiere dell’ecotossicologia 2026” tenutosi il 23 gennaio scorso presso l’aula magna “L. Sorrentino” del dipartimento di Farmacia dell’Università “Federico II” di Napoli, ha illustrato le significative novità che stanno rivoluzionando la professione del biologo in Italia.
D’Anna ha sottolineato la necessità di una radicale ristrutturazione legislativa, data l'obsolescenza della precedente legge del 1967. Un focus particolare è stato posto sul ruolo strategico del biologo ambientale, che ottiene un riconoscimento senza precedenti. Per la prima volta, i biologi ambientali avranno la possibilità di accedere alla scuola di igiene pubblica ad indirizzo ambientale, «ed è la prima volta che i biologi ambientali possono accedere a questa tipologia di scuole - ha dichiarato D'Anna -, aprendo le porte a ruoli nelle direzioni sanitarie e nei dipartimenti di prevenzione».
Le competenze riconosciute spaziano dall'analisi degli
ecosistemi acquatici e territoriali, alla salvaguardia della biodiversità, alla valutazione di impatto ambientale fino alla gestione di laboratori ambientali e alla certificazione. Guardando al futuro, è stato annunciato un "albero delle opportunità" dotato di intelligenza artificiale, che guiderà i biologi attraverso le circa 80 diverse attività professionali disponibili.
Un progetto ambizioso, il "biologo di comunità", mira a inserire i biologi negli enti locali (Comuni, Province, Regioni) per svolgere una molteplicità di funzioni, dalla gestione di parchi e giardini, alla depurazione delle acque, allo smaltimento dei rifiuti, all'igiene alimentare e alle diete nelle mense scolastiche. Il presidente D'Anna ha concluso sottolineando l'importanza di formare i giovani biologi non solo con un solido bagaglio teorico, ma soprattutto con i rudimenti pratici della professione, affinché possano rispondere efficacemente alla domanda cruciale del mercato del lavoro: «tu che sai fare?».
Tra i promotori del convegno Anna De Marco, docente di ecologia ed ecotossicologia presso il Dipartimento di Farmacia dell'Università Federico II di Napoli: «la biologia

studia la vita e lo studio della vita non può prescindere dalla valutazione della qualità ambientale - ha dichiarato De Marco -. L'ambiente è tutto ciò che contiene la vita, quindi il biologo ha un ruolo essenziale nella valutazione della qualità dell'ambiente e di conseguenza della nostra salute».
La docente sottolinea l'importanza dell'approccio "One Health", affermando che «Oggi si parla tanto di approccio “One Health” ed è proprio questo il senso del biologo e del biologo ambientale, cioè assicurare la salvaguardia e la qualità dell'ambiente per essere certi della qualità della nostra vita e della nostra salute». In questo contesto, l'e -
cotossicologia si rivela una disciplina cruciale. Tra i relatori anche Giorgio Gilli professore emerito di Igiene presso l'Università di Torino che ha sottolineato: «La chimica analitica consente l’identificazione di un gran numero di molecole in matrici ambientali (acque e aria), ma opera prevalentemente in modo monoparametrico.
La biologia, grazie ai suoi progressi, offre strumenti per valutare gli effetti biologici complessivi delle miscele, fornendo una prospettiva integrata cruciale per comprendere l’impatto sulla salute umana e orientare la costruzione di norme a livello nazionale e internazionale». «L’analisi chimica è straordinaria ma monoparametrica. La biologia valuta gli effetti di miscele e gli esiti biologici sull’organismo. Pertanto, è necessario integrare i risultati chimici con strumenti biologici di laboratorio, aggiornando le normative nazionali e internazionali per riflettere questi avanzamenti, come richiamato anche nella prolusione del Presidente D'Anna».
L’obiettivo è passare dalla mera identificazione alla valutazione dell’impatto sull’organismo. (M. A.).
Il Corso di Laurea Magistrale in Tossicologia Chimica e Ambientale (TCA) del Dipartimento di Farmacia dell’Università degli Studi di Napoli Federico II - Unina – offre una formazione unica e innovativa per affrontare le sfide ambientali del nostro tempo. Con un approccio interdisciplinare, il corso, diretto dalla professoressa Anna De Marco, combina le conoscenze di chimica, biologia, ecologia e diritto per formare specialisti in grado di gestire e risolvere i problemi ambientali.
La sostenibilità ambientale al centro del percorso formativo. Il Corso di Laurea Magistrale in TCA risponde alla crescente richiesta della società e del mercato di figure professionali con competenze analitiche, valutative e gestionali in ambito Ambientale, Biotossicologico ed Ecotossicologico. Il corso si concentra sulle tematiche più attuali, come l’inquinamento ambientale, la contaminazione da microplastiche, il trattamento dei rifiuti e la dispersione di prodotti chimici ed i loro effetti sull’ecosistema e nell’uomo.
Le materie di studio:
• Chimica delle matrici ambientali e loro analisi
• Biochimismo
• Biotossicologia
• Ecotossicologia
• Fisiopatologia
• Legislazione ambientale
• Geochimica ambientale
Profilo: I laureati in TCA saranno in grado di ricoprire ruoli di:
• Direzione, gestione e coordinazione dei processi volti alla salvaguardia della biosfera e al monitoraggio dei rischi chimici, biologici e tossicologici in enti pubblici o privati predisposti
• Specialista nelle strutture pubbliche o private destinate al recupero, al risanamento e alla bonifica chimico-fisica nonché microbiologica di aree particolarmente rischiose per la salute dei cittadini
• Ricercatore in Istituti pubblici o privati nazionali ed internazionali focalizzati sullo studio dell’ambiente e delle possibili fonti di rischio per la salute dei cittadini

La missione della giovane ricercatrice è ambiziosa: trasformare il sistema immunitario in una "squadra intelligente" capace di comunicare, cooperare e sconfiggere malattie finora considerate inattaccabili
VELIA SICILIANO: LA BIOLOGIA SINTETICA E LA SFIDA AI TUMORI SOLIDI. «NON ARRENDERSI
MAI, IL FALLIMENTO FORGIA IL CARATTERE»

V“elia Siciliano è una ricercatrice italiana che lavora presso l’Istituto Italiano di Tecnologia (IIT) di Napoli, dove dirige il laboratorio di Biologia Sintetica e di Sistemi per la Biomedicina. È una scienziata a tutto tondo. Solerzia, passione e resilienza sono i tratti distintivi della sua personalità, che non si abbatte dinanzi ad alcun ostacolo. Una donna che ama il lavoro di squadra e la sana competitività, che non è mai arrivismo o arroganza. Il suo motto è: mai arrendersi. Un fallimento o una porta chiusa in faccia sono esperienze che forgiano il carattere e incitano a fare di più, percorrendo nuove strade.
In questa intervista a cuore aperto, Velia Siciliano ci svela il fulcro della sua ricerca “TeaM”, che ha ottenuto un finanziamento di oltre 2 milioni di euro dall’European Research Council (ERC) e che si concentra sull'applicazione della biologia sintetica per sviluppare nuove terapie contro i tumori, utilizzando cellule immunitarie come i linfociti T e i macrofagi. Un lavoro intenso, fatto di ore in laboratorio, ma anche di gioco di squadra e multidisciplinarietà.
Dottoressa Siciliano, partiamo da una domanda che può apparire retorica: da tempo la Federazione Nazionale degli Ordini dei Biologi - e in particolare il suo presidente, Vin cenzo D'Anna - sostiene che la biologia sia la scienza del terzo millennio. È d’accordo?
«Assolutamente sì. La biologia è il cardine centrale intorno a cui si muovono, come satelliti, le altre discipline. Immagino la biologia come un grande ombrello sotto cui tante altre scienze si integrano e cooperano per migliorare la qualità della vita degli esseri umani».
Come ha deciso di intraprendere la carriera nella ricerca e cosa l’ha ispirata?
«Quando ho iniziato, da neolaureata nel 2006, mi sono trovata dinanzi a una disciplina nuova, nata intorno agli anni 2000 per progettare e costruire sistemi biologici inediti, come circuiti genetici, cellule e organismi. Ho incontrato ingegneri che definisco “visionari”, capaci di vedere oltre il possibile. Oggi la biologia sintetica crea soluzioni innovative non solo in campo medico e farmaceutico, ma anche industriale e ambientale: si va dall'uso di microrganismi per produrre energia rinnovabile o ripulire l’inquinamento, fino all'agricoltura, con la creazione di piante più resistenti. Il mio settore specifico riguarda lo sviluppo di nuove terapie attraverso l'ingegnerizzazione di cellule immunitarie per combattere i tumori».
In che modo la biologia sintetica cambierà il nostro ap proccio alle malattie?
«Perché aiuta a leggere la complessità. Nella ricerca siamo sempre stati settoriali, ma oggi la chiave è la multidisciplinarietà. Il nostro progetto integra la biologia sintetica

con altre materie: la fisica e la chimica restano le fondamenta; l’ingegneria fornisce gli strumenti per costruire i “recettori sintetici”; l’informatica e l’Intelligenza Artificiale vengono utilizzate per realizzare un “codice”, un linguaggio che permetta a macrofagi e cellule T di comunicare».
Veniamo alla sua ricerca sulla "sinapsi arti ficiale" per contrastare i tumori solidi. Può spiegarci come funziona questa tecnologia?
«L’idea è agire su due classi di cellule, coordinandole. Il lavoro punta a unire i linfociti T, che devono uccidere le cellule malate, e i macrofagi, che nei tumori solidi possono “tradire" l’organismo favorendo la crescita della massa. La svolta è data dai “recettori sintetici” (a base di DNA e proteine) disegnati nei nostri laboratori all'IIT. Questi funzionano come un “ponte molecolare” che permette ai linfociti T di agganciarsi ai macrofagi e inviare loro segnali biochimici specifici. La nostra sfida è far sì che questo ponte si attivi esclusivamente nell’ambiente tumorale».
Come viene garantita questa precisione?
«Grazie a circuiti genetici intelligenti (logic gates), le cellule vengono programmate per attivare la funzione distruttiva solo quando rilevano contemporaneamente più segnali tipici del tumore, evitando di colpire i tessuti sani. Una volta stabilito il contatto tramite il ponte sintetico, i linfociti T “istruiscono” i macrofagi a cambiare natura: da alleati del tumore di -
ventano suoi nemici. L’organismo scatena così un attacco coordinato, potente e mirato».
È questa la strada per superare i limiti delle attuali immunoterapie?
«Lo credo fortemente. Questa architettura rappresenta una delle applicazioni più avanzate della biologia sintetica per superare l’ostilità dei tumori solidi. Lavoriamo su modelli pre-clinici avanzati per superare i limiti delle attuali CAR-T, efficaci nei tumori del sangue ma in difficoltà contro quelli solidi a causa della scarsa infiltrazione e della tossicità "off-target". Ci stiamo concentrando sul tumore ovarico, con i primi test anche sul melanoma».
Nella pratica, come si attua questa terapia?
«L’obiettivo è estrarre dal sangue del paziente entrambi i “guerrieri”: cellule T e macrofagi. All'IIT di Napoli modifichiamo geneticamente entrambe le classi inserendo i recettori sintetici, che fungono da software di comunicazione. Una volta re-infuse, le cellule non agiscono più isolate: quando una cellula T incontra un macrofago nei pressi del tumore, il "ponte" permette loro di dialogare.
La cellula T istruisce il macrofago a distruggere la barriera protettiva del tumore, permettendo alla cellula T di penetrare e uccidere le cellule cancerose. Il tumore perde così i suoi alleati e non può più ingannare il sistema immunitario».
Quali sono i prossimi passi e quando arrive ranno i trial clinici?
«Il finanziamento dell’ERC copre 5 anni, durante i quali consolideremo i modelli pre-clinici in vivo per dimostrare sicurezza ed efficacia. L’obiettivo è arrivare ai trial clinici sull'uomo allo scadere di questo periodo. Sarà necessario trovare investitori che scommettano sul prodotto per l'immissione sul mercato; come IIT, siamo molto orientati verso la creazione di start-up».
Come pensa che il Suo progetto possa essere applicato ad altre aree della medicina o della ricerca?
«Scommetto sulla terapia multi-cellulare come il prossimo grande salto tecnologico dopo il successo delle CAR-T. La biologia sintetica è una tecnologia estremamente versatile
© Blackboard/shutterstock.com
e applicabile a diversi ambiti della medicina. Il nostro lavoro si basa sulla creazione di un vero e proprio linguaggio di programmazione che possiamo ridisegnare per altri contesti, come le neuroscienze, le malattie neurodegenerative - ad esempio la sclerosi multipla - o le patologie autoimmuni e metaboliche, come il diabete di tipo 1».
Quali sono stati i momenti più importanti del la Sua carriera e come hanno influenzato il Suo lavoro attuale?
«In primis, la scelta del dottorato di ricerca in Biologia Sintetica. Fondamentale per la mia formazione è stata la figura di Diego Di Bernardo, mio mentore durante il percorso al Telethon Institute of Genetics and Medicine (TIGEM). Sotto la sua guida ho svolto le prime ricerche nel campo della biologia sintetica e dei sistemi, focalizzandomi sulla bioingegneria dei sistemi biologici. Insieme abbiamo collaborato a pubblicazioni scientifiche sulla progettazione e il controllo di circuiti genetici in cellule di mammifero.
Dopo l'esperienza al TIGEM, ho proseguito all'MIT di Boston, che per me è stata una vera palestra di vita: lì nulla viene tralasciato e ogni idea, anche la più apparentemente strampalata, viene presa seriamente in considerazione. Successivamente ho deciso di tornare in Europa, prima all'Imperial College di Londra e infine in Italia, come Principal Investigator presso l'Istituto Italiano di Tecnologia. Ho ricevuto un'ottima proposta con un budget che consente a me e al mio team di fare ricerca ad alti livelli».

VQuali consigli darebbe ai giovani ricercatori che vogliono intraprendere questo percorso?
«Consiglierei di allenarsi al fallimento: bisogna imparare a cadere e a non abbattersi al primo ostacolo. Poi, farsi guidare da una sana ambizione, dote fondamentale per raggiungere i propri obiettivi. Non si deve diventare scienziati "per forza"; la passione è la qualità che cerco in un giovane, perché la passione cancella parole come "sacrificio" o "rinuncia".
Io, ad esempio, pur lavorando moltissimo, sento di non aver rinunciato a nulla: ho frequentato i miei amici, uscivo la sera. Anche l'ambiente lavorativo è stato un'occasione di arricchimento umano.
Penso alle notti trascorse in laboratorio a Boston aspettando i risultati di un esperimento: se hai quella voglia febbrile di vedere il frutto del tuo lavoro, non senti il peso delle ore. Infine, credo che aiuti molto la mentalità che deriva dallo sport anche agonistico. A me la pallavolo ha insegnato il valore del gioco di squadra e la capacità di metabolizzare le sconfitte. Per questo consiglio sempre ai giovani di praticare una disciplina sportiva».
Qual è il Suo punto di vista sul futuro della ricerca in biologia sintetica e immunologia?
«Sono convinta che la biologia sintetica rappresenti il futuro e che l'Italia debba investire con decisione in questo campo. Attualmente siamo ancora poche realtà; il mio augurio è che, tra qualche anno, saremo in molti di più a occuparcene, creando un ecosistema sempre più forte». (M. A.).
elia Siciliano è una delle voci più autorevoli e innovative nel panorama della Biologia Sintetica internazionale. Napoletana di origine e cittadina del mondo per formazione, dal 2017 guida il Synthetic and Systems Biology for Biomedicine Lab presso il centro dell'Istituto Italiano di Tecnologia (IIT) di Napoli. Il suo percorso accademico è segnato dall'eccellenza e dal desiderio di superare i confini della biologia tradizionale. Le radici al TIGEM: Sotto la guida del suo mentore Diego Di Bernardo, muove i primi passi nella bioingegneria dei sistemi, imparando a "programmare" le cellule come se fossero circuiti elettronici. L’esperienza internazionale: Si trasferisce negli Stati Uniti per un post-dottorato al MIT (Massachusetts Institute of Technology), all'interno del prestigioso Synthetic Biology Center, dove affina l'approccio visionario e la resilienza necessari per la ricerca di frontiera. Prosegue poi la sua carriera nel Regno Unito, presso l'Imperial College di Londra, prima di rispondere alla chiamata del "rientro dei cervelli" in Italia. I successi e i finanziamenti: La sua ricerca ha ottenuto i più alti riconoscimenti europei, tra cui ben tre grant dell’European Research Council (ERC). L’ultimo, il progetto TeaM, ha ricevuto oltre 2 milioni di euro per sviluppare una nuova generazione di terapie immunologiche contro i tumori solidi. Scienziata, ex pallavolista e convinta sostenitrice del lavoro di squadra, Velia Siciliano incarna un modello di ricerca che non teme il fallimento, ma lo usa come trampolino di lancio per l'innovazione.
Un settore emergente che aprirà nuove strade per la categoria Lo studio del comportamento di virus e batteri in assenza di gravità aiuterà la qualità della vita sulla Terra

Il presidente della Fnob, Vincenzo D'Anna, al convegno "La Biomedicina e la biotecnologia nello spazio” convegno organizzato il 14 gennaio 2026 dal dipartimento di Benessere, salute e sostenibilità ambientale dell’Università di Roma “Sapienza”.

E L’UMANITÀ
a migliorare

“La Biomedicina e la biotecnologia nello spazio” è il titolo del convegno organizzato lo scorso 14 gennaio 2026 dal dipartimento di Benessere, salute e sostenibilità ambientale dell’Università di Roma “Sapienza”, negli spazi della Casa dell’Aviatore. Per la Fnob erano presenti il presidente Vincenzo D’Anna, il vicepresidente Alberto Spanò e il direttore Pasquale Piscopo.
«Il tema di oggi – ha detto Vincenzo D’Anna – è particolarmente caro ai biologi. La Fnob nell’ultimo periodo ha investito risorse affinché i biologi possano impegnarsi attivamente nel campo della biomedicina e della biotecnologia spaziale, una nuova e promettente frontiera professionale».
La Federazione ha infatti recentemente finanziato delle borse di studio per favorire la formazione di biologi che opereranno all’interno di due mini-laboratori nei quali verranno condotti studi in condizioni di microgravità. Un laboratorio sarà dedicato a verificare la possibilità di coltivare grano sul suolo lunare, utile a sostenere la vita umana nello spazio. L’altro si occuperà della crescita e dello sviluppo di batteri, virus e funghi che crescono nel nostro intestino, per comprendere il funzionamento del corpo umano durante le missioni. Il progetto è figlio della collaborazione che l’Ente ha sottoscritto con l’Asi (Agenzia spaziale italiana) e con il gruppo Space Factory (leader per la progettazione e sviluppo di tecnologie innovative che sfrutta le potenzialità del settore spaziale per promuovere innovazione sulla Terra).
La ricerca scientifica in condizioni di microgravità sta da tempo ampliando gli orizzonti delle scienze biologiche e della ricerca. Un recente esperimento condotto a bordo della Stazione Spaziale Internazionale (ISS), pubblicato sulla rivista internazionale Plos Biology, ha infatti dimostrato che in assenza di gravità i microrganismi sono soggetti a regole evolutive diverse rispetto a quelle terrestri. I ricercatori si sono accorti che un’infezione virale semplice, nello spazio assume caratteristiche completamente nuove, poiché i virus e batteri sono in grado di modificare le loro strategie di sopravvivenza e adattarsi al nuovo contesto. Le infezioni così diventano più lente, ma continue, e il patrimonio genetico del patogeno si modifica presentando mutazione nuove e totalmente diverse da quelle terrestri.
«Quella che si presenta davanti a noi è un’esperienza unica - prosegue D’Anna – che dimostra come l’Italia sia, ancora una volta, all’avanguardia nella sperimentazione delle life-sciences e dei farmaci del futuro. L’auspicio è che possano presto costituirsi percorsi di studio finalizzati ad avvicinare i biologi al settore delle bioscienze spaziali».
In quest’ottica, la Fnob è in procinto di organizzare un evento scientifico che tratti proprio questi argomenti, affinché gli iscritti attenzionino questa nuova branca occupazionale.

ATTIVA LA NUOVA AREA RISERVATA “MYBIO”
Tra le novità c’è la premialità basata sull’utilizzo e sul punteggio rating
di Vincenzo D’Anna Presidente della Fnob

Cari Colleghi, è attiva la nuova area riservata “MyBio” dedicata esclusivamente ai biologi iscritti all’Albo.
Tra le novità, quella che riguarda l’assegnazione di un punteggio, detto Rating, che verrà assegnato a coloro che, a partire da febbraio prossimo, utilizzeranno maggiormente le funzionalità di questo spazio web dedicato. Si tratta di premiare chi segue e si informa sulle attività e la vita stessa della Federazione Nazionale degli Ordini Regionali, favorire coloro che vogliono essere parte attiva ed avveduta della Categoria che continua ad essere estranea per molti iscritti. Un incentivo per fidelizzare e responsabilizzare i Biologi Italiani.
Qui di seguito il dettaglio, sui criteri che determinano l’assegnazione del Rating per ciascun iscritto:
• 1 punto per l’accesso all’area riservata;
• 5 punto per la lettura del Giornale dei Biologi,
• 2 punti per la lettura di mail, pec e news,
• 10 punti per l’avvenuta iscrizione e partecipazione agli eventi Fnob.
Il biologo che raggiungerà la soglia rating di 70 punti, riceverà delle premialità, come il diritto di precedenza nell’iscrizione e nella partecipazione a eventi, corsi e convegni Ecm o Fad organizzati dalla Fnob, la possibilità di accedere alle scuole di formazione sul campo organizzate dalla Fondazione Italiana Biologi (Fib), la pubblicazione di un proprio articolo scientifico (preventivamente concordato e valutato dal comitato di redazione e dal Comitato centrale della Federazione) sul webmagazine “Giornale dei Biologi”, l’assegnazione di contributi e borse di studio per master e summer school.
© maybeiii/shutterstock.com
La legge di Bilancio 2026 (legge n. 199 del 30 dicembre 2025) porta il finanziamento della sanità a 142,9 miliardi di euro, con un incremento di 6,3 miliardi rispetto al 2025. Le nuove risorse sono destinate in via prioritaria al recupero delle liste d’attesa, al rafforzamento del personale, alla prevenzione e al consolidamento del Servizio sanitario nazionale nella fase post-PNRR.
Nel periodo 2022-2026 i fondi per la sanità sono cresciuti complessivamente di 17,7 miliardi (+14,1%). L’andamento

resterà positivo anche nel biennio successivo: il Fondo sanitario nazionale aumenterà di 2,631 miliardi nel 2027 e di 2,633 miliardi nel 2028, livelli che saranno confermati negli anni successivi. Tra le principali novità, la possibilità per gli enti dei servizi sanitari regionali di assumere personale a tempo indeterminato in deroga agli attuali vincoli. Le Regioni potranno inoltre rafforzare le risorse destinate a premi e indennità per il personale dei pronto soccorso. Sono introdotte indennità di specificità per medici, veterinari, infermieri e operatori socio-sanitari, mentre viene estesa
Primo Piano
SANITÀ: MANOVRA DA 143 MILIARDI
La legge di Bilancio 2026 porta un incremento di 6,3 miliardi rispetto allo scorso anno. Le nuove risorse saranno destinate al recupero delle liste d’attesa, al rafforzamento del personale e alla prevenzione

anche agli infermieri delle strutture private accreditate la tassazione agevolata al 5% sugli straordinari. Sul fronte della spesa sanitaria, cambiano i tetti per la farmaceutica, sia per gli acquisti diretti sia per la convenzionata. Viene inoltre introdotto un nuovo limite di spesa per i dispositivi medici, in risposta alla crescente innovazione tecnologica e alla necessità di rinnovare il parco apparecchiature.
La manovra stanzia 100 milioni per l’adeguamento delle tariffe ambulatoriali e 1 miliardo per la revisione delle tariffe di ricovero e riabilitazione. Ampio spazio alla prevenzione: sono previsti interventi su screening mammografici e colon-rettali, estensione dei test genomici, rafforzamento degli screening neonatali e di quelli legati all’inquinamento ambientale, oltre a misure per la medicina di precisione, la salute mentale e le cure palliative.
Per rendere più efficiente l’uso delle risorse, entro il 31 marzo 2026 un decreto del Ministero della Salute, di concerto con il MEF, definirà nuove regole di riparto del Fondo sanitario nazionale, con verifiche sull’effettivo utilizzo dei fondi per le finalità assistenziali previste. Le farmacie
pubbliche e private convenzionate vengono riconosciute a pieno titolo come strutture del SSN e potranno erogare prestazioni sanitarie secondo criteri definiti dal Ministero, con particolare attenzione alle aree rurali e disagiate.
L’AIFA dovrà aggiornare annualmente il Prontuario terapeutico nazionale. Cresce inoltre il tetto di spesa per l’acquisto di prestazioni dai privati accreditati, che dal 2026 aumenta dell’1% rispetto ai limiti fissati dalla Spending Review. Spinta anche alla sanità digitale: saranno realizzate infrastrutture per lo scambio transfrontaliero dei dati sanitari in ambito UE, interconnesse con il Sistema Tessera Sanitaria. AGENAS rafforzerà la telemedicina, dotando i professionisti di strumenti idonei al monitoraggio dei pazienti. Aumentano infine i fondi per i bambini affetti da patologie oncologiche ed epilessia e viene potenziata l’assistenza domiciliare integrata per i pazienti cronici complessi, con linee guida nazionali sulle dimissioni protette. Sul fronte delle proroghe, il Milleproroghe estende al 31 dicembre 2026 lo scudo penale per i professionisti sanitari, limitando la responsabilità ai casi di colpa grave. Confermato il limite di 68 anni per la nomina dei direttori generali di ASL ed enti del SSN e prorogate alcune deroghe alle incompatibilità per diverse professioni sanitarie. Per il recupero delle liste d’attesa, nel 2026 restano possibili incarichi a termine e collaborazioni con medici specializzandi. Infine, diventa strutturale l’esonero dalla fatturazione elettronica per le prestazioni sanitarie rese a persone fisiche: una misura che, a differenza degli anni precedenti, non richiede più proroghe annuali. Il provvedimento non interviene invece sul riordino della rete dei laboratori, mentre risultano rinnovate tutte le tutele previdenziali per biologi, medici, infermieri, tecnici e veterinari.
Primo Piano

© VGstockstudio/shutterstock.com
LA CORTE COSTITUZIONALE
LEGITTIMA LA PRESENZA DEL BIOLOGO NUTRIZIONISTA
NEI CENTRI PER LA CURA DEI DCA
Con la sentenza 4/2026, la Corte Costituzionale ha legittimato la presenza del Biologo nutrizionista nei centri per la cura dei Disturbi del Comportamento Alimentare (DCA). Si aggiunge così, ad una già consolidata e folta giurisprudenza, una ulteriore importantissima sentenza.
La decisione è riferita al ricorso
promosso dal Presidente del Consiglio dei Ministri che intendeva dichiarare l’illegittimità dell’articolo 117 della legge della Regione Puglia 31 dicembre 2024, n. 42, nella quale veniva inserita la figura professionale del Biologo Nutrizionista negli organici della Rete di assistenza per i Disturbi del Comportamento Alimentare.
La sentenza, oltre a richiamare
Confermate le competenze e la necessita di avere negli organici del SSN il Biologo Nutrizionista: così la Sentenza 4/2026
leggi e normative dello stato, tra cui la legge n. 396 recante “Ordinamento della professione di biologo”, fa riferimento anche ai Regolamenti emanati dall’Ordine Nazionale dei Biologi, nell’anno 2019, confermati e aggiornati oggi dalla Federazione Nazionale degli Ordini dei Biologi (FNOB,) che individuano codici di attività per il Biologo Nutrizionista, specificando le competenze e gli ambiti professionali a lui attribuiti.
Sempre nella stessa Sentenza si legge che in piena autonomia il Biologo, come il Medico, può elaborare diete e fornire consulenze nutrizionali.
Primo Piano

“ BLERINA JANCE, LA BIOLOGA DEL SAN GERARDO PREMIATA
PER LA SCOPERTA SULLA
PSEUDOIPERKALIEMIA FAMILIARE
Sospetto nato da un esame di routine: così un valore di potassio “fuori scala” ha portato a individuare una rara variante genetica ereditaria
di Emanuela Birra
Dott.ssa Jance, il suo lavoro è stato premiato per aver por tato alla diagnosi di una rara variante genetica ereditaria. Com’è nato tutto da un esame di routine e qual è stato il segnale che le ha fatto capire che “qualcosa non tornava”?
Tutto è iniziato da un esame di routine eseguito presso il nostro centro prelievi. Al paziente sono stati prelevati contemporaneamente due campioni: uno per l’emogasanalisi e uno per i test di biochimica. Il dato che ha immediatamente attirato la nostra attenzione è stato un valore di potassio estremamente elevato rilevato dall’emogasanalizzatore, un risultato chiaramente incompatibile con il quadro clinico del paziente, che era stabile e completamente asintomatico.
Il vero campanello d’allarme, però, è scattato nel momento in cui abbiamo confrontato questo dato con il potassio sierico, che risultava perfettamente nei limiti di normalità. Una discrepanza così marcata tra due misurazioni dello stesso parametro non è fisiologicamente plausibile e rappresenta un chiaro segnale di possibile interferenza preanalitica. In quel momento abbiamo capito che non ci trovavamo di fronte a una vera iperkaliemia, ma a un fenomeno artefattuale che meritava un’analisi approfondita.
Facciamo chiarezza: che cos’è la pseudoiperkaliemia fami liare, perché il potassio risulta alto “solo in apparenza” e quali persone o famiglie può riguardare?
La Pseudoiperkaliemia Familiare è una rara condizione ereditaria a trasmissione autosomica dominante, causata da mutazioni del gene ABCB6, che codifica una proteina
presente sulla membrana dei globuli rossi.
In questi soggetti, gli eritrociti presentano una aumentata permeabilità al potassio quando il sangue viene conservato a basse temperature. Il risultato è una fuoriuscita di potassio dalle cellule verso il plasma in vitro, che genera un valore falsamente elevato al momento della misurazione. Nel paziente, però, il potassio circolante è normale e non esiste un reale rischio clinico.
Questa condizione può riguardare singoli individui o più membri della stessa famiglia e spesso rimane sconosciuta, proprio perché è silente e si manifesta solo in particolari condizioni di laboratorio.
LA PSEUDOIPERKALIEMIA FAMILIARE
È UNA RARA CONDIZIONE EREDITARIA A TRASMISSIONE AUTOSOMICA DOMINANTE, CAUSATA DA MUTAZIONI DEL GENE ABCB6, CHE CODIFICA UNA PROTEINA PRESENTE SULLA MEMBRANA DEI GLOBULI ROSSI
Quando ha capito che non era un’anomalia qualsiasi ma un indizio di qualcosa di più grande, qual è stato il suo primo pensiero?
Il primo pensiero è stato legato alla responsabilità del laboratorio: evitare un errore diagnostico potenzialmente pericoloso per il paziente. Un valore di potassio così eleva -

to può indurre a interventi terapeutici urgenti e invasivi che, in questo caso, sarebbero stati del tutto inutili e persino dannosi. Dal punto di vista scientifico, invece, è stato subito evidente che ci trovavamo di fronte a un caso estremamente istruttivo: un esempio concreto di quanto la fase preanalitica e il contesto clinico siano determinanti nell’interpretazione dei risultati. Da lì è nato l’obiettivo di studiare il fenomeno in modo rigoroso, riproducibile e documentabile.
Quanto hanno pesato anamnesi, con testo clinico e confronto tra profes sionisti per arrivare a una diagnosi certa?
Hanno avuto un ruolo fondamentale. Senza un’attenta anamnesi, che escludeva patologie ematologiche, oncologiche o condizioni cliniche compatibili con una vera iperkaliemia, il dato di laboratorio avrebbe potuto apparire credibile. Determinante è stato anche il confronto continuo tra professionisti: biologi, medici di laboratorio e clinici. La diagnosi non nasce mai da un singolo valore numerico, ma da un
dialogo strutturato tra competenze diverse. In questo caso, il laboratorio non si è limitato a “validare un numero”, ma ha interpretato il risultato alla luce del paziente, del contesto clinico e dei processi preanalitici.
Questa esperienza può diventare un protocollo replicabile nei laboratori? Cosa manca oggi per intercettare più spesso casi simili?
Assolutamente sì, ed è uno degli aspetti più importanti di questo lavoro. Esperienze come questa possono e devono essere tradotte in procedure operative replicabili.
È fondamentale porre una grande attenzione alla fase preanalitica: servono protocolli chiari di gestione dei campioni, una formazione mirata del personale, massima attenzione quando i risultati non sono coerenti con il contesto clinico e, soprattutto, una comunicazione tempestiva ed efficace tra laboratorio e clinico.
Come sottolinea spesso il Prof. Plebani, il laboratorio non produce solo ‘’numeri e risultati’’, ma informazioni, come emerge da questo caso clinico.
© Lia Koltyrina/shutterstock.com
“
NANOMOTION SENSING UN NUOVO ALLEATO CONTRO LE INFEZIONI BATTERICHE
Intervista con Giovanni Longo, ricercatore del Cnr e coordinatore dello studio - pubblicato su Scientific Reports - che ha messo a punto una tecnica all’avanguardia per svelare in tempo reale il comportamento dello Staphylococcus aureus, un patogeno noto per la sua resistenza agli antibiotici

Dottor Longo, che cosa rende questo studio pionieristico rispetto alle ricerche precedenti e perché avete scelto pro prio Staphylococcus aureus come modello di studio?
Lo studio nasce da una collaborazione tra il gruppo della professoressa Frangipani (Dipartimento di Scienze Biomolecolari, Università di Urbino), il laboratorio diretto dal professor Bettati (Laboratorio di Biofisica e Fisica Medica, Università di Parma) e il Biotech@ISM del CNR, che coordino con il dottor Girasole. Si tratta di un’applicazione innovativa del nanomotion sensor per analizzare l’impatto della disponibilità di ferro su Staphylococcus aureus.
Questo batterio è un Gram-positivo versatile e resiliente, capace di causare da infezioni cutanee a condizioni letali come sepsi e polmonite. La sua nota resistenza agli antibiotici lo rende un membro chiave dei patogeni “ESKAPE”, i più pericolosi per la salute globale.
Che cos’è il nanomotion sensor e come funziona?
Il nanomotion sensor, sviluppato da me nel 2013, sfrutta la sensibilità di sensori nanomeccanici per studiare il comportamento microbico in tempo reale, a livello di singola cellula. Immobilizziamo batteri vivi sul sensore monitorando le fluttuazioni indotte dalle loro vibrazioni.
Il sistema è talmente sensibile da tradurre forze minime in segnali misurabili, nell’ordine dell’energia prodotta dall’idrolisi di appena tre molecole di ATP, su scale nanometriche non raggiungibili con altre tecniche.
Queste oscillazioni rivelano l’attività metabolica del bat-
di Ester Trevisan

terio: è come osservare una persona su un trampolino, dove ogni minimo movimento si trasferisce in oscillazioni visibili.
In che cosa questa tecnica differisce dai metodi tradiziona li per studiare i batteri?
Le tecniche tradizionali, soprattutto quelle basate sulla crescita batterica, forniscono conoscenze essenziali, ma spesso mancano della risoluzione temporale necessaria per catturare cambiamenti rapidi, richiedendo ore o giorni per i risultati. Il nanomotion sensor offre informazioni rapide, valutando vitalità e risposta a stimoli o farmaci molto prima che sia visibile una crescita. Inoltre, permette di osservare, in tempo reale, come il batterio reagisce agli stimoli ambientali.
Che tipo di informazioni nuove vi ha permesso di osservare?
Abbiamo identificato il fingerprint del percorso di assunzione del ferro confrontando un ceppo selvatico di S. aureus con un mutante incapace di produrre siderofori (molecole che catturano il ferro). In assenza di ferro, entrambi i ceppi interrompono l’attività. Esposti nuovamente al nutriente, il ceppo selvatico mostra una normale crescita esponenziale, mentre il mutante, dopo una reazione iniziale, si blocca. Sorprendentemente, in presenza di ferro, entrambi i ceppi mostrano oscillazioni coordinate a frequenze definite (circa 2 Hz e 10 Hz), correlabili a specifici comportamenti metabolici.
In che modo la disponibilità di ferro modifica concreta mente il comportamento del batterio?
Il ferro è un micronutriente essenziale per la crescita e la virulenza di S. aureus: senza di esso i batteri si indeboliscono e “muoiono di fame”. Abbiamo osservato che, senza siderofori, i mutanti hanno solo una capacità transitoria di rispondere all’afflusso di ferro, fallendo nell’attivare i cicli necessari per una crescita sostenuta. Il ceppo selvatico, invece, reagisce rapidamente aumentando le oscillazioni e
avviando la replicazione. Ciò conferma che i siderofori sono cruciali per l’acquisizione del ferro e supporta l’efficacia di farmaci che colpiscano questo ciclo vitale.
Quali sono i prossimi passi della vostra ricerca dopo questo studio?
Vogliamo incorporare i protocolli sviluppati nell’arsenale dei test microbiologici standard. L’obiettivo è usare il sensore per testare inibitori e strategie terapeutiche che agiscano sui processi metabolici legati all’acquisizione di micronutrienti, come le vie di acquisizione del ferro. Il sensore può validare nuovi antibiotici o batteriofagi su scale temporali molto più rapide delle tecniche convenzionali.
Il nanomotion sensor può essere applicato anche ad altri batteri o ad altri patogeni?
Assolutamente sì. Il metodo è efficace per una vasta gamma di batteri, mobili e non, a crescita rapida o lenta. Abbiamo dimostrato che rileva vibrazioni prodotte da altri biosistemi, dai mitocondri fino a cellule di organismi superiori come globuli rossi, osteoblasti o neuroni. È uno strumento versatile con applicazioni in biologia di base, microbiologia, oncologia e malattie neurodegenerative.

Giovanni Longo è un fisico con dottorato in Scienze dei Materiali. Dal 2010 ha lavorato come senior postdoc presso l’EPFL di Losanna nei laboratori LPMV, dove ha sviluppato il nanomotion sensor. Attualmente è primo ricercatore presso l’Istituto di Struttura della Materia del CNR, coordina i laboratori Biotech@ISM e fa parte del comitato organizzatore del consorzio Tech4Bio. Ha pubblicato più di 80 articoli su riviste internazionali, libri, capitoli di libri e brevetti.
© Kateryna Kon/shutterstock.com

INFLUENZA E POLMONITI "LA VARIANTE K DEL VIRUS H3N2 È PIÙ CONTAGIOSA MA NON PIÙ AGGRESSIVA”
di Matilde Andolfo
Il Professor Nicola Petrosillo, esperto di malattie infettive, analizza la situazione attuale in Italia discutendo le cause dell'impennata dei casi, le opzioni terapeutiche disponibili e l'importanza della vaccinazione

“LA POLMONITE POST-INFLUENZALE
PUÒ COLPIRE TUTTE LE ETÀ, MA
SICURAMENTE IL RISCHIO MAGGIORE
È TRA GLI ANZIANI E TRA I PAZIENTI
CON PATOLOGIE POLMONARI CRONICHE, COME ENFISEMA POLMONARE, BRONCOPATIA CRONICA OSTRUTTIVA, CARCINOMA POLMONARE, BRONCHIECTASIE
In un'intervista esclusiva, il professor Nicola Petrosillo, infettivologo presso la Fondazione Policlinico Universitario Campus Bio-Medico, Roma, ci spiega qual è lo stato attuale dell'influenza e delle polmoniti virali in Italia.
L’efficacia della vaccinazione contro il virus influenzale sembra essersi ridotta.
Ecco perché.
Professore qual è la situazione attuale ri guardo ai casi di influenza e polmoniti in Italia?
Per quanto riguarda i casi di influenza bisogna rifarsi al rapporto settimanale dell’Istituto Superiore Sanità (Respivirnet). Nella settimana dal 29/12/25 al 04/01/26 il numero di casi di infezioni respiratorie acute provenienti dalla sorveglianza sentinella nella comunità è stato di poco più di 802.000.
Nelle forme comunitarie il tasso di positività per influenza è stato del 17%, mentre nel flusso ospedaliero è stato al 40,5%. Da ciò si desume che un terzo circa del totale dei casi di infezioni respiratorie acute è di origine influenzale.
Dal punto di vista epidemiologico, il numero dei casi è in leggera riduzione rispetto alla settimana precedente, ma con la riapertura delle scuole è possibile che la curva dei casi continuerà a crescere, visto che l’incidenza più elevata è fra i bambini piccoli.
Non ci sono invece dati epidemiologici sistematici sulle polmoniti associati ai casi di influenza, ma da più parti ci sono segnalazioni di ricoveri ospedalieri ed aumento degli accessi nei pronto soccorso degli ospedali per infezioni respiratorie acute e influenza.
Quest’annata è stata caratterizzata anche dalla diffusione del virus del cosiddetto ceppo k, quali sono le ca ratteristiche di questo virus?
La stagione influenzale è stata caratterizzata in tutto il mondo dalla comparsa di ceppi di virus influenzale H3N2 con varie mutazioni nel gene HA, quello che codifica l’emoagglutinina. Una di queste è più rilevante, la cosiddetta mutazione k. L’H3N2 è uno dei due virus influenzali A circolanti (l’altro è l’H1N1) e contenuti nel vaccino antinfluenzale. Questa mutazione ha fatto sì che la variante k fosse più contagiosa, eludendo in molti casi la risposta immunitaria indotta da pregresse infezioni da H3N2 (che comunque negli anni passati ha circolato meno dell’H1N1) o da immunizzazione.
È vero che l’influenza ha colpito an che i vaccinati?
Da sempre si conosce che l’efficacia del vaccino antiinfluenzale nel prevenire l’influenza è intorno al 60%; la maggiore circolazione dell’H3N2 e la comparsa della variante k di questo virus hanno fatto sì che questa efficacia si sia ulteriormente ridotta. Non è quindi insolito che un vaccinato contro l’influenza venga colpito da una forma influenzale. Tuttavia, la vaccinazione ha un ruolo importante nel prevenire, in coloro i quali pur vaccinati hanno contratto l’influenza, le complicanze maggiori della stessa (polmoniti, encefaliti, miocarditi…) confinando la malattia ad una infezione delle prime vie aeree superiori e riducendo il rischio di ospedalizzazione e di ricovero in terapia intensiva.
Quali sono le cause principali dell'im pennata di polmoniti e come sono le gate ai virus influenzali?
La variante k non sembra più aggressiva rispetto al virus influenzale H3N2 della passata annata ma, come detto sopra, ha una maggiore capacità di contagiare.
Se a questo si aggiunge un calo
della copertura vaccinale contro l’influenza tra coloro che hanno maggior rischio di sviluppare complicanze, tra le quali la polmonite, come gli anziani e i soggetti con patologie croniche (broncopatia cronica, cardiopatie, patologie oncologiche…) si capisce come ci possa essere stato un aumento delle patologie polmonari come complicanza dell’influenza.
Quest’anno la copertura vaccinale nella popolazione generale è stata del 19,6% e negli ultrasessantacinquenni del 52,5% contro il 53,3% dello scorso anno. Perché la campagna vaccinale sia efficace nel ridurre la diffusione del virus nella popolazione occorre che la copertura sia almeno del 75% con un ottimale del 95%.
Quali sono i fattori di rischio per con trarre una polmonite da influenza?
La polmonite post-influenzale può colpire tutte le età, ma sicuramente il rischio maggiore è tra gli anziani e tra i pazienti con patologie polmonari croniche, come enfisema polmonare, broncopatia cronica ostruttiva, carcinoma polmonare, bronchiectasie.
Come vengono trattate le polmoniti da influenza e quali sono le opzioni terapeutiche disponibili?
La polmonite in corso di influenza è innescata dall’infezione virale influenzale, ma successivamente è sostenuta da batteri, come pneumococchi, stafilococchi e via dicendo. In questi casi gli antibiotici sono necessari. Nei casi più gravi, con insufficienza respiratoria, occorre anche una terapia di supporto: ossigenoterapia, respirazione assistita, ventilazione.
Come influisce la co-circolazione di diversi virus (come Rhinovirus, Me tapneumovirus e SARS-CoV-2) sulla situazione?
Anche quest’anno, insieme ai virus influenzali, sono continuati a circolare virus respiratori come, tra gli altri, RSV, rhinovirus, parainfluenzali, me -
tapneumovirus e SARS-CoV2. In alcuni casi le coinfezioni tra virus influenzali e altri virus respiratori hanno determinato decorsi più gravi e complicanze respiratorie. Per alcuni di questi virus (RSV e SARS-CoV2) esiste un vaccino che è però largamente disatteso nelle popolazioni anziane e più fragili.
Un’altra questione da non sottovalu tare è la durata dei sintomi. Si parla sempre di più di sindromi post infet tive. Che significa?
L’influenza si risolve spontaneamente in circa una settimana, ma può lasciare reliquati come abbiamo visto in passato per il COVID-19. Stanchezza protratta, persistenza di tosse e mal di gola, riduzione dell’attenzione e facile affaticabilità possono persistere per qualche settimana dopo la risoluzione della fase acuta dell’influenza.
Qual è l'importanza della vaccinazio ne antinfluenzale e come può aiutare a prevenire le polmoniti?
Il vaccino antinfluenzale più comunemente utilizzato contiene alcuni ceppi del virus dell’influenza in forma uccisa (inattivata) ed ha l’obiettivo di permettere al nostro sistema immunitario di indurre la produzione di anticorpi contro questi virus.
Il vaccino quindi permette di prevenire il rischio di infezione se esposti al virus influenzale, con una efficacia che è intorno al 60%, di ridurre il rischio di complicanze soprattutto nei soggetti più fragili e maggiormente vulnerabili, e di diminuire la circolazione dei virus influenzali nella popolazione durante la fase epidemica.
Quali sono le misure di prevenzione più efficaci per evitare la diffusione dei virus influenzali?
La misura più importante resta la vaccinazione antiinfluenzale. Per evitare di esporsi al virus influenzale è consigliabile, in questo periodo, evitare luoghi chiusi non areati, laddove la presenza di particelle respiratorie

infette può causare l’infezione. È inoltre opportuno evitare una esposizione diretta con baci e abbracci a bambini piccoli che sono la porzione di popolazione con la maggiore incidenza di influenza. Utile coprire naso e bocca quando si tossisce o starnutisce, evitare di toccare bocca, naso ed occhi con le mani e lavarle frequentemente, magari con soluzioni idroalcoliche.
Qual è l'impatto dell'impennata di polmoniti sulla sanità pubblica e come stanno gestendo la situazione gli ospedali?
Non siamo in una fase emergenziale, ma le notizie provenienti dai media mostrano come molti individui con febbre e sintomi di infezione respiratoria acuta si rivolgono in prima istanza agli ospedali, spesso intasando il pronto soccorso. Come sempre le strutture ospedaliere rispondono e gestiscono al meglio situazioni di questo genere, ma ciò sicuramente rappresenta un disagio per l’altra utenza di pazienti con patologie acute e/o croniche non influenzali che vedono allungarsi i tempi di attesa per essere visitati e curati.
Il consiglio per la popolazione resta sempre quello di consultare il proprio medico di medicina generale in caso di una forma simil influenzale. Spesso basta restare a riposo a casa, reintegrare liquidi, soprattutto in caso di febbre elevata, mangiare cibi leggeri e facilmente digeribili ed utilizzare antipiretici in caso di febbre elevata, senza eccederne nell’uso. In caso di persistenza di febbre dopo vari giorni dall’esordio, di difficoltà respiratoria o di disturbi della coscienza è opportuno sentire subito il proprio medico di medicina generale che consiglierà al meglio il paziente e i suoi famigliari.

Nicola Petrosillo dal 2021 è Responsabile del Servizio di Prevenzione e Controllo delle Infezioni alla Fondazione Policlinico Universitario Campus Bio-Medico di Roma. Dal 1999 al 2021 è stato Direttore dell’Unità Operativa Complessa “Infezioni Sistemiche e dell’Immunodepresso” all’Istituto Nazionale per le Malattie Infettive “L. Spallanzani”, IRCCS, di Roma, e dal 2015 al 2021 Direttore del Dipartimento Clinico e di Ricerca in Malattie Infettive nello stesso Istituto. Ad aprile 2017 ha conseguito l’Idoneità Nazionale per Professore Universitario di I fascia. Dal 2006 è Leader dell’”International Taskforce on HIV-associated Pulmonary Hypertension, del Pulmonary Vascular Research Institute”, UK. È Chair dell’International Affairs SubCommittee della Società Europea di Malattie Infettive e Microbiologica Clinica (ESCMID). È Presidente del Multidisciplinary Joint Committee-Infection Control della Unione Europea dei Medici Specialisti (UEMS). È stato consulente dell’OMS per il Controllo e la prevenzione delle infezioni e sulla Gestione clinica dei pazienti con malattia da virus Ebola a Lagos, Nigeria (2014). I suoi interessi clinici e di ricerca sono focalizzati sulle infezioni emergenti e sulle infezioni gravi, associate alle procedure assistenziali, in particolare quelle da germi multiresistenti. È autore di 447 articoli su riviste indicizzate (H-index 63) e di vari capitoli su testi di Malattie Infettive nazionali ed internazionali.
©crystallight/shutterstock.com

CANCRO AL PANCREAS: SCOPERTA MOLECOLA A RNA
CHE POTENZIA LA CHEMIOTERAPIA
Con l’aiuto dell’IA, i ricercatori dell’Istituto Italiano di Tecnologia hanno progettato un aptamero che rende le cellule tumorali più sensibili alle terapie
Un gruppo di ricercatori dell’Istituto Italiano di Tecnologia (IIT) ha sviluppato, grazie all’intelligenza artificiale, una nuova strategia terapeutica per contrastare il tumore al pancreas, una delle neoplasie più aggressive e, purtroppo, ancora oggi con poche opzioni di cura disponibili. Il team di scienziati guidato da Gian Gaetano Tartaglia, a capo del laboratorio RNA Systems Biology, e da Andrea Cavalli, responsabile del laboratorio di Computational and Chemical Biology, ha sviluppato una nuova molecola a RNA, chiamata Apt1, progettata con strumenti di intelligenza artificiale, con l’obiettivo di potenziare le terapie esistenti contro il cancro al pancreas. Nei test in vitro Apt ha dimostrato la sua efficacia nel rendere le cellule tumorali più vulnerabili ai chemioterapici. La sua azione, combinata con farmaci già in uso, consentirebbe di ottenere validi trattamenti utilizzando dosaggi inferiori di chemioterapici rispetto a quelli somministrati abitualmente.
Come spiegano gli autori dello studio, in Italia il tumore al pancreas colpisce ogni anno circa 14 mila persone. Spesso viene diagnosticato in fase avanzata ed è particolarmente difficile da curare, con un tasso di sopravvivenza a cinque anni che si aggira intorno al 10%. Oggi le possibilità di cura sono ancora limitate e si basano soprattutto su alcuni farmaci chemioterapici e su interventi chirurgici effettuati tempestivamente. Nonostante questo, la ricerca scientifica continua senza sosta a cercare nuove soluzioni, studiando come i diversi tipi di tumore al pancreas rispondono ai farmaci, con l’obiettivo di sviluppare terapie sempre più efficaci e personalizzate.
Nello studio il team di ricerca dell’IIT si è concentrato su uno specifico farmaco, l’olaparib, un principio attivo antitumorale indicato per il trattamento dell’adenocarcinoma pancreatico e impiegato nei casi di tumore al seno o alle ovaie in pazienti con mutazione BRCA. Il farmaco agisce portando le cellule malate all’autodistruzione tramite una strategia nota come letalità sintetica:
un meccanismo che sfrutta la differenza genetica tra cellule sane e quelle malate, colpendo solo quest’ultime. Olaparib, infatti, rallenta la riparazione del DNA nella cellula tumorale, costringendola ad accumulare molti errori nel codice

© Chay_Tee/shutterstock.com
IN ITALIA IL TUMORE AL PANCREAS COLPISCE OGNI
ANNO CIRCA 14 MILA PERSONE, E PRESENTA UN TASSO DI SOPRAVVIVENZA A CINQUE
ANNI CHE SI AGGIRA INTORNO AL 10%
genetico e inducendola alla distruzione. Lo studio, pubblicato sulla rivista scientifica Nature Communications, nasce nell’ambito della RNA Initiative dell’IIT ed è stato sostenuto da finanziamenti europei e fondi del PNRR tramite il Centre for Gene Therapy and Drugs based on RNA Technology. La ricerca ha avuto come bersaglio principale le interazioni tra RAD51 e BRCA2, due proteine coinvolte in un meccanismo fondamentale di riparazione del DNA, indispensabile per la sopravvivenza delle cellule tumorali. Nello specifico, RAD51 interviene nella correzione di alcuni errori genetici e BRCA2 ha il compito di guidare RAD51 nel punto del DNA danneggiato all’interno del nucleo cellulare. L’interruzione di questa interazione aumenta la sensibilità delle cellule
tumorali agli agenti chemioterapici. Nello studio gli autori hanno utilizzato metodi in silico, cioè tecniche computazionali (modellazione, simulazione, algoritmi) anziché esperimenti in vivo o in vitro, per progettare aptameri, piccoli frammenti di acido nucleico (RNA o DNA) personalizzati e specificamente ingegnerizzati per legarsi a RAD51. La progettazione è avvenuta tramite un algoritmo dal nome catRAPID, messo a punto dal gruppo di Tartaglia in un precedente lavoro, e in grado di identificare in modo veloce la sequenza degli aptameri a seconda delle proteine con cui devono interagire. A lavoro computazionale ultimato, i ricercatori hanno ottenuto una lista di aptameri su cui hanno svolto i primi esperimenti in laboratorio per individuare il più promettente. Da questa selezione è uscita vincitrice una molecola, denominata Apt1, che ha dimostrato un’elevata affinità per RAD51, competendo con BRCA2 per lo stesso sito di interazione riducendo così l’efficienza dei meccanismi di riparazione del DNA e promuovendo l’accumulo di danni all’acido nucleico.
Nelle fasi successive, il gruppo di ricerca ha messo alla prova Apt1 in cellule di tumore pancreatico. Gli esperimenti, ideati e supervisionati da Giulia Milordini, ricercatrice dell’IIT e prima autrice dell’articolo, hanno dimostrato che Apt1 rallenta la riparazione del DNA, rende le cellule malate più vulnerabili ai chemioterapici e ha effetti ridotti su quelle sane. Infine, i test su modelli preclinici hanno verificato la forza dell’azione combinata di olaparib e Apt1, dimostrando la loro maggiore capacità di aggredire un tessuto canceroso rispetto a quando sono usate singolarmente. In particolare, quando combinato con l’inibitore PARP olaparib, l’aptamero innesca la letalità sintetica (SL) in modo dose-dipendente.
I ricercatori ritengono i risultati ottenuti promettenti per proseguire il loro lavoro in vista di una futura sperimentazione clinica, con l’obiettivo di offrire una nuova strategia terapeutica in un campo in cui le opzioni di cura sono ancora limitate. (S. B.).

Individuato un nuovo meccanismo
molecolare che consente alle cellule tumorali di alterare il sistema linfatico, facilitando la diffusione ai linfonodi e la formazione di metastasi
IL CANCRO AL SENO RIMODELLA I VASI
LINFATICI PER DIFFONDERSI
PIÙ VELOCEMENTE

LE CELLULE TUMORALI UTILIZZANO
LA PROTEINA MGP PER ADERIRE IN MODO PIÙ EFFICACE AI VASI
LINFATICI E GRAZIE A QUESTO
RIESCONO A MUOVERSI E A DIFFONDERE PIÙ FACILMENTE
Un gruppo di ricercatori finlandesi ha individuato un nuovo processo attraverso il quale il cancro al seno modifica attivamente i vasi linfatici per accelerare la progressione della malattia. Questo meccanismo favorisce la diffusione delle cellule tumorali verso i linfonodi e la formazione di metastasi in altre parti del corpo.
Nel nuovo studio, pubblicato di recente sulla rivista Nature Communications, gli autori hanno identificato quali sono i cambiamenti molecolari indotti dal tumore per rimodellare attivamente i vasi linfatici. La scoperta potrebbe aprire la strada a terapie mirate a bloccare le metastasi nelle fasi iniziali della loro diffusione.
Il cancro al seno è il tumore femminile più frequente in Italia, come nel resto d’Europa. In particolare, secondo i dati dell’Associazione Italiana per la Ricerca sul Cancro, nel nostro Paese più di 50mila donne ricevono una diagnosi per questo tipo di tumore ogni anno. Anche se il numero annuale di nuovi casi è costante, grazie a una serie di miglioramenti delle terapie e alla prevenzione che consente una diagnosi precoce della malattia, sono sempre meno le persone che muoiono per questa patologia.
Come per le altre malattie oncologiche, la patologia diventa più pericolosa quando si diffonde oltre il sito tumorale di origine. Per dare origine a tumori secondari in altre parti del corpo, le cellule tumorali diffondono dal sito primario invadendo i tessuti vicini o metastatizzando, cioè viaggiando attraverso il sangue o i vasi linfatici. In molti casi, il primo segno di questa diffusione è la presenza

di cellule tumorali nei linfonodi vicini al tumore. Questi primi linfonodi drenanti si trovano tipicamente sotto l’ascella e sono raggiunti attraverso i vasi linfatici collegati al tumore. Studiando nel dettaglio la rete linfatica associata al tumore, gli scienziati dell’Università finlandese di Turku hanno scoperto che il cancro al seno non si limita a viaggiare attraverso i percorsi linfatici esistenti, ma li altera attivamente.
Analizzando i vasi linfatici di donne colpite dalla malattia, gli scienziati hanno scoperto che quando il cancro inizia a diffondersi nei linfonodi si verificano importanti cambiamenti molecolari. Questi cambiamenti sembrano facilitare il movimento delle cellule tumorali attraverso il sistema linfatico e la creazione di nuovi siti metastatici in altre parti del corpo.
Il team ha identificato la proteina Matrix Gla (MGP) come molecola chiave coinvolta nel processo. Questa proteina è stata trovata in quantità elevate nei linfonodi metastatici prelevati da pazienti affette da cancro, suggerendo un suo ruolo nell’avanzamento e nella diffusione della malattia, mentre è risultata assente nei linfonodi distanti e sani delle stesse pazienti. Secondo le conclusioni dei
© Maria Sbytova/shutterstock.com
ricercatori finlandesi, le cellule tumorali utilizzano la proteina MGP per aderire in modo più efficace ai vasi linfatici dei linfonodi e grazie a questo riescono a muoversi e a diffondere più facilmente.
La proteina MGP era già nota agli scienziati per il suo ruolo nella formazione delle ossa e come indicatore prognostico della malattia. Alcuni studi indicano che livelli elevati di mRNA della proteina MGP nel tumore al seno possono essere associati a una prognosi peggiore.
Il coinvolgimento di MPG nei vasi linfatici non era invece noto prima di questa ricerca. La scoperta evidenzia dunque un meccanismo completamente nuovo attraverso il quale il cancro manipola l’ambiente che lo circonda per favorire la progressione della malattia.
«Questi risultati rivelano una nuova prospettiva sul perché il cancro al seno si diffonde e perché è difficile fermarlo», ha affermato Sirpa Jalkanen, autrice responsabile dell’articolo. «Acquisendo una maggiore comprensione di come il cancro altera i vasi linfatici, possiamo sviluppare terapie mirate che prevengano questo processo e migliorino in futuro i risultati delle cure».
Come spiegato nello studio, i vasi linfatici svolgono un ruolo fondamentale nel sistema immunitario trasportando efficacemente gli antigeni e le cellule immunitarie nei linfonodi, consentendo così l’avvio tempestivo di una risposta immunitaria o di tolleranza verso gli antigeni.
Tuttavia, questa rete di trasporto può essere sfruttata dalle cellule tumorali, contribuendo alla loro rapida diffusione. Dai risultati dello studio è emerso che le cellule tumorali raggiungono i linfonodi drenanti attraverso i vasi linfatici, dove si insediano e creano un ambiente che impedisce o riduce l’attivazione delle difese immunitarie, permettendo al tumore di sopravvivere, crescere e diffondersi più facilmente.
La metastasi nei linfonodi, inoltre, protegge le cellule tumorali dallo stress ossidativo durante la successiva diffusione sistemica. Per questo motivo, il coinvolgimento dei linfonodi sentinella rappresenta, secondo i ricercatori finlandesi, un parametro fondamentale per prevedere la mortalità dei pazienti. Comprendere i meccanismi attraverso cui le cellule tumorali migrano verso i linfonodi e promuovono la tolleranza metastatica è quindi di vitale importanza. (S. B.).
7 crediti Ecm



UNO STUDIO DI STANFORD
RIVELA CHE PICCOLI ANELLI
DI DNA EXTRACROMOSOMICO
SI “AGGANCIANO” AI CROMOSOMI
DURANTE LA DIVISIONE
CELLULARE, ACCELERANDO
L’EVOLUZIONE DEI TUMORI
Un team di ricercatori della Facoltà di Medicina dell’Università di Stanford ha individuato un meccanismo fondamentale che permette agli anelli di ecDNA (DNA extracromosomico circolare), presenti nelle cellule tumorali e associati a una maggiore aggressività del cancro, di trasmettersi in modo efficace alle cellule figlie durante la divisione cellulare. Secondo gli autori dello studio, questi frammenti di DNA circolare si “agganciano” ai cromosomi e sfruttano meccanismi normalmente usati dalle cellule per mantenere la propria identità genetica. Il processo favorisce l’evoluzione rapida del cancro e la resistenza alle terapie. I ricercatori di Stanford hanno anche dimostrato che bloccando la capacità degli anelli di ecDNA di legarsi ai cromosomi - ad esempio tramite modifiche chimiche del DNA - questi vengono persi e le cellule tumorali muoiono, aprendo la strada a nuove strategie terapeutiche contro il cancro.
«Sfortunatamente, gli ecDNA hanno sviluppato un meccanismo ingegnoso che consente loro di provocare effetti devastanti sulla salute umana», ha affermato Paul Mischel, coautore principale dello studio insieme a Howard Chang. «Gli ecDNA – ha proseguito l’autoresfruttano il processo naturale di espressione genica e destino cellulare per assicurarsi di essere distribuiti in modo sicuro nella successiva generazione di cellule e non persi nel citoplasma quando la cellula si divide».
Come spiegato nello studio, pubblicato sulla

CANCRO: SVELATO COME L’ECDNA SI TRASMETTE ALLE CELLULE FIGLIE
di Sara Bovio

© artacet/shutterstock.com

prestigiosa rivista Nature, gli eCDNA sono il prodotto di errori nella replicazione o nella riparazione del DNA cromosomico, o di riarrangiamenti spontanei, che rilasciano porzioni lineari del genoma nel nucleo di una cellula. Le estremità di questi segmenti possono unirsi, formando dei cerchi. Sebbene si formino probabilmente di continuo, solo quelli che conferiscono un vantaggio selettivo alla cellula e contengono un’origine di replicazione riescono a essere copiati e trasmessi alle cellule figlie. Spesso, il vantaggio in termini di sopravvivenza dell’ecDNA è dovuto alla presenza di oncogeni, geni che possono potenziare la crescita incontrollata della cellula tumorale e consentirle di eludere i controlli che regolano la divisione cellulare. A volte gli ecDNA codificano anche geni per proteine in grado di attenuare la risposta immunitaria a un tumore in fase di sviluppo, favorendo ulteriormente la crescita del tumore.
Ricerche precedenti avevano accertato che gli ecDNA interagiscono con i cromosomi durante la divisione delle cellule tumorali ma finora il processo non era stato chiarito. «È stato un mistero biologico», ha detto Chang. «I cromosomi hanno regioni, chiamate centromeri, essenziali per distribuire fedelmente una copia a ciascuna cellula figlia durante la divisione. Ma gli ecDNA non hanno centromeri. Questa considerazione ci ha permesso di intuire che dovevano esserci specifiche sequenze sugli anelli che consentono loro di attaccarsi ai cromosomi».
Per comprendere meglio l’interazione tra gli ecDNA e i cromosomi, i ricercatori hanno sviluppato una tecnica chiamata Retain-seq, che ha permesso di identificare nel genoma umano oltre 14.000 sequenze, denominate “elementi di ritenzione”, essenziali per la sopravvivenza degli ecDNA
e, spesso, delle stesse cellule tumorali che li ospitano. Nello specifico, molti elementi di ritenzione presentavano caratteristiche tipiche delle cosiddette regioni promotrici e potenziatrici. La maggior parte dei promotori e degli enhancer, insieme al resto del genoma, sono strettamente avvolti e non attivi durante la mitosi cellulare. Ma alcune posizioni chiave rimangono attive, solitamente intorno ai geni che codificano proteine specifiche per il destino cellulare. Queste regioni sono chiamate segnalibri mitotici. Chang, Mischel e i loro colleghi hanno scoperto che gli ecDNA sfruttano questi segnalibri, interagendo fisicamente con essi per “agganciarsi” ai cromosomi e non andare perduti durante la divisione cellulare. Ma lo fanno in modo casuale: non esiste un processo che garantisca che un numero uguale di ciascun ecDNA in una cellula venga distribuito alle cellule figlie. Questo assortimento casuale significa che le singole cellule tumorali possono ereditare tutto, parte o nulla dell’ecDNA dal loro genitore. Questa “lotteria genetica” consente alle cellule tumorali di evolversi rapidamente, adattandosi alle condizioni mutevoli e sviluppare agilmente resistenza ai farmaci in risposta alla terapia.
Infine, i ricercatori hanno dimostrato che aggiungendo gruppi metilici sugli ecDNA delle cellule tumorali cerebrali coltivate in laboratorio, gli anelli non si legavano più ai cromosomi e che le cellule tumorali, in seguito alla perdita degli oncogeni presenti sull’ecDNA, mostravano una drastica riduzione della loro vitalità e proliferazione. Questo risultato, secondo Mischel, ha messo in luce un punto debole degli ecDNA: «Se riusciamo a interrompere questo processo e a interferire con il meccanismo di ritenzione degli ecDNA, apriremo nuove opportunità terapeutiche per molti tumori maligni» ha concluso l’autore.




UNA GOCCIA DI SANGUE
La diagnosi del futuro potrebbe essere semplice, precoce e alla portata di tutti





di Carmen Paradiso
La diagnosi della malattia di Alzheimer potrebbe presto conoscere una svolta significativa, capace di incidere profondamente sia sulla pratica clinica sia sull’organizzazione dei sistemi sanitari. Una semplice goccia di sangue, prelevata dal polpastrello e lasciata essiccare su carta, potrebbe infatti fornire informazioni affidabili sullo stato di salute del cervello.
È quanto emerge da uno studio pubblicato sulla rivista Nature Medicine, che apre scenari concreti per una diagnosi più rapida, meno invasiva e decisamente più accessibile rispetto alle metodiche attualmente in uso.
La ricerca è stata coordinata da Nicholas Ashton, dell’Università di Göteborg, e ha coinvolto una rete internazionale di centri di ricerca. Tra questi figura anche il contributo italiano di Daniele Altomare, ricercatore presso l’IRCCS San Giovanni di Dio Fatebenefratelli e l’Università di Brescia. Una collaborazione che testimonia l’importanza della ricerca multidisciplinare e internazionale nello studio delle malattie neurodegenerative.
L’Alzheimer rappresenta oggi una delle principali sfide sanitarie. Con l’invecchiamento della popolazione, il numero di persone affette è destinato ad aumentare sensibilmente nei prossimi decenni, con un impatto non solo sui pazienti, ma anche sulle famiglie e sui sistemi di welfare. In questo contesto, la diagnosi precoce assume un ruolo cruciale: riconoscere la malattia nelle fasi iniziali significa poter intervenire prima, rallentare la progressione dei sintomi e pianificare in modo più efficace le cure e l’assistenza.
La tecnica descritta nello studio si basa sul cosiddetto dried blood spot, una metodologia già utilizzata da anni in altri settori della medicina, come lo screening neonatale. Il prelievo è estremamente semplice: una puntura del dito consente di ottenere una piccola quantità di sangue capillare, che viene depositata su una carta assorbente
speciale e lasciata asciugare. Il campione può poi essere conservato e trasportato facilmente, senza necessità di apparecchiature complesse o condizioni particolari, per essere analizzato successivamente in laboratorio.

spondenza sia con gli esami del sangue venoso tradizionali sia con le alterazioni riscontrate nel liquido cerebrospinale. La sperimentazione, che ha coinvolto 337 persone, ha raggiunto un’accuratezza diagnostica dell’86%, un valore molto vicino a quello delle tecniche attualmente considerate di riferimento, come la puntura lombare o la PET cerebrale.
Oltre al p-tau217, lo studio ha permesso di individuare con successo anche altri due biomarcatori rilevanti: il GFAP, associato all’attivazione delle cellule gliali e ai processi infiammatori del sistema nervoso centrale, e il NfL, indicatore di danno neuronale e neurodegenerazione. Anche per questi marcatori è stata osservata una forte concordanza con i test diagnostici standard, rafforzando la solidità complessiva dell’approccio.
© Quality Stock Arts/shutterstock.com
L’ALZHEIMER RAPPRESENTA
OGGI UNA DELLE PRINCIPALI
SFIDE SANITARIE.
CON
L’INVECCHIAMENTO
DELLA
POPOLAZIONE, IL NUMERO DI PERSONE AFFETTE È DESTINATO
AD AUMENTARE SENSIBILMENTE
Il vero punto di forza dello studio risiede nella possibilità di individuare, anche in una quantità minima di sangue essiccato, biomarcatori altamente specifici per la malattia di Alzheimer.
In particolare, l’attenzione dei ricercatori si è concentrata sul biomarcatore p-tau217, una proteina fosforilata considerata una vera e propria firma molecolare della patologia. Questo indicatore è strettamente legato ai processi neurodegenerativi che caratterizzano l’Alzheimer e rappresenta oggi uno dei marcatori più promettenti per la diagnosi biologica.
I risultati ottenuti sono incoraggianti. I livelli di p-tau217 misurati nei campioni di sangue prelevati dal polpastrello hanno mostrato una forte corri-
I vantaggi potenziali di questa nuova metodologia sono evidenti. Le tecniche oggi utilizzate per la diagnosi dell’Alzheimer sono spesso invasive, costose e disponibili solo in centri altamente specializzati. Una diagnosi basata su una semplice goccia di sangue potrebbe invece essere effettuata su larga scala, anche in ambito territoriale, facilitando l’accesso ai test e riducendo le disuguaglianze sanitarie.
Questo aspetto è particolarmente rilevante alla luce dei nuovi farmaci che mirano a rallentare la progressione della malattia. Tali terapie risultano tanto più efficaci quanto più precoce è l’intervento, rendendo fondamentale l’individuazione tempestiva dei pazienti nelle fasi iniziali. Disporre di strumenti diagnostici semplici, affidabili e poco invasivi rappresenta quindi una priorità strategica per la sanità pubblica.
Nonostante l’entusiasmo suscitato dai risultati, gli autori invitano alla prudenza. Saranno necessari ulteriori studi su popolazioni più ampie e diversificate, oltre a una rigorosa standardizzazione delle procedure di raccolta e analisi dei campioni, prima che la tecnica possa essere introdotta nella pratica clinica.

UNA “SPUGNA” BIOLOGICA CONTRO L’ARTROSI: LA NUOVA FRONTIERA DELLE STAMINALI
Una terapia sperimentale con cellule “sensibili” al dolore promette di ridurre l’infiammazione articolare e rallentare la degenerazione della cartilagine
Alleviare il dolore cronico dell’artrosi senza ricorrere ai farmaci oppioidi e, allo stesso tempo, rallentare la progressiva distruzione della cartilagine. È questa la promessa di una nuova strategia terapeutica basata sulle cellule staminali, presentata a Boston in occasione del congresso annuale della International Society for Stem Cell Research, uno dei principali appuntamenti internazionali dedicati alla medicina rigenerativa.
L’artrosi rappresenta oggi una delle patologie croniche più diffuse a livello globale. Colpisce milioni di persone, soprattutto nella popolazione anziana, ma non risparmia soggetti più giovani, in particolare in presenza di fattori di rischio come sovrappeso, traumi articolari, predisposizione genetica o attività lavorative caratterizzate da movimenti ripetitivi e carichi eccessivi sulle articolazioni. Il dolore persistente, spesso associato a rigidità mattutina e progressiva limitazione funzionale, è il sintomo che più incide sulla qualità della vita, riducendo l’autonomia personale e aumentando il rischio di isolamento sociale.
Le terapie attualmente disponibili si concentrano prevalentemente sul controllo dei sintomi. Analgesici, antinfiammatori non steroidei e infiltrazioni di corticosteroidi possono garantire un sollievo temporaneo, ma non intervengono sui meccanismi biologici che alimentano la degenerazione articolare. Al contrario, evidenze sempre più solide indicano che l’uso ripetuto di corticosteroidi intra-articolari, sebbene efficace nel breve periodo, può favorire nel tempo la degradazione della cartilagine, contribuendo a un peggioramento strutturale della malattia.
In questo scenario si inserisce SN101, una terapia sperimentale sviluppata dalla biotech statunitense SereNeuro Therapeutics. L’approccio si basa sull’impiego di cellule staminali pluripotenti indotte, note come iPSC, ottenute riprogrammando cellule adulte e riportandole a uno stato simile a quello embrionale. Grazie alla loro elevata plasticità biologica, queste cellule possono essere indirizzate verso diversi destini cellulari, offrendo nuove opportunità terapeutiche. Nel caso di SN101, le iPSC vengono differenziate in neuroni periferici specializzati nella percezione del dolore, i cosiddetti nocicettori.
La loro peculiarità risiede nel fatto che sono stati ingegnerizzati per svolgere una funzione non convenzionale: pur mantenendo la capacità di interagire con le molecole infiammatorie presenti nell’articolazione, non trasmettono segnali dolorosi al sistema nervoso centrale. In altre parole, intercettano il dolore senza comunicarlo al cervello. Una volta iniettate localmente nell’articolazione colpita da artrosi, queste cellule agiscono come una sorta di spugna biologica. Legano mediatori infiammatori e molecole algogene responsabili della sensibilizzazione dolorosa, riducendo lo stimolo nocivo direttamente alla fonte. Si tratta di un meccanismo profondamente diverso rispetto a quello dei


farmaci tradizionali, che agiscono in modo sistemico o con un effetto limitato nel tempo.
Oltre all’azione analgesica, i dati preclinici presentati al congresso suggeriscono un potenziale beneficio sullo stato dei tessuti articolari. Le cellule impiegate nella terapia SN101 secernono infatti fattori rigenerativi e molecole bioattive in grado di migliorare il microambiente articolare. Nei modelli sperimentali questo effetto si traduce in una riduzione dei processi degenerativi e in una possibile modifica del decorso della malattia, un risultato di particolare rilievo in una patologia tradizionalmente considerata irreversibile. Il confronto con le terapie attualmente disponibili è uno degli aspetti più rilevanti emersi durante la presentazione.
«Gli attuali trattamenti standard, in particolare i corticosteroidi, forniscono un sollievo temporaneo, ma è noto che accelerano la degradazione della cartilagine nel tempo, peggiorando la malattia», ha osservato Daniel Saris, docente di ortopedia e medicina rigenerativa presso la Mayo Clinic. A differenza di questi approcci, SN101 sembrerebbe creare un ambiente articolare più protettivo, capace di alleviare il dolore cronico senza il rischio di dipendenza, uno dei problemi più gravi associati all’uso prolungato di oppioidi.
Nonostante le premesse incoraggianti, la strada verso l’applicazione clinica è ancora lunga. Saranno necessari ulteriori studi preclinici e successivi trial clinici per valutarne sicurezza, efficacia e durata dell’effetto nel tempo. Se i risultati preliminari dovessero essere confermati, questa strategia potrebbe tuttavia aprire una nuova prospettiva nella gestione dell’artrosi e del dolore cronico non oncologico. (C. P.).


Capire come agisce questo fungo è diventata una priorità un nuovo studio internazionale fa luce su uno dei patogeni più temuti negli ospedali di tutto il mondo
Silenziosa, resistente e difficile da eliminare. La Candida auris è diventata in pochi anni uno dei patogeni più temuti negli ospedali di tutto il mondo. Non fa rumore, non si manifesta subito, ma quando colpisce riesce a mettere in crisi interi reparti, soprattutto quelli che ospitano pazienti fragili.
Capire come agisce questo fungo è diventata una priorità, e, ora, un nuovo studio internazionale offre qualche risposta in più.
La ricerca, pubblicata sulla rivista Nature Communications Biology, è stata condotta da un team di scienziati del Medical Research Council, del National Centre for Replacement, Reduction and Refinement (Nc3Rs) e dell’Università di Exeter.
Guidati dal genetista Rhys Farrer, i ricercatori hanno individuato e analizzato una serie di geni che la Candida auris attiva durante l’infezione, ricostruendo per la prima volta in modo dettagliato il suo comportamento genetico nelle fasi più critiche.

La Candida auris è un patogeno particolarmente pericoloso per le persone gravemente malate. Può vivere sulla pelle senza causare sintomi evidenti, ma diventa una minaccia seria quando entra nel flusso sanguigno o colpisce pazienti immunodepressi, anziani o sottoposti a ventilazione meccanica.
In questi casi, l’infezione può avere un decorso rapido e severo, con un tasso di mortalità che può arrivare fino al 45%. Numeri che spiegano perché questo fungo sia oggi considerato una delle emergenze più complesse in ambito ospedaliero.
A rendere la situazione ancora più difficile è la sua resistenza ai farmaci. La Candida auris può risultare insensibile a tutte le principali classi di antimicotici attualmente disponibili.
In Italia e in molti altri Paesi europei, la sua comparsa ha portato alla chiusura temporanea di reparti ospedalieri, a lunghi protocolli di sanificazione e a un impiego massiccio di risorse. Contenere la diffusione del fungo richiede tempo, personale specializzato e costi elevati, con un impatto significativo sui sistemi sanitari.
Per comprendere meglio come la Candida auris riesca a sopravvivere e a diffondersi, i ricercatori hanno utilizzato un modello sperimentale che ha permesso di osservare l’infezione in condizioni realistiche e di monitorare in tempo reale quali geni del fungo si attivano durante il contatto con l’ospite.
Dall’analisi è emerso che la Candida auris è capace di trasformarsi, assumendo forme fungine allungate, note come filamenti. Si tratta probabilmente di un adattamento che consente al patogeno di esplorare l’ambiente circostante e di cercare nutrienti.
Questo cambiamento di forma non è casuale: è accompagnato dall’attivazione di specifici geni, molti dei quali coinvolti nella gestione del ferro, un elemento essenziale per la crescita e la sopravvivenza del fungo.
«Questo patogeno ha causato danni significativi nelle unità di terapia intensiva», spiega Rhys Farrer. «Può essere mortale per i pazienti vulnerabili e le aziende sanitarie hanno speso milioni di dollari per il difficile compito di eradicarlo».
Secondo il ricercatore, la scoperta dei geni attivati durante l’infezione potrebbe
LA CANDIDA AURIS È UN
PATOGENO PARTICOLARMENTE
PERICOLOSO PER LE PERSONE GRAVEMENTE MALATE.
PUÒ VIVERE SULLA PELLE
SENZA CAUSARE SINTOMI
EVIDENTI, MA DIVENTA
UNA MINACCIA SERIA
QUANDO ENTRA NEL FLUSSO
SANGUIGNO O COLPISCE
PAZIENTI IMMUNODEPRESSI, ANZIANI O SOTTOPOSTI
A VENTILAZIONE MECCANICA

aver messo in evidenza un punto debole della Candida auris, che ora andrà verificato e approfondito.
L’aspetto più interessante è che esistono già farmaci in grado di interferire con i meccanismi di eliminazione o utilizzo del ferro. Alcuni di questi sono impiegati per altre patologie. L’ipotesi, ora, è valutare se possano essere riutilizzati per contrastare la Candida auris, riducendo i tempi necessari per sviluppare nuove terapie.
«Abbiamo ancora diverse fasi di ricerca da completare», conclude il ricercatore Gifford, coinvolto nello studio, «ma la nostra scoperta rappresenta una prospettiva concreta e promettente per i trattamenti futuri».
Resta aperta anche la questione dell’origine di questo fungo. La sua capacità di resistere alle alte temperature e la notevole tolleranza al sale hanno portato alcuni studiosi a ipotizzare una provenienza dagli oceani tropicali.
Un’ipotesi che si intreccia con il dibattito sul cambiamento climatico e sull’emergere di nuovi patogeni in
un mondo sempre più caldo e interconnesso.
In un contesto globale segnato dall’aumento delle infezioni resistenti ai farmaci e dalla pressione costante sui sistemi sanitari, comprendere i meccanismi genetici di patogeni come la Candida auris non è solo un progresso scientifico. È una necessità concreta per prevenire nuove emergenze e proteggere i pazienti più vulnerabili.
Non a caso, l’Organizzazione Mondiale della Sanità ha inserito la Candida auris tra i patogeni fungini prioritari, proprio per la combinazione di elevata mortalità, resistenza ai farmaci e facilità di diffusione negli ambienti sanitari. La possibilità di colpire il fungo nei momenti chiave dell’infezione, intervenendo sui geni che ne regolano l’adattamento, rappresenta quindi un cambio di passo importante.
Un approccio che non punta solo a contenere le emergenze, ma a prevenirle, rafforzando la capacità degli ospedali di rispondere a minacce sempre più complesse. (D. E.).
GESTIONE DELLA PSORIASI IN ETÀ FERTILE I NUOVI PERCORSI TERAPEUTICI
Dalla pianificazione all’allattamento, l’approccio personalizzato e l’uso di molecole mirate garantiscono il controllo della malattia e il corretto sviluppo del neonato
di Elisabetta Gramolini
Da non sottovalutare, specie per l’impatto significativo che può avere sulla qualità di vita. La psoriasi è una malattia infiammatoria cronica sistemica che colpisce circa il 2-3% della popolazione generale. Le donne in età fertile rappresentano una fetta rilevante dei pazienti. Per loro, la gestione della patologia presenta specificità cliniche, psicologiche e terapeutiche.
«La psoriasi è una malattia infiammatoria cronica della pelle, come altre patologie ad esempio l’ipertensione o il diabete, e per questo non va sottovalutata. Durante la gravidanza, a causa dei cambiamenti ormonali e delle numerose trasformazioni che interessano il corpo della donna, la psoriasi può modificare il proprio andamento.
Le manifestazioni della patologia possono restare stabili, andare incontro a un peggioramento, per il 30-40% dei casi, soprattutto nell’ultimo trimestre o immediatamente dopo il parto e durante l’allattamento, o anche migliorare naturalmente», spiega Annunziata Dattola, professore associato di

Dermatologia e Venereologia presso l’Università La Sapienza e specialista in Dermatologia e Venereologia presso il Policlinico Umberto I di Roma.
La gestione della malattia durante la gravidanza richiede una conoscenza approfondita dei meccanismi immunologici coinvolti e dei possibili effetti delle terapie. «La malattia psoriasica è una patologia immunomediata con una componente genetica e fattori scatenanti ambientali. Durante la gravidanza si verificano modifiche ormonali che servono anche a evitare il rigetto del feto, il quale è antigenicamente diverso dalla madre.
Questi cambiamenti ormonali influenzano il sistema immunitario e possono modificare l’andamento della psoriasi: in circa metà dei casi, la severità di malattia può rimanere invariata o addirittura peggiorare», commenta Clara De Simone, professoressa associata di Dermatologia e Venereologia dell’Università Cattolica del Sacro Cuore e responsabile del Centro per le Malattie Rare Dermatologiche della Fondazione
© Prostock-studio/shutterstock.com


LA PSORIASI È UNA PATOLOGIA IMMUNOMEDIATA
CON UNA COMPONENTE GENETICA E FATTORI
SCATENANTI AMBIENTALI. DURANTE LA GRAVIDANZA
SI VERIFICANO MODIFICHE ORMONALI CHE
INFLUENZANO IL SISTEMA IMMUNITARIO E POSSONO
MODIFICARE L’ANDAMENTO DELLA MALATTIA
Policlinico Universitario Agostino Gemelli Irccs di Roma.
Le donne con psoriasi che affrontano una gravidanza si pongono numerose domande riguardo ai potenziali rischi, alle complicazioni e alla possibilità di proseguire la terapia. «Oggi sappiamo - rassicura Dattola - grazie alle evidenze scientifiche e agli studi clinici, che anche le donne in gravidanza e in allattamento possono essere curate in modo efficace e sicuro. Disponiamo di terapie mirate, comprese alcune terapie biologiche, che non attraversano la placenta né passano nel latte materno e che quindi non comportano rischi per il feto o per il neonato».
Le forme più severe possono associarsi a esiti di gravidanza sfavorevoli, come basso peso alla nascita o parto pretermine, secondo dati provenienti soprattutto da registri del Nord Europa. «Per questo motivo - continua De Simone - è importante garantire un adeguato controllo della malattia anche durante la gravidanza, scegliendo terapie efficaci e sicure sia per la madre che per il bambino, sia durante la gestazione che durante l’allattamento. Gli anticorpi monoclonali sono utilizzati da oltre vent’anni nella psoriasi e non sono teratogeni, quindi non causano malformazioni. Tuttavia possono attraversare la placenta, entrare nella circolazione fetale e lasciare traccia nel sangue del neonato per alcuni mesi
dopo la nascita. Di conseguenza, nei bambini esposti per tutta la gravidanza è sconsigliata la somministrazione di vaccini vivi nei primi mesi di vita. Per ovviare a questo problema è possibile utilizzare farmaci biologici che non attraversano la barriera placentare».
La pianificazione della gravidanza emerge come un elemento cruciale. «La gravidanza - suggerisce De Simone - idealmente dovrebbe essere pianificata in un periodo di remissione della malattia, ma l’uso dei farmaci è possibile, quando necessario, con un approccio sempre personalizzato. Bisogna considerare che circa la metà delle gravidanze non è pianificata e c’è ancora poca consapevolezza su questo tema, sia tra le pazienti, sia tra alcuni professionisti sanitari.
Le donne affette da psoriasi talvolta non informano il dermatologo della gravidanza; altre volte il ginecologo non conosce in modo approfondito i farmaci utilizzati oppure la paziente interrompe autonomamente la terapia per timore di effetti negativi sul bambino».
Per le donne in età fertile, incinte e che allattano, esistono oggi percorsi terapeutici personalizzabili e sicuri. «Le molecole biologiche - conclude Dattola -, in particolare un anti-TNF alfa pegilato, hanno dimostrato efficacia e sicurezza e rappresentano un’opportunità concreta per gestire anche i casi più severi di psoriasi durante questo periodo così delicato».

LE MICROPLASTICHE E I RISCHI CARDIOVASCOLARI
Le microplastiche sono diventate una presenza costante negli ecosistemi, ma solo negli ultimi anni la ricerca ha iniziato a indagare con scrupolo l’impatto della loro assunzione da parte dell’essere umano. Facendo una panoramica delle nuove ricerche sull’argomento, un punto di svolta è arrivato con la pubblicazione dello studio coordinato da Raffaele Marfella e Francesco Prattichizzo sul New England Journal of Medicine.
Nello studio, i ricercatori hanno riscontrato la presenza di microplastiche e nanoplastiche nelle placche carotidee di oltre metà dei pazienti analizzati, e ad essa è stato associato un rischio
molto più elevato di infarto, ictus o morte per problemi cardiovascolari nei tre anni successivi, suggerendo, quindi, un possibile ruolo diretto nella progressione dell’aterosclerosi.
A rafforzare questa ipotesi è intervenuta anche la revisione pubblicata sull’European Heart Journal dello stesso Francesco Prattichizzo in collaborazione con Antonio Ceriello, Valeria Pellegrini, Rosalba La Grotta e altri colleghi. La ricerca parla delle microplastiche come dei potenziali nuovi fattori di rischio cardiovascolare. Gli autori evidenziano come le particelle siano in grado di attraversare barriere biologiche, accumularsi nei tessuti e innescare i processi chiave dell’aterogenesi,
Nuove ricerche mostrano come i polimeri danneggiano le arterie causando problemi al cuore
come l’infiammazione cronica, lo stress ossidativo e la disfunzione endoteliale.
Inoltre, una prospettiva complementare è stata fornita dalla revisione pubblicata su Frontiers in Toxicology da Haixiang Zheng, Gianpaolo Vidili, Gavino Casu, Eliano Pio Navarese, Leonardo A. Sechi e Youren Chen, che racconta come microplastiche e nanoplastiche possono generare interferenze con la funzione delle cellule vascolari, alterare le risposte immunitarie locali e contribuire alla formazione di placche instabili.
Più in generale, dai dati raccolti negli ultimi anni dalla comunità scientifica viene evidenziato come tracce di microplastiche e nanoplastiche possano essere rilevate non solo nelle placche carotidee, ma anche nel sangue e nei campioni di tessuto vascolare di persone senza diagnosi cardiovascolari note. Alcune analisi citate per esempio da Business Standard riportano che la presenza di particelle plastiche nel circolo sanguigno è più frequente negli uomini, un dato che potrebbe riflettere differenze di esposizione ambientale o professionale e che apre interrogativi sulla possibile vulnerabilità di genere.
La convergenza tra studi clinici, revisioni e indagini epidemiologiche, dunque, suggerisce come il tema meriti un’attenzione crescente. Le microplastiche non rappresentano più soltanto un indicatore dell’impatto ambientale delle attività umane, ma un potenziale elemento da includere nella valutazione dei fattori di rischio cardiovascolari emergenti.
Integrare queste nuove evidenze nella ricerca e nelle strategie di prevenzione, come sottolineato dagli autori e le autrici degli studi, potrebbe contribuire a proteggere in modo più efficace la salute vascolare in un mondo in cui l’esposizione a particelle plastiche è destinata ad aumentare. (M. O.).
Sono diminuiti i decessi causati dalle forme più gravi di tumore, ma non mancano criticità: il report e la sfida
Calato il sipario sul 2025, è come di consuetudine tempo di bilanci. Vale per tutti gli ambiti, anche per quello della salute. E c’è un dato emerso dal rapporto “I numeri del cancro in Italia 2025”, che lascia decisamente ben sperare in vista del futuro. Già, nello Stivale il numero dei decessi causati da tumore è calato. Il discorso vale anche per le forme di neoplasie più gravi, quelle cioè che presentano i dati di mortalità più elevati.
Ci riferiamo al cancro al polmone, per cui si è registrato un confortante -24% dal 2014 al 2024 e al colon retto (-13%). Analizzando il fenomeno nella sua totalità, negli ultimi dieci anni i decessi sono diminuiti del 9%. Al contrario, invece, tra il 2024 e il 2025 le diagnosi di tumore non hanno subito variazioni e si attestano sulle 390mila. Un’altra buona notizia è rappresentata dalla tendenza alla riduzione delle diagnosi di tumore del polmone negli uomini: un trend già sottolineato dalla Commissione Europea (-1,7% dei casi complessivi) e che riguarda anche l’Italia da vicino con un -2,6%.
Dal report realizzato dell’Associazione Italiana di Oncologia Medica (Aiom), Associazione Italiana Registri Tumori, Fondazione Aiom, Osservatorio Nazionale Screening, Passi (Progressi delle Aziende Sanitarie per la Salute in Italia), Passi d’Argento e della Società Italiana di Anatomia Patologica e di Citologia Diagnostica, affiorano anche altri aspetti positivi. L’Italia, infatti, vanta dati migliori rispetto alla media Ue, il che significa una sopravvivenza maggiore rispetto ad altri Paesi. Se sono stati compiuti passi in avanti così notevoli, è anche perché è migliorata l’adesione agli screening, soprattutto nel Mezzogiorno.
I numeri indicano che siamo dinanzi a una vera e propria svolta,

ITALIA, I NUMERI DEL CANCRO NEL 2025
dal momento che la mammografia è aumentata dal 12% al 34%, il test del sangue occulto fecale dal 5% al 18% e lo screening cervicale dal 12% al 37%.
Ma non mancano le criticità. Come la fuga dagli ospedali del Sud quando bisogna operarsi. In particolare, per gli interventi di tumore al seno, il 15% dei pazienti preferisce recarsi fuori Regione.
Calabria, Basilicata e Molise sono le tre Regioni da cui si tende a scappare con maggiore frequenza, mentre i livelli più bassi di fuga si riscontrano in Lombardia, Friuli-Venezia Giulia e Lazio.
L’aspetto su cui devono ancora lavorare - e anche tanto - gli italiani è
quello che riguarda gli stili di vita, un vero e proprio tallone d’Achille. Le statistiche sono allarmanti: il 24% degli adulti fuma, il 33% della popolazione è in sovrappeso mentre il 10% è obeso, il 27% è sedentario. E, si sa, comportamenti scorretti sono direttamente collegati a patologie gravi.
Il ministro della Salute, Orazio Schillaci, fissa gli obiettivi nella prefazione del rapporto: «Le sfide urgenti sono rappresentate dalle disuguaglianze sociali nell’accesso alla diagnosi precoce e dalla persistenza di comportamenti a rischio. La risposta è nel Piano Oncologico Nazionale ‘23’27: la prevenzione è la leva strategica su cui investire». (D. E.).

LE APNEE NOTTURNE
RADDOPPIANO IL RISCHIO
DI
ICTUS E DEMENZA
La sindrome quando è moderata-grave viene associata a un rischio 2,14 volte superiore di sviluppare microemorragie cerebrali silenziose
A dirlo è una analisi prospettica su oltre 1440 persone
Quasi 936 milioni di adulti a livello globale sono affetti da dalla sindrome dell’apnea ostruttiva del sonno (Os as), una condizione medica complessa e sottovalutata caratterizzata da interruzioni ripetute della respirazione durante il riposo notturno.
La sindrome è riconosciuta come un fattore di stress per il sistema cardiovascolare, ma uno studio recente, pubblicato su Jama Network Open, ha evidenziato il ruolo cruciale anche nella patogenesi delle malattie cerebrovascolari.
L’analisi prospettica e longitudinale di otto anni, coordinata da ricercatori del Korea University Ansan Hospital, ha stabilito un legame forte e indipendente tra la sindrome di grado moderato-grave e lo sviluppo di microemorragie cerebrali, ovvero piccole lesioni vascolari rilevabili tramite risonanza magnetica, spesso clinicamente silenti in fase acuta.
Nonostante la loro natura asintomatica, queste lesioni sono considerate un indicatore cruciale di fragilità vascolare cerebrale, rappresentando un precursore e un fattore che incrementa notevolmente il rischio a lungo termine di eventi più gravi, come gli ictus e lo sviluppo di demenza. La ricerca ha dunque puntato a quantificare esattamente quanto la sindrome influenzi la comparsa di queste lesioni nel tempo. Lo studio, che ha seguito 1.441 individui, ha utilizzato la regressione di Poisson modificata per stimare il rischio relativo di sviluppare microemorragie incidenti nei partecipanti con sindrome moderata-grave.
I risultati sono stati particolarmente incisivi. Nel modello finale, che è stato aggiustato per una vasta gamma di fattori confondenti noti (tra cui età, sesso, ipertensione, diabete, indice di massa corporea, e fumo), i soggetti con la sindrome di grado moderato-grave hanno mostrato un rischio significativamente aumentato. Il rischio relativo è stato calcolato
di 2,14, ciò suggerisce che la malattia, severa o moderata, è associata in modo indipendente a un rischio più che doppio di sviluppare microemorragie cerebrali. In termini di incidenza, inoltre, la differenza tra i gruppi è risultata netta: mentre solo il 3,33% dei partecipanti senza sindrome ha sviluppato le microemorragie negli otto anni, nel gruppo con Osas moderata-grave la percentuale è salita al 7,25%, definita da almeno 15 apnee all’ora. Gli autori dello studio rilevano che la sindrome di grado lieve non ha evidenziato alcuna associazione significativa con l’aumento del rischio di microemorragie incidenti, concentrando la responsabilità del danno vascolare principalmente nella gravità dell’apnea.
L’eccessivo rischio è attribuibile agli effetti deleteri e ripetitivi delle apnee sulla salute vascolare cerebrali che inducono cicli cronici di ipossia intermittente, vale a dire bassi livelli di ossigeno nel sangue, e brusche fluttuazioni della pressione intratoracica e sistemica. Questi stress vascolari costanti danneggiano l’endotelio, lo strato interno dei vasi sanguigni, portando a una disfunzione endoteliale e a un indebolimento strutturale delle piccole arterie cerebrali.
Come a dire che il costante ‘bombardamento’ di stress emodinamico e ossidativo rende i vasi sanguigni più suscettibili alla rottura, manifestandosi come microemorragie.
La sindrome moderata-grave infatti non è solo un problema respiratorio notturno, ma un potente fattore di rischio neurologico che espone l’individuo a un rischio significativamente elevato di subire lesioni cerebrali silenziose ma cumulative.
L’identificazione e il trattamento tempestivo della patologia grave rappresentano pertanto non solo una strategia per migliorare la qualità della vita, ma anche una potenziale chiave per mitigare il rischio di ictus, demenza e altri esiti cerebrovascolari avversi. (E. G.).

L’OSAS IN ITALIA
La Sindrome è molto diffusa nel nostro Paese, ma notoriamente sotto-diagnosticata. Si stima che le persone affette da apnee notturne (con un indice sopra i 5 eventi ogni ora) siano circa 7 milioni di soggetti adulti, sebbene i casi più conclamati si attestino intorno a 2 milioni.
Nonostante i numeri importanti, su circa 12 milioni di casi medio-gravi stimati, solo il 4% riceve un accertamento diagnostico secondo Analisi condotta dal Centro di ricerche sulla gestione dell'assistenza sanitaria e sociale (Cergas) dell'Università Sda Bocconi. Di conseguenza, si ritiene che oltre l'80% degli individui colpiti non sia consapevole di soffrire di questa condizione e che la prevalenza nella popolazione tra i 30 e i 69 anni sia stimata intorno al 20,5%.
“Dato che l'Osas è un fattore di rischio modificabile, la patologia da moderata a grave dovrebbe essere un obiettivo prioritario per la diagnosi precoce e la prevenzione dei futuri eventi cerebrovascolari e del declino cognitivo”, commenta il professor Stefano Di Girolamo, Otorinolaringoiatra e ordinario presso l'Università degli Studi di Roma "Tor Vergata", che sottolinea la necessità di una maggiore consapevolezza riguardo ai rischi.
Per decenni la lotta al tabagismo si è concentrata quasi esclusivamente su due fronti: la tutela del fumatore attivo e la protezione dei non fumatori dall’inalazione diretta dei prodotti della combustione, il cosiddetto fumo passivo. Una nuova evidenza scientifica però sta spostando i confini del rischio ambientale all’interno delle nostre abitazioni. Uno studio, pubblicato sulla rivista Building and Environment dai ricercatori dell’Istituto di Fisica Atmosferica presso l’Accademia Cinese delle Scienze, si sofferma su quella che appare come una minaccia persistente e chimicamente dinamica che sopravvive per ore, giorni o addirittura settimane dopo che l’ultima sigaretta è stata spenta: il fumo di terza mano. Questa forma di inquinamento non va confusa con il semplice odore acre che rimane negli ambienti, ma deve essere intesa come un complesso sistema di residui tossici che aderiscono a ogni superficie disponibile, dalle pareti ai mobili, dando il via a una serie di trasformazioni chimiche che ne aumentano la pericolosità nel tempo. La ricerca ha utilizzato tecnologie di monitoraggio, come la spettrometria di massa ad alta risoluzione, per analizzare in che modo questi depositi interagiscano con l’ambiente domestico. I risultati hanno dimostrato che il fumo di terza mano non è una contaminazione inerte o statica, bensì una fonte dinamica di inquinamento che continua a riemettere particelle fini e gas nocivi nell’aria interna attraverso un processo di volatilizzazione costante.
A differenza del fumo passivo, le cui polveri tendono a disperdersi con relativa rapidità se l’ambiente viene opportunamente arieggiato, il fumo di terza mano mantiene concentrazioni stabili e preoccupanti di aerosol organici per periodi estremamente prolungati, agendo come una sorta di inquinamento cronico di sottofondo. Uno degli aspetti più originali e allarmanti emersi dallo studio riguarda la metamorfosi chimica dei residui. I ricercatori hanno osservato che la composizione delle particelle riemesse cambia significativamente con il passare del tempo, diventando progressivamente più ricca di azoto. Questo fenomeno suggerisce la formazione spontanea di nuovi composti chimici secondari, tra cui spiccano le nitrosammine specifiche del tabacco, note per essere tra i più potenti agenti cancerogeni presenti nel fumo. Il fumo di terza mano, dunque, non si limita a persistere, ma “invecchia” trasformandosi in una miscela potenzialmente più aggressiva per l’organismo umano.
Un ruolo in questa catena di contaminazione è giocato dai materiali che compongono l’arredamento delle nostre case. Lo studio ha evidenziato come le superfici porose, in particolare i tessuti naturali come la lana e i rivestimenti in cotone o fibra sintetica dei divani, agiscano come veri e propri serbatoi profondi. Le molecole del tabacco non si depositano semplicemente sulla
QUESTA FORMA DI INQUINAMENTO
NON VA CONFUSA CON IL
SEMPLICE ODORE ACRE CHE RIMANE
NEGLI AMBIENTI, MA DEVE ESSERE
INTESA COME UN COMPLESSO
SISTEMA DI RESIDUI TOSSICI CHE ADERISCONO A OGNI SUPERFICIE
DISPONIBILE, DALLE PARETI AI MOBILI
superficie esterna, ma penetrano nelle fibre, stabilendo legami chimico-fisici che rendono la loro eliminazione estremamente complessa. Questo effetto spugna spiega perché la semplice ventilazione o l’apertura delle finestre risultino strategie del tutto insufficienti per bonificare una stanza: mentre l’aria viene rinfrescata, le fibre continuano a rilasciare lentamente le sostanze accumulate, riportando i livelli di tossicità a valori costanti non appena le finestre vengono chiuse. Il processo di rilascio identificato dagli scienziati cinesi segue tre fasi sequenziali: inizialmente vengono emessi composti organici ossigenati, seguiti da molecole contenenti azoto e infine da una lunga scia di idrocarburi che garantisce la persistenza del rischio nel lungo periodo.
Tale dinamica pone interrogativi urgenti sulla sicurezza degli ambienti domestici, specialmente per le fasce più vulnerabili della popolazione. I neonati e i bambini piccoli rappresentano i soggetti più esposti, poiché il loro comportamento tipico prevede il contatto prolungato con pavimenti e tappeti, oltre all’abitudine di portare oggetti e mani alla bocca.
Per loro, il pericolo non deriva solo dall’inalazione, ma anche dall’assorbimento dermico e dall’ingestione accidentale dei residui depositati. La scoperta di marcatori specifici contenenti azoto ha permesso ai ricercatori di distinguere con precisione chirurgica la “firma” del fumo di terza mano rispetto ad altre fonti di inquinamento indoor, confermando che la sua presenza è una realtà misurabile e ubiquitaria nelle case dei fumatori.
Questa consapevolezza richiede un cambio di paradigma nelle politiche di salute pubblica e nelle abitudini quotidiane: non è più sufficiente non fumare in presenza di altri, poiché l’atto stesso di fumare al chiuso lascia un’eredità tossica che contamina lo spazio vitale per giorni. (E. G.).

DI VELENI
Una ricerca dell’Accademia Cinese delle Scienze svela come il fumo di terza mano persista per giorni in tessuti e pareti evolvendo in composti tossici e resistenti alla ventilazione

UN MODELLO DI EMBRIONE 3D SVELA I SEGRETI DELLE PRIMISSIME FASI DELLA VITA
Con un modello creato da staminali, ricercatori italiani hanno identificato i segnali di comunicazione cellulare che regolano le prime fasi dello sviluppo embrionale

Un recente studio tutto italiano ha permesso di chiarire come avvengono le prime fasi cruciali dello sviluppo embrionale umano attraverso la creazione di un modello di embrione 3D a partire da cellule staminali. La ricerca ha visto la collaborazione tra gli scienziati delle Università di Torino e di Padova che hanno pubblicato i loro risultati sulla rivista Nature Cell Biology. Il modello ricreato in laboratorio consente di osservare in dettaglio le prime fasi di organizzazione dell’embrione al momento dell’impianto nell’utero, processi normalmente quasi impossibili da studiare direttamente nell’embrione umano. «Le primissime fasi dello sviluppo sono quasi impossibili da osservare negli embrioni umani - spiega Graziano Martello professore dell’Università di Padova e autore responsabile dello studio - sia per motivi etici che pratici». «Noi – prosegue Martello - abbiamo creato un modello 3D di embrione semplice e riproducibile in cui le cellule staminali umane ‘imitano’ due passaggi chiave dello sviluppo precoce che sono probabilmente familiari anche ai non addetti ai lavori, ossia la formazione della cavità amniotica e l’organizzazione spaziale degli organi nel corpo umano». Come spiegano gli autori della ricerca, dopo il concepimento, affinché avvenga il corretto impianto dell’embrione nell’utero devono verificarsi due eventi fondamentali. Le cellule in primo luogo si organizzano in uno strato ordinato con una piccola cavità interna, simile a una pallina cava: questo spazio diventerà in seguito la cavità amniotica dentro cui il feto si accrescerà nei mesi successivi della gravidanza. In un secondo tempo alcune cellule si differenziano e migrano per organizzare nello spazio gli organi e consentire il progredire corretto della gravidanza. Tali processi sono regolati da segnali di comunicazione tra le cellule che finora erano rimasti sconosciuti. Per questo motivo gli autori dello studio hanno provato a identificare questi segnali utilizzando tecniche avanzate di analisi genomiche e di editing genetico sui modelli tridimensionali. Il team ha scoperto che un segnale chiamato TGF-beta, coordina le primissime fasi dell’organizzazione cellulare e della formazione della cavità amniotica. Questo avviene grazie a un gene-regolatore chiave, ZNF398, che controlla molti altri geni coinvolti nella costruzione della struttura tridimensionale dell’embrione. Successivamente, entra in gioco un segnale simile, Activin A, che avvia le migrazioni cellulari e i processi di differenziamento necessari per la formazione degli organi. TGF-beta è una preziosa proteina multifunzionale che regola processi cellulari critici nello sviluppo embrionale, nella crescita cellulare, nella rigenerazione dei tessuti e nella regolazione del sistema immunitario, oltre che nel controllo dei tumori. TGF-beta nei tumori ha un ruolo ambiguo: inizialmente può inibire la crescita cellulare e l’apoptosi, ma nelle fasi avanzate favorisce la progressione del tumore, metastasi, angiogenesi e immunosoppressione. «Le analisi

UN SEGNALE CHIAMATO TGF-BETA, COORDINA
LE PRIMISSIME FASI DELL’ORGANIZZAZIONE
CELLULARE E DELLA FORMAZIONE DELLA
CAVITÀ AMNIOTICA. QUESTO AVVIENE GRAZIE
A UN GENE-REGOLATORE CHIAVE, ZNF398, CHE CONTROLLA ANCHE MOLTI ALTRI GENI
trascrittomiche ad alta risoluzione – afferma il professor Salvatore Oliviero responsabile del gruppo di ricerca dell’Università di Torino - ci hanno permesso di identificare il profilo dei geni attivi in ogni singola cellula e i regolatori chiave di questa fase delicata dello sviluppo embrionale. Questi esperimenti ci permettono di studiare in che modo le cellule prendono le prime decisioni sulla loro identità in una finestra temporale importante per lo sviluppo embrionale umano e di individuare somiglianze con i processi che avvengono nei tumori».
Come affermano i ricercatori, oltre ad aiutare a comprendere processi simili in gravi patologie come i tumori, i modelli artificiali di embrioni offrono anche diversi altri vantaggi. Grazie ad assi si superano i limiti etici e pratici dello studio diretto di embrioni umani precoci e si riesce e testare l’effetto di farmaci e nutrienti che potrebbero influenzare le prime fasi critiche dello sviluppo embrionale. Inoltre i modelli possono essere sfruttati anche per trovare le cause di aborti spontanei precoci, infertilità o malformazioni del feto.
Le prime fasi di sviluppo dopo l’impianto sono infatti estremamente delicate e spesso non vanno a buon fine: solo un embrione su tre riesce a impiantarsi e a svilupparsi correttamente. Ecco quindi che comprendere i meccanismi che regolano queste fasi potrebbe aiutare a migliorare i tassi di natalità e a ridurre rischi e anomalie del feto.
Un altro vantaggio del modello embrionale è, secondo gli scienziati, la sua affidabilità e il fatto di essere facilmente riproducibile, perché ogni sua componente è stata definita con grande precisione. Questo permette di studiare nel dettaglio quali geni e quali segnali sono essenziali nei diversi momenti dello sviluppo. Infine, concludono gli autori dello studio, questa tipologia di ricerche può contribuire alla definizione di nuove linee guida etiche e scientifiche per lo studio dello sviluppo embrionale umano precoce. (S. B.).

EVOLUZIONE DELLA NUTRIZIONE
LUCE DEI NUOVI

Scienze omiche (genetica, epigenetica, microbiota), biochimiche d’organo, tossicologiche derivate dall’ambiente per dare una risposta fisiologica integrata
© Shutter.B/shutterstock.com
di Gianni Zocchi*

La nutrizione moderna sta attraversando una trasformazione epocale grazie al contributo delle nuove scienze omiche, della genetica, dell’epigenetica, della microbiologia intestinale e della biochimica ormonale e non solo anche il contributo di tossicità derivante dall’ambiente. Questi ambiti, un tempo considerati separati, oggi concorrono a ridefinire la comprensione della risposta fisiologica dell’organismo ai nutrienti e all’ambiente.
L’approccio tradizionale, centrato su schemi dietetici grammati e calcoli di fabbisogni standardizzati, appare progressivamente indebolito o comunque non sufficiente, da una visione più dinamica, personalizzata e sistemica, in grado di integrare le variabili genetiche, epigenetiche, metaboliche e ambientali dell’individuo e non ultimo correlarle alla risposta biochimica e fisiologica dell’individuo.
La genetica e la nutrigenetica consentono di comprendere come specifici polimorfismi influenzino la risposta ai nutrienti e, parallelamente, come questi ultimi possano modulare l’espressione genica. È ormai noto che varianti nei geni coinvolti nel metabolismo lipidico, glucidico o proteico condizionano la capacità dell’organismo di utilizzare i nutrienti in modo ottimale.
La nutrigenomica, in sinergia con l’epigenetica, mostra come l’alimentazione e l’ambiente possano determinare modifiche nell’espressione genica attraverso processi di metilazione del DNA, modificazioni istoniche o regolazione mediata da microRNA. Questi meccanismi spiegano, almeno in parte, la grande variabilità interindividuale nella risposta a regimi alimentari apparentemente identici.
L’epigenetica, in particolare, introduce il concetto che l’alimentazione non agisce soltanto come fonte di energia, ma come informazione biologica capace di modulare la fi -
* Biologo Nutrizionista
siologia cellulare.
La dieta, l’attività fisica, l’esposizione a tossici ambientali e la composizione del microbiota rappresentano stimoli epigenetici in grado di influenzare la salute a lungo termine. In questo contesto, le scienze omiche, genomica, transcriptomica, proteomica, metabolomica e microbiomica, offrono una visione integrata del metabolismo, consentendo di individuare biomarcatori predittivi della risposta individuale ai nutrienti.
Il microbiota intestinale rappresenta un ulteriore livello di complessità. L’insieme dei microrganismi che colonizzano il tratto gastrointestinale partecipa attivamente alla digestione, alla produzione di metaboliti bioattivi e alla modulazione immunitaria e infiammatoria. L’alterazione della flora intestinale, o disbiosi, può determinare una ridotta efficienza digestiva, un assorbimento disomogeneo dei nutrienti e la formazione di sostanze bioattive, come le ammine derivate da aminoacidi, che interferiscono con i processi metabolici.
Ciò mette in discussione l’idea che la quantità ingerita di un macronutriente, come le proteine, corrisponda automaticamente alla quota effettivamente utilizzata a livello tissutale. La competizione per i trasportatori intestinali, l’infiammazione mucosale, l’eccessiva motilità o la presenza di fibre e antinutrienti sono ulteriori variabili che modulano l’assorbimento reale.
A questa complessità si aggiunge l’interazione con la biochimica ormonale e la risposta fisiologica d’organo. La disponibilità dei nutrienti, infatti, è mediata da sistemi endocrini e paracrini: insulina, glucagone, ormoni tiroidei, leptina, cortisolo e mTOR rappresentano nodi centrali nel controllo metabolico. Alterazioni dell’asse ormonale, stress ossidativo e infiammazione cronica di basso grado influenzano la capacità dell’organismo di utilizzare correttamente i substrati energetici.
Anche l’ambiente esterno, attraverso la presenza di so -

stanze tossiche, metalli pesanti o interferenti endocrini, può condizionare la funzionalità cellulare, la flora batterica e i processi epigenetici. La tossicologia ambientale entra così a pieno titolo nella nutrizione clinica moderna, dove la salute non può più essere disgiunta dal contesto ecologico.
Alla luce di queste considerazioni, la nutrizione deve essere ripensata come una disciplina di integrazione biologica e non come una unica mera applicazione di protocolli dietetici. L’intervento nutrizionale efficace non può limitarsi al calcolo dei fabbisogni teorici, ma deve basarsi su un’analisi sistemica che includa variabili genetiche, epigenetiche, metaboliche, microbiotiche e ambientali. Il concetto stesso di “grammo” assume un valore relativo: ciò che conta è la biodisponibilità e la destinazione metabolica del nutriente, che dipendono dallo stato dell’organismo.
Per esempio, 80 grammi di proteine calcolate secondo i fabbisogni possono non corrispondere all’effettivo utilizzo proteico se sono presenti disbiosi, permeabilità intestinale aumentata o infiammazione cronica. Allo stesso modo, la genetica predittiva può indicare intolleranze/sensibilità latenti o predisposizioni che, interagendo con il microbiota, generano quadri clinici complessi di infiammazione e alterata omeostasi.
In questa prospettiva, la personalizzazione nutrizionale si configura come un processo dinamico di adattamento tra biologia individuale e ambiente. Gli strumenti della nutrigenetica, della metabolomica e della microbiomica permettono di superare l’approccio universale per avvicinarsi a una vera “nutrizione di precisione”. Tale approccio, che richiede solide basi in biologia molecolare, biochimica e fisiologia, consente di modulare gli interventi nutrizionali in funzione del profilo individuale.
La valutazione della permeabilità intestinale, dell’assetto infiammatorio, dell’efficienza digestiva, dell’esposizione tossica e della composizione microbiotica diventa
parte integrante del processo decisionale clinico.
Le implicazioni di questo cambiamento sono profonde anche sul piano formativo e professionale. L’ iter accademico del Biologo nella figura del Biologo Nutrizionista, formato attraverso un percorso magistrale che comprende genetica, biochimica, microbiologia, tossicologia e scienze omiche, risulta naturalmente predisposta a integrare queste conoscenze nella pratica dietetica anche clinica.
Difficile poter trovare in altri percorsi accademici una risposta così articolata e nella complessità della nutrizione moderna che richiede una competenza scientifica e interdisciplinare capace di interpretare e collegare i diversi livelli di interazione sul metabolismo umano. È in questa prospettiva che il Biologo Nutrizionista assume una funzione centrale: quella di mediatore tra la biologia molecolare e l’applicazione nutrizionale, garantendo che l’intervento dietetico sia fondato su basi fisiopatologiche solide e personalizzate.
In conclusione, la nutrizione contemporanea deve essere interpretata come un sistema integrato che unisce genetica, epigenetica, microbiota, biochimica ormonale e ambiente. L’approccio tradizionale basato su diete standardizzate, pur ancora utile in contesti specifici, risulta limitante se non inserito in un quadro più ampio di personalizzazione biologica.
L’era della nutrizione di precisione richiede professionisti in grado di leggere e interpretare i segnali molecolari e metabolici dell’organismo, trasformando i dati scientifici in strategie cliniche individualizzate.
Il Biologo Nutrizionista, grazie alla propria formazione trasversale, è oggi la figura più idonea a guidare questo processo evolutivo, integrando conoscenze di genetica, microbiologia, tossicologia e fisiologia in un’unica visione coerente e scientificamente fondata nel rispetto dei fondamentali della scienza dell’alimentazione che trovano a tutt’oggi ispirazione del modello mediterraneo.
© YARUNIV Studio/shutterstock.com
©

Custodiscono la diversità, abilitano scoperte robuste e tengono insieme il presente della clinica con il futuro della medicina di precisione
di Davide Cacchiarelli*
Le biobanche non sono solo semplici depositi di provette, ma infrastrutture vive che raccolgono e conservano sangue, tessuti, cellule e DNA insieme a metadati clinici, ambientali e demografici. Trasformano materiali dispersi in risorse standardizzate, tracciabili e riutilizzabili: una memoria biologica collettiva su cui costruire scienza riproducibile.
La loro forza è duplice: da un lato custodiscono la biodiversità genetica, perché campionano popolazioni diverse per età, origine e storia sanitaria, evitando che la medicina di precisione si basi su dati parziali e poco rappresentativi; dall’altro abilitano studi retrospettivi in cui campioni raccolti anni fa possono essere analizzati oggi con tecnologie nuove, massimizzando l’investimento di pazienti, clinici e istituzioni.
Dall’arruolamento alla conservazione a freddo, la qualità pre-analitica è cruciale: tempi di trasporto, processamento, condizioni di stoccaggio e controlli di qualità determinano la robustezza dei risultati e la loro riutilizzabilità. Intorno ai campioni, dati organizzati secondo i principi FAIR - rintracciabili, accessibili, interoperabili e riutilizzabili - permettono di collegare coorti, integrare informazioni fenotipiche, immagini e stili di vita, e formulare nuove domande sugli stessi materiali. L’integrazione con cartelle cliniche elettroniche e registri di patologia rende possibile seguire l’evoluzione nel tempo, costruire dataset longitudinali e documentare l’efficacia reale di terapie e percorsi di cura. Così le biobanche uniscono il mondo del laboratorio con la pratica clinica, creando un ecosistema in cui scoperta, validazione e applicazione si alimentano a vicenda.
Le biobanche sono il carburante degli studi su larga scala. Servono numeri, standard e governance: l’accesso regolato, ma efficiente a campioni e dati aumenta la potenza statistica, permette di individuare varianti a effetto marginale, di validare biomarcatori e di accelerare la scoperta di bersagli terapeutici. Tutto questo funziona soltanto se ben organizzato: consenso informato alla raccolta e allo studio, spesso ampio, ma revocabile, e con preferenze granulari, pseudonimizzazione (uso di un codice univoco per campione senza esporre informazioni anagrafiche), audit e comitati etico-scientifici con criteri di accesso equi. Anche il ritorno dei risultati, quando clinicamente azionabili, va gestito con trasparenza e responsabilità. Resta aperta la sfida della rappresentatività, includendo gruppi e territori sottostudiati per evitare errori di campionamento che possono minare la qualità dello studio e introdurre disuguaglianze; altrettanto cruciale è la sostenibilità economica a lungo termine, con modelli che bilancino interesse pubblico e partenariati industriali.
Cresce poi l’interesse per architetture federate in cui gli algoritmi viaggiano verso i dati, non viceversa: si minimizza-
* Professore - Università degli Studi di Napoli Federico II

L’USO CONGIUNTO DI IA, STANDARD PER LA TRACCIABILITÀ E BIOBANCHE DI SORVEGLIANZA
GENOMICA PERMETTERÀ DI INDIVIDUARE
RAPIDAMENTE VARIANTI PATOGENE EMERGENTI
E RISPOSTE AI TRATTAMENTI, MIGLIORANDO L’EQUITÀ DELL’ACCESSO ALLA RICERCA
no i rischi per la privacy e si massimizza l’interoperabilità fra piattaforme. Standard internazionali per tracciabilità e qualità, identità digitale dei campioni e sistemi di controllo versione dei dati aiutano a garantire riproducibilità e a ridurre attriti burocratici, liberando tempo ed energie per la scienza vera. Inoltre, programmi di formazione condivisi per addetti e ricercatori, linee guida pubbliche e audit periodici rafforzano la qualità lungo tutta la catena del valore. Una governance che includa rappresentanti dei pazienti e della società civile aiuta definire priorità di ricerca pertinenti e a costruire fiducia duratura nei confronti dei progetti e delle istituzioni coinvolte.
Nelle malattie rare, dove i pazienti sono pochi e dispersi, le biobanche agiscono da hub che concentrano campioni e informazioni cliniche, rendendo possibili analisi multi-omiche approfondite, validazioni indipendenti e trial mirati; la possibilità di richiamare campioni consente studi longitudinali che chiariscono l’evoluzione naturale delle patologie e identificano biomarcatori utili alla diagnosi precoce. Nelle malattie comuni come diabete, cardiopatie, tumori, la combinazione di genetica, esposizioni ambientali e non (esposomi) e stili di vita alimenta modelli di rischio poligenico, stratifica i pazienti e orienta prevenzione e terapia di precisione.
L’integrazione con immagini, sensori e dati real-world apre a nuove metriche di risultato e a un monitoraggio più tempestivo. Guardando avanti, l’uso congiunto di intelligenza artificiale, standard per la tracciabilità e biobanche di sorveglianza genomica permetterà di individuare rapidamente varianti patogene emergenti e risposte ai trattamenti, migliorando l’equità dell’accesso alla ricerca. In sintesi, le biobanche sono infrastrutture silenziose ma decisive: custodiscono la diversità, abilitano scoperte robuste e tengono insieme il presente della clinica con il futuro della medicina di precisione. Per i sistemi sanitari è anche uno strumento di resilienza abilitando risposte alle emergenze infettive ed orientando decisioni basate su evidenze.

Uno studio negli Usa dimostra come il divario tra ricchi e poveri in termini di aspettativa di vita equivalga a quasi 9 anni per i meno abbienti
L’essere più poveri fa rima con l’essere meno longevi. Il divario di aspettativa di vita tra anziani a reddito elevato e quelli con reddito basso si amplia. Secondo un’analisi condotta dal National Council on Aging (Ncoa) degli Stati Uniti e dal LeadingAge long-term services and supports (LTSS) Center dell’Università del Massachusetts a Boston, che ha valutato l’impatto delle condizioni socio-economiche negative sugli over 60 statunitensi coinvolti nell’Health and Retirement Study, gli anziani più ricchi hanno una prospettiva di vita superiore di nove anni rispetto ai meno abbienti.
Il rapporto ha rilevato che la maggior parte delle persone non dispone di risorse sufficienti per far fronte a una assistenza sanitaria a lungo termine o a problemi di salute, con una maggiore incidenza della mortalità che arriva a ridurre la longevità di quasi un decennio.
«È scioccante e inaccettabile che negli Stati Uniti nel 2025 la povertà rubi quasi un decennio della vita degli anziani. Milioni di anziani americani che hanno lavorato sodo e rispettato le regole stanno morendo prematuramente semplicemente perché non hanno risorse finanziarie sufficienti. Questo è un invito all’azione per cambiare le nostre politiche e i nostri sistemi e garantire che tutti possano godere del dono della longevità, non solo i ricchi», afferma Ramsey Alwin, presidente e Ceo della Ncoa. Secondo l’analisi condotta negli Stati Uniti, gli anziani che appartengono alla quota del 20% più povera della popolazione, con un reddito medio inferiore ai 20mila dollari l’anno, muoiono con una frequenza quasi doppia rispetto ai loro coetanei con un reddito annuo pari o superiore ai 120mila dollari.
«Nel periodo, compreso tra il 2018 e il 2022, infatti, il tasso di mortalità degli over 60 economicamente più svantaggiati ha raggiunto il 21%, mentre tra i più benestanti si è fermato intorno al 10,7%», sottolinea Dario Leosco, presidente della Società italiana di gerontologia e geriatria (Sigg), e professore ordinario di Geriatria presso l’Università degli Studi di Napoli Federico II. È proprio questa differenza di quasi dieci punti percentuali che traduce in termini concreti l’impatto della povertà sulla vita: in media, gli anziani con meno risorse muoiono circa nove anni prima di quelli più abbienti.
«Ma - continua Leosco - non si tratta soltanto di avere meno
mezzi: lo svantaggio socioeconomico, espresso in termini di reddito, istruzione, alloggio, si ‘fa strada’ anche nell’organismo, provocando in misura inversamente proporzionale al reddito, una condizione di stress cronico che può portare a un’infiammazione sistemica di tutti i tessuti.
Questa - sottolinea - rappresenta terreno fertile per il prosperare di malattie neurodegenerative, cardiovascolari e oncologiche, a cui si aggiunge l’effetto antagonista nei confronti del sistema immunitario, con la conseguente perdita progressiva delle capacità dell’organismo di difendersi da agenti esterni. La scarsità economica si trasforma quindi anche in un fattore di rischio biologico che accorcia l’esistenza e riduce gli anni vissuti in buona salute».
Sebbene l’Italia sia ancora tra i Paesi più longevi al mondo, i dati che provengono da oltre oceano sono un segnale preoccupante. Il problema è più grave di quanto fosse in passato per l’aumento delle disuguaglianze di reddito, con una povertà assoluta crescente soprattutto tra gli anziani, che nel nostro Paese interessa circa 1 milione di over65, secondo i più recenti dati Istat.
Già nel 2017, uno studio internazionale pubblicato sul British Medical Journal, nell’ambito del progetto europeo LifePath che aveva coinvolto anche l’Italia, aveva dimostrato una riduzione più contenuta dell’aspettativa di vita delle persone più anziane, dai quattro ai sette anni, associata a una posizione socio-economico svantaggiata, con un impatto negativo paragonabile a quello provocato da altri noti fattori di rischio, come sedentarietà, diabete e fumo.
«L’universalismo del nostro sistema sanitario - avverte Leosco -, unito alla prevenzione e alla medicina di base, ha contribuito fino ad oggi in modo significativo alla riduzione della mortalità e all’allungamento dell’aspettativa di vita, ma una sanità pubblica sempre più ‘ristretta’, a fronte di una privatizzazione che avanza, rischia di creare barriere economiche che minano l’aspettativa di vita.

IL PROBLEMA È PIÙ GRAVE DI QUANTO FOSSE IN PASSATO PER L’AUMENTO
Le politiche pubbliche, in particolare quelle economiche e sociali, rappresentano quindi un potente strumento per orientare gli esiti di salute collettivi e garantire un invecchiamento sano.
Di conseguenza, ogni decisione politica è anche una decisione sanitaria. Costruire una società più giusta è pertanto la più efficace politica di salute pubblica». (E. G.).
© Bela Zamsha/shutterstock.com

NUOVE ANALISI GENETICHE INDICANO
CHE I NOSTRI ANTENATI FOSSERO POSITIVI
ALL’HPV16, SUGGERENDO CHE LA CONVIVENZA TRA UOMO E VIRUS ONCOGENI
RISALGA A DECINE DI MILLENNI
Ötzi, l’uomo dei ghiacci vissuto più di 5mila anni fa sulle Alpi tra Italia e Austria, è diventato negli anni un vero paziente storico: ogni nuova analisi aggiunge dettagli sulla sua vita, sulla sua morte e sulle patologie che lo accompagnavano. Finora gli esami avevano già ricostruito un quadro clinico sorprendentemente ricco: fratture ossee guarite male, parassiti intestinali, carie, infiammazioni croniche, segni di aterosclerosi e una predisposizione genetica a livelli elevati di colesterolo, oltre a un’intolleranza al lattosio.
Ora, un nuovo studio suggerisce che alla lista potrebbe aggiungersi anche un’infezione da papillomavirus umano. Il lavoro, guidato da biologi dell’Università federale di San Paolo, in Brasile, è stato diffuso come preprint sulla piattaforma bioRxiv, quindi prima della revisione paritaria. Gli autori hanno cercato tracce virali nel materiale genetico estratto dalla mummia di Ötzi e da altri resti umani antichi, e sostengono di aver individuato sequenze compatibili con Hpv16, un ceppo oggi noto per la sua associazione con diversi tumori, in particolare quelli del collo dell’utero e dell’orofaringe.
L’aspetto più importante è che segnali simili non compaiono solo nella mummia alpina. Tracce dello stesso tipo virale sarebbero state riconosciute anche nel genoma di Ust-Ishim, un Homo sapiens vissuto circa 45mila anni fa nella Siberia occidentale. Due individui separati da circa 40mila anni e da migliaia di chilometri, ma accomunati, secondo l’interpretazione degli autori, da una variante antichissima del papillomavirus. Se l’identificazione venisse confermata, si colmerebbe un vuoto importante nella storia evolutiva di questi virus oncogeni, suggerendo una convivenza con l’uomo molto più remota di quanto documentato finora. «Abbiamo la più antica prova di Hpv», afferma la bioinformatica Juliana Yazigi, prima autrice dello studio. Le sequenze recuperate, spiegano i ricercatori, sembrano più vicine a un tipo di Hpv che studi precedenti avevano ipotizzato come proveniente dai Neanderthal. Ed è qui che la storia si complica: per essere presente sia in Ötzi sia in Ust-Ishim, la variante deve aver circolato a lungo all’interno dell’Homo sapiens. Così a lungo, suggeriscono gli autori,

che l’ipotesi più plausibile è che sia stata la nostra specie a trasmettere l’Hpv16 ai Neanderthal, e non il contrario. Il risultato ha attirato l’attenzione anche di chi non ha partecipato alla ricerca. Sul sito di Science, il genetista Ville Pimenoff dell’Università di Oulu, in Finlandia, ha definito la scoperta molto interessante e coerente con l’idea che l’Homo sapiens sia stato esposto a questi virus per gran parte della propria esistenza. È un promemoria utile: i patogeni non sono solo incidenti della modernità, ma parte di un ecosistema biologico antico, che si muove con le migrazioni, i contatti tra gruppi e le dinamiche demografiche.
Dal punto di vista metodologico, tuttavia, il campo è complesso. La paleovirologia, la disciplina che ricostruisce la storia dei virus usando Dna antico, deve fare i conti con campioni degradati, frammenti corti e il rischio di contaminazioni contemporanee. Anche quando le sequenze sembrano convincenti, bisogna dimostrare che non derivino da errori di assemblaggio, da letture spurie o da materiale moderno introdotto durante le fasi di scavo, conservazione o laboratorio. Per questo la comunità scientifica attende con attenzione le verifiche indipendenti e l’eventuale pubblicazione su una rivista sottoposta a peer review.
Se i dati verranno confermati, l’impatto non sarà solo storico. Capire da quanto tempo Hpv16 circoli nella nostra specie può aiutare a interpretare meglio la sua biologia, chiarendo come si sia adattato all’ospite umano, quali pressioni selettive ne abbiano favorito la persistenza e perché alcuni ceppi abbiano una maggiore capacità oncogena.
In prospettiva, ricostruire le tappe evolutive dei papillomavirus può offrire indicazioni utili anche per la prevenzione moderna, dalla vaccinazione agli screening, mostrando quali caratteristiche del virus siano rimaste stabili e quali invece siano cambiate nel tempo. Ötzi, ancora una volta, funziona come una capsula del tempo. La sua mummia non racconta soltanto la vita quotidiana di un uomo dell’età del rame, ma anche la storia invisibile delle infezioni che hanno accompagnato l’umanità. In attesa di conferme, la lezione è chiara: studiare i virus del passato aiuta a capire quelli di oggi. (C. P.).

CUORE E CERVELLO DIALOGANO: COSÌ L’ETÀ DEL NOSTRO
MOTORE VITALE RALLENTA
Uno studio internazionale coordinato dalla Scuola Superiore Sant’Anna individua nel ramo destro del nervo vago un elemento chiave per la salute del muscolo cardiaco
di Domenico Esposito
C’è un dialogo silenzioso che accompagna ogni battito del nostro cuore. Non lo sentiamo, non ce ne accorgiamo, eppure è lì da sempre. È il dialogo continuo tra cuore e cervello, mediato dal nervo vago, una sorta di autostrada biologica che trasporta segnali fondamentali per il nostro equilibrio interno. Oggi la scienza dimostra che preservare questo legame - soprattutto sul lato destro - può fare la differenza nel modo in cui il cuore invecchia.
A confermarlo è uno studio internazionale coordinato dalla Scuola Superiore Sant’Anna di Pisa e pubblicato sulla rivista Science Translational Medicine. La ricerca individua nel ramo destro del nervo vago un elemento chiave per la salute del muscolo cardiaco, capace di proteggere le cellule del cuore dall’usura del tempo e dai processi degenerativi che portano allo scompenso cardiaco.
Non si tratta soltanto di controllare la frequenza dei battiti, come si è a lungo pensato. Il nervo vago, spiegano i ricercatori, influisce direttamente sulla qualità delle cellule cardiache, i cardiomiociti, preservandone la funzionalità e contrastando quei meccanismi di rimodellamento strutturale che, nel tempo, rendono il cuore più rigido e meno efficiente. Quando questa connessione si mantiene integra, il muscolo cardiaco conserva forza, elasticità e capacità di adattarsi agli stress. Quando invece viene interrotta, il processo di invecchiamento accelera, quasi come se il cuore venisse lasciato senza una guida.
Il tema è particolarmente rilevante in Italia, dove l’invecchiamento della popolazione è ormai una realtà strutturale. Nei reparti di cardiologia e negli ambulatori di medicina generale, l’insufficienza cardiaca è una presenza costante, spesso legata a un deterioramento lento e progressivo che inizia molti anni prima dei primi sintomi evidenti. Le malattie cardiovascolari restano la principale causa di morte nel nostro Paese e rappresentano una delle voci di spesa più rilevanti per il Servi-
LE MALATTIE CARDIOVASCOLARI RESTANO
LA PRINCIPALE CAUSA DI MORTE NEL NOSTRO
PAESE E RAPPRESENTANO UNA DELLE VOCI
DI SPESA PIÙ RILEVANTI PER IL SERVIZIO
SANITARIO NAZIONALE. LO STUDIO NASCE
DA UNA COLLABORAZIONE STRETTA TRA MEDICINA
SPERIMENTALE E BIOINGEGNERIA
zio sanitario nazionale. Lo studio nasce da una collaborazione stretta tra medicina sperimentale e bioingegneria. Il gruppo di Medicina Critica Traslazionale (TrancriLab), guidato da Vincenzo Lionetti presso la Scuola Sant’Anna, ha lavorato insieme all’Istituto di Biorobotica diretto da Silvestro Micera allo sviluppo di un condotto nervoso bioassorbibile. Questo dispositivo è progettato per favorire la rigenerazione spontanea del nervo vago a livello cardiaco, un’innovazione che potrebbe cambiare l’approccio alla chirurgia cardiotoracica e ai trapianti di cuore.
La sperimentazione è stata condotta a Pisa grazie a finanziamenti europei FET nell’ambito del progetto NeuHeart e con fondi del PNRR attraverso il Tuscany Health Ecosystem. Al lavoro hanno partecipato numerose istituzioni italiane e internazionali, tra cui l’Università di Pisa, la Scuola Normale Superiore, la Fondazione Toscana G. Monasterio, il CNR, l’Università di Udine, GVM Care & Research e centri di ricerca in Germania, Svizzera e Kazakistan. Un ecosistema scientifico che riflette quanto il tema dell’invecchiamento cardiaco sia ormai una priorità globale. «Quando l’integrità della connessione con il nervo vago viene persa, il cuore invecchia più rapidamente», spiega Lionetti.
Anche un ripristino parziale del collegamento, come evidenziato dalla cardiologa Anar Dushpanova, può essere sufficiente a rallentare i processi degenerativi e a mantenere una contrazione cardiaca efficace. Questo significa che
intervenire sul sistema nervoso autonomo potrebbe diventare una leva terapeutica concreta, non solo sperimentale.
Le ricadute pratiche sono importanti. In cardiochirurgia, ad esempio, molte procedure comportano una perdita dell’innervazione cardiaca. Integrare tecniche di ripristino del nervo vago potrebbe migliorare gli esiti a lungo termine degli interventi, riducendo il rischio di scompenso e migliorando la qualità di vita dei pazienti. Un cambio di prospettiva che sposta l’attenzione dalla gestione delle complicanze tardive alla prevenzione dell’invecchiamento precoce del cuore.
A livello internazionale, il legame tra sistema nervoso e cuore è al centro di numerosi filoni di ricerca. Negli Stati Uniti e in Europa si studiano da anni tecniche di stimolazione del nervo vago per trattare insufficienza cardiaca, depressione resistente e alcune patologie neurologiche. In Giappone, dove la longevità è tra le più alte al mondo, rallentare l’invecchiamento cardiaco è considerato un obiettivo strategico di sanità pubblica.
Il messaggio che emerge da questo studio è semplice ma potente: il cuore non è una semplice pompa meccanica. È un organo che dialoga costantemente con il cervello e con il sistema nervoso. Proteggere questo dialogo potrebbe essere una delle chiavi per vivere più a lungo e meglio, accompagnando l’allungamento della vita con una reale qualità degli anni guadagnati.
Rubrica sul mondo delle malattie rare
LA GASTROPARESI
È UNA MALATTIA RARA?

La gastroparesi non è una malattia rara di per sé, ma una complicanza rara del diabete che può interessare anche il 20-50% delle persone con diabete di tipo 1 o 2, soprattutto se mal controllato da tempo. In alcuni casi, la forma idiopatica (senza causa nota) viene considerata una malattia rara.
Forme
La gastroparesi diabetica è una delle complicanze del diabete, causata da un danno ai nervi che controllano la motilità dello stomaco. La gastroparesi idiopatica, invece, classificata tra le malattie rare, non ha un codice di esenzione specifico e univoco.
La sua classificazione come malattia rara può consentire l’accesso all’esenzione tramite codici generici o per patologie correlate, come il codice R99 (è un codice temporaneo) per la diagnosi genetica delle malattie rare o il codice RDG050 menzionato per la diagnosi di malattie rare e i relativi esami.
La corretta attribuzione dipende alla valutazione clinica dello specialista.
Sintomatologia
Entrambe le forme sono caratterizzate da ritardo dello svuotamento gastrico, in assenza di ostruzioni meccaniche del tratto inferiore dello stomaco. I pazienti presentano nausea, vomito, immediata sazietà, senso di pienezza postprandiale, gonfiore, dolore addominale e, nei casi più gravi, disidratazione, squilibrio elettrolitico, perdita di peso e malnutrizione.
Diagnosi
I gold standard sono essenzialmente tre:
1. test di svuotamento gastrico o scintigrafia gastrica (è il test più importante; dopo aver consumato un pasto leggero con un tracciante radioattivo, si effettuano scansioni per monitorare la quantità di cibo rimasta nello stomaco nel tempo: un ritardo nello svuotamento è sintomo di gastroparesi);
2. endoscopia (permette al medico di esaminare visivamente l’interno dello stomaco e dell’esofago, escludendo altre condizioni come ostruzioni, infiammazioni o ulcere);
3. esami ematochimici (servono a valutare la glicemia e a escludere altre cause come malnutrizione, disidratazione o infezioni).
Terapia
La terapia per la gastroparesi include modifiche alla dieta (pasti piccoli e frequenti, cibi morbidi, pochi grassi), farmaci procinetici (come domperidone o eritromicina) per accelerare lo svuotamento gastrico e farmaci per controllare nausea e vomito (antiemetici). In casi più gravi, si considerano interventi chirurgici come la piloroplastica o l’elettrostimolazione gastrica. È fondamentale collaborare con il medico per un piano personalizzato e per il controllo dei livelli di zucchero nel sangue.
Prospettive future
Le prospettive future per la terapia della gastroparesi includono una migliore personalizzazione dei trattamenti, con maggiore attenzione alla gestione delle cause sottostanti come il diabete, e l’esplorazione di nuovi farmaci e approcci combinati. La ricerca si concentra sullo sviluppo di farmaci più efficaci, l’uso di terapie digitali e personalizzate, e un approccio multidisciplinare che integri cambiamenti nello stile di vita e nutrizione.
Fonti/Riferimenti Bibliografici
• Diabete.com
• Oprha.net
• Policlinico Gemelli
di Maria Chiara Dell’Amico*


IL CANNABIDIOLO
E LE SUE PROPRIETÀ NEI COSMETICI LIMITATE
DALLA LEGISLAZIONE
di Carla Cimmino*
UN PRINCIPIO ATTIVO
PROMETTENTE PER ACNE, ECZEMA E INVECCHIAMENTO CUTANEO VINCOLATO DA
UNA NORMATIVA STRINGENTE

Il CBD è un cannabinoide non psicotropico presente nella Cannabis sativa L. Le sue interazioni con i recettori cannabinoidi e non cannabinoidi portano a vari effetti, come proprietà antinfiammatorie, analgesiche, anti-ansia e neuroprotettive.
Negli ultimi anni, è aumentato l'interesse del CBD nei cosmetici destinati alla cura della pelle, grazie ai suoi potenziali benefici: capacità antinfiammatorie in condizioni come acne ed eczema; azione antiossidante per proteggere la pelle dai danni dell’invecchiamento; regolazione della produzione di sebo per garantire l'idratazione cutanea; in aggiunta il CBD migliora la funzione barriera della pelle, fondamentale per la sua salute.
Da alcuni studi è emerso che il CBD mostra avere capacità di modificare il livello di radicali liberi riducendo persino la produzione di specie reattive di ossigeno (ROS), così da proteggere le cellule dai danni ossidativi, promuove la sua azione antiossidante attraverso la cattura di radicali liberi, aumentando i livelli di enzimi antiossidanti: es. le supe -
* Comitato Centrale FNOB
rossido dismutasi e le catalasi; mostra anche avere caratteristiche per regolare lo stress ossidativo che può influenzare diverse malattie, compresi i disturbi neurodegenerativi.
È implicato nella modulazione del sistema endocannabinoide e nella regolazione di enzimi antiossidanti, quindi svolge quindi un ruolo importante nella protezione e illuminazione della pelle, contribuendo al mantenimento dell'equilibrio redox e della salute generale della pelle.
L'invecchiamento cutaneo è influenzato da radicali liberi e stress ossidativo, sì è visto quanto sia utile l’applicazione di olio di canapa combinato con nutrienti come ceramidi e acido ialuronico; mostra anche effetti positivi su disturbi cutanei, inclusi eczema e psoriasi, riducendo le infiammazioni senza effetti tossici. Il CBD riesce a modificare l'equilibrio redox, stimolando geni protettivi e riducendo lo squilibrio causato da radiazioni UVB.
Alcuni studi hanno mostrato che il CBD può prevenire l'infiammazione e regolare la produzione di citochine come IL-1B e IL6, influenzando la proliferazione delle cellule. Altri effetti favorevoli si osservano anche nei melanociti e nei fibroblasti, infatti supportano la vitalità cellulare, questo perché il CBD stimola l'espressione di geni antiossidanti e di riparazione delle ferite nei cheratinociti.
L’ azione di protezione per le membrane cellulari è legata al glutatione, presente nel corpo, che lavora in sinergia con il CBD contri -

buendo alle sue proprietà antiossidanti. Infine, si riduce la formazione di sostanze tossiche nei neuroni e aumenta l'attività di enzimi chiave nella metabolizzazione dei radicali.
Il CBD ha una bassa solubilità in acqua, questa può essere migliorata attraverso sistemi di consegna come le nano formulazioni, che aumentano stabilità e rilascio. Infatti l’utilizzo di liposomi permettono una diffusione profonda nella pelle e un rilascio mirato, essendo costituiti da un doppio strato di fosfolipidi che, una volta a contatto con la pelle, possono penetrare nello strato corneo. Il CBD custodito all’interno dei liposomi, viene rilasciato nella membrana cellulare attraverso un processo chiamato fusione. Questo processo richiede l’intervento di diverse proteine di membrana, tra cui le proteine solubili SNARE e la proteina RAB GTPase. La funzione si esplica dopo che si siano svolte tre fasi: connessione, attracco e fusione. Durante la connessione, la proteina RAB GTPase del liposoma si lega alla proteina RAB Effector della membrana.
Nella fase di attracco, le proteine SNARE T e V si uniscono formando un complesso. Infine, le proteine SNARE si dissociano dopo aver completato la fusione. Le proteine SNARE possono aumentare le possibilità di fusione con le membrane cellulari. Inoltre, i liposomi possono utilizzare meccanismi di targeting attivo, collegandosi a recettori cellulari tramite ligandi come acido folico e zuccheri.
Studi hanno indicato che il CBD può trattare malattie legate allo stress ossidativo, mostrando risultati promettenti in modelli murini e su volontari umani, dove ha ridotto la frequenza delle crisi e migliorato i livelli di glucosio nel sangue.
La sua applicazione topica in gel è stata efficace nel ridurre l'infiammazione dell'artrite, mostrando un buon assorbimento e potenziale terapeutico senza effetti collaterali evidenti, perchè vengono attivati geni antiossidanti nei cheratinociti, alcuni studi in vitro hanno mostrato effetti positivi nel trattamento del glioblastoma.
Per le assunzioni orali, il CBD incapsulato in liposomi ha determinato una maggiore presenza nel sangue rispetto alla forma non incapsulata, ma anche la sua presenza in soluzione ha migliorato l'efficacia di farmaci chemioterapici nel trattamento del cancro al seno.

McCormick et al. hanno creato una crema CBD incapsulata in nanoparticelle che protegge dalle mutazioni del DNA legate all'invecchiamento della pelle causato dai raggi UV-A. Hanno dimostrato risultati positivi sulla pelle trattata con questa crema, evidenziando i benefici del CBD come antiossidante.
S. Atalay e altri hanno studiato come il CBD neutralizzi i radicali liberi nei cheratinociti durante lo stress ossidativo, come l'esposizione ai raggi UVB e H2O2. Hanno descritto un meccanismo in cui H2O2 viene convertito in un radicale •HOO, che il CBD neutralizza. Il CBD si divide e produce un semichinone, mentre la reazione a catena può fermarsi combinando due radicali CBD a bassa energia.
Il CBD in presenza di tensioattivi a pH leggermente acido ha una moderata permeabilità e stabilità, le emulsioni W/O infatti sono buone per incorporare CBD, mentre gel idrofili specifici mostrano efficacia. È stata utilizzata cromatografia per il controllo di qualità nei cosmetici.
Nel 2023, il mercato globale della cura della pelle con CBD è stato valutato a 1,89 miliardi di dollari e si prevede che raggiunga 12,62 miliardi di dollari entro il 2032, con una crescita annua del 23,5%. La richiesta di prodotti per la pelle al CBD è motivata dalla loro efficacia nel trattare problemi cutanei, i produttori offrono cosmetici vegetali con CBD, evidenziando le loro qualità uniche, dividendo i prodotti in categorie: oli, detergenti, maschere e lozioni, con gli oli che dominano il mercato a causa delle loro proprietà antinfiammatorie e antiossidanti.
Tuttavia, l'uso del CBD nei cosmetici presenta sfide, e la confusione è causata dalla regolamentazione e dalla legalità del CBD, che varia da paese a paese, infatti il suo utilizzo
è consentito in alcune regioni, ma limitato in altre.
Negli Stati Uniti, la FDA ha approvato l'uso di piante di canapa e ha autorizzato alcuni farmaci a base di CBD, ci sono però normative rigide riguardo al contenuto di THC nei prodotti cosmetici. La FDA stabilisce un limite di THC dello 0,3%, e i prodotti devono rispettare questo standard per essere legali.
In conclusione il CBD interrompe le reazioni a catena dei radicali liberi, trasformandoli in forme meno attive, grazie soprattutto ai gruppi idrossilici dell'anello fenolico. È importante approfondire gli studi di assorbimento dei cosmetici con CBD insieme ad altri antiossidanti e la possibile sinergia tra di essi.
Le reazioni di perossidazione lipidica influenzano la salute delle membrane cellulari, causando disfunzioni cellulari e apoptosi. L'incapsulamento liposomiale del CBD migliora la sua stabilità e biodisponibilità, aumentando l'efficacia nelle formulazioni dermatologiche.
Studi preliminari indicano il potenziale del CBD in cosmetici per migliorare la barriera cutanea e regolare la produzione di sebo. Tuttavia, la maggior parte delle evidenze deriva da studi in vitro e animali, con pochi dati clinici sugli esseri umani. Le variazioni nelle formulazioni e nelle normative ostacolano il confronto dei risultati, mentre sono necessari ulteriori studi controllati per confermare i benefici del CBD nella cura della pelle.
Bibliografia
1. M. Fafallou; A. Papadopoulos; P. Pavlou; A. Varvaresou. Cannabidiol’s Antioxidant Properties in Skin Care Products and Legislative Regulations ©
© n_defender/shutterstock.com

METÀ FUORI NORMA
La terza edizione della campagna Legambiente svela perdite diffuse da flange, valvole e giunzioni. L’Italia è tra i Paesi europei con la maggiore intensità emissiva
di Gianpaolo Palazzo

LA CONCENTRAZIONE MEDIA
COMPLESSIVA MISURATA
SUI COMPONENTI È PARI
A 111,7 PPM: PRESSOCHÉ 56 VOLTE
IL LIVELLO ATMOSFERICO INDICATO
COME RIFERIMENTO (CIRCA 2 PPM)
Il metano che sfugge dalle infrastrutture del gas non è solo un problema climatico: è anche un paradosso industriale. Si tratta di un combustibile estratto, acquistato e trasportato lungo una filiera complessa che, tra manutenzioni assenti o insufficienti e pratiche di venting (rilascio intenzionale in atmosfera), finisce in parte disperso. È il punto di partenza della terza edizione di “C’è Puzza di Gas – Per il futuro del Pianeta non tapparWti il naso”, la campagna nazionale di Legambiente realizzata su incarico dell’Environmental Investigation Agency nell’ambito della Methane Matters Coalition.
I numeri riportati arrivano da 61 infrastrutture monitorate in otto regioni (Basilicata, Piemonte, Campania, Marche, Lombardia, Veneto, Umbria e Calabria) e da 153 componenti controllati tra flange, valvole e giunzioni. La concentrazione media complessiva misurata sui componenti è pari a 111,7 ppm: pressoché 56 volte il livello atmosferico indicato come riferimento (circa 2 ppm). Secondo le soglie utilizzate nella campagna, questo valore ricade in una fascia definita “media”.
Essa, però, non basta a indicare dove intervenire. Per questo l’associazione del cigno verde affianca al dato complessivo due letture diverse: da un lato la quota di misurazioni che supera la soglia di 10 ppm, dall’altro la distribuzione delle medie calcolate per singolo componente. Nel primo caso, viene segnalato che il 55,3% delle misurazioni oltrepassa i 10 ppm, oltre i quali – nella scala di riferimento

adottata – le dispersioni non possono essere considerate trascurabili dal punto di vista climatico. Nel secondo caso, guardando alle medie per elemento, emerge un quadro di hotspot: cinque componenti su 153 presentano concentrazioni oltre 1.000 ppm, 20 rientrano tra 100 e 1.000 ppm, 91 tra 10 e 100 ppm e 37 restano fino a 10 ppm. Tra i casi più significativi vengono citati la stazione di valvola di Jesi (AN), dove due flange hanno registrato una media di 2.665 ppm; l’impianto di regolazione e misura di via Moglia a Settimo Torinese (TO), con cinque tubi di sfiato a 2.008 ppm; e la cameretta di misura di Grumento Nova (PZ), in Basilicata, con una media di 1.653 ppm. Questi episodi sono collocati dagli ambientalisti nella fascia “alta” della propria classificazione.
Il punto metodologico è decisivo per evitare equivoci. Il monitoraggio è stato condotto con un “naso elettronico” basato su laser a infrarossi: lo strumento misura la densità della colonna di metano lungo il percorso ottico (ppm·m). Di-
videndo quel valore per la distanza stimata tra strumento ed elemento monitorato si ottiene una stima della concentrazione media lungo il percorso ottico espressa in ppm. È un approccio di screening utile a individuare punti critici, ma non equivale a una quantificazione della portata emissiva (quanto metano esce in kg/ora). La stessa Legambiente sottolinea, inoltre, che le misure sono state eseguite restando all’esterno del perimetro degli impianti e quindi a distanza: per questo vengono descritte come cautelative e, in condizioni diverse o con misure ravvicinate, i valori potrebbero risultare più elevati.
La campagna inserisce i dati anche in un quadro regolatorio e politico. Si richiama il regolamento europeo sul metano, che introduce obblighi e scadenze per gli operatori, e segnala ritardi nell’attuazione: su 11 termini fissati per il 2025, solo sette sono stati rispettati, con nodi ancora aperti su autorità competenti e sanzioni. Vengono richiamati, inoltre, il Global Methane Pledge (riduzione del 30% entro il 2030 ri-
© muratart/shutterstock.com
spetto ai livelli 2020) e l’aumento delle emissioni globali del settore petrolio e gas dal 2020 (+6%, secondo quanto dichiarato dal presidente Stefano Ciafani).
Le proposte avanzate si muovono su tre piani. Il primo è regolatorio: rispettare le scadenze Ue e difendere l’impianto normativo da indebolimenti, come l’eventuale inclusione nel pacchetto Omnibus. Il secondo è industriale: rafforzare la cooperazione con i Paesi esportatori e anticipare standard sulle importazioni, oltre a rivedere meccanismi che scaricano i costi delle perdite in bolletta (con un richiamo ad Arera). Il terzo è operativo: un progetto di riduzione per tutti i settori, con monitoraggi mensili, riparazioni tempestive e criteri d’intervento calibrati sulla grandezza delle dispersioni senza trascurare quelle minori. Legambiente richiama anche una soglia di 500 ppm, collegandola agli obblighi di intervento previsti dal regolamento Ue: un punto che, per tradursi in risultati, richiede autorità competenti, procedure chiare e sanzioni effettive.
Le tecnologie per individuare le perdite esistono e intervenire sulle dispersioni è una misura utile sul piano climatico e sostenibile su quello economico. Ciò che manca, sostiene il report della campagna, è trasformare il monitoraggio in pratica ordinaria di gestione, con responsabilità definite e controlli continui. Nel Pniec 2024 (Piano Nazionale Integrato per l’Energia e il Clima) le misure restano indicate in termini generici (monitoraggio della filiera, riparazione, riduzione di sfiato e flaring, cattura dei volumi dispersi, tecnologie come droni, satelliti e intelligenza artificiale). La differenza tra norme e realtà, però, la fanno ispezioni regolari, interventi documentati, tempi di riparazione rispettati e sanzioni applicate: perché ogni dispersione chiusa è una doppia vittoria, climatica ed economica, e ogni scadenza mancata non è un tecnicismo. È metano che continua a uscire dalla rete, con un costo per il clima e il sistema.



© StevanZZ/shutterstock.com
© Stefan Balaz/shutterstock.com
© GreenOak/shutterstock.com

SIENA, PROVINCIA CARBON NEGATIVE: UNICO CASO IN ITALIA DA OLTRE UN DECENNIO
Dal 2011 il territorio senese assorbe più CO2 di quanta ne emetta
Le foreste catturano il 107% delle emissioni lorde, generando un saldo climatico con segno meno davanti

All’alba, tra le ombre lunghe dei filari e le macchie scure dei boschi, il paesaggio senese sembra immobile. Nei registri del carbonio, invece, si muove: ogni anno confluisce in un’analisi che restituisce un numero. Nel 2022, secondo i documenti pubblicati dal progetto Siena Carbon Neutral (https://www.carbonneutralsiena.it/it/), il risultato netto dei gas serra della provincia di Siena è pari a –0,36 tonnellate di CO2 equivalente (CO2e) pro capite. Il dato è di natura territoriale: alle emissioni calcolate entro i confini considerati vengono sottratti gli assorbimenti stimati degli ecosistemi locali, in particolare forestali. Non descrive un’assenza di emissioni, ma una contabilità che chiude in negativo perché la componente di “cattura” supera quella emissiva.
Sul portale compare anche un confronto con l’Italia, indicata in +6,63 tonnellate di emissioni nette pro capite. È un contesto utile, ma va trattato per quello che è: un valore riportato dal progetto e, come ogni paragone su base abitante, dipendente da perimetro e metodologia. In questo caso, la performance locale risente in modo decisivo degli assorbimenti forestali contabilizzati e non coincide necessariamente con l’impronta di consumo dei residenti, ossia beni e servizi che possono generare impatti fuori provincia.
L’elemento che rende il caso interessante non è un picco isolato. Secondo la serie storica pubblicata, dal 2011 al 2022 (12 anni) il dato netto annuale della provincia di Siena è rimasto stabilmente sotto lo zero. Questa continuità, almeno sul piano documentale, sposta il tema dal “caso” alla tenuta nel tempo: quanto regge, anno dopo anno, un sistema che


© ColorMaker/shutterstock.com
© Vlas Telino studio/shutterstock.com
© Dima Moroz/shutterstock.com
SIENA, DUNQUE, NON È UN RIFUGIO SICURO,
MA UN CASO DI STUDIO A CIELO APERTO.
IL SUO SALDO NEGATIVO NON È UNA POLIZZA
ASSICURATIVA CONTRO IL RISCALDAMENTO
GLOBALE: È LA FOTOGRAFIA
DI UN EQUILIBRIO TRA EMISSIONI
E LE AZIONI DI CONTRASTO SVOLTE
DALL’ECOSISTEMA CHE VA
MISURATO E DIFESO
dipende dalla combinazione tra emissioni territoriali e “sequestri” stimati.
Nel dettaglio del 2022, i valori lordi totali ammontano a 1.333.742 tonnellate di CO2e. La composizione delle fonti descrive una provincia senza grandi poli industriali: il settore energetico pesa per il 75,3%, seguono agricoltura, foreste e altri usi del suolo (AFOLU) al 14,7%, rifiuti al 6,8% e processi industriali al 3,2%. Se ci si fermasse al quadro emissivo, Siena non apparirebbe distante da molte aree con profilo simile. La differenza sta proprio nella voce “assorbimenti”: secondo il report, quelli attribuiti ai boschi risultano pari al 107% delle emissioni lorde, il che equivale a un saldo netto di circa –7% rispetto alle emissioni lorde.
Il percorso è stato avviato nel 2006 con un obiettivo fissato al 2015. La soglia è stata raggiunta nel 2011 (102%) e nel 2022 è salita ancora. La cabina di regia è affidata all’Alleanza Carbon Neutrality, che riunisce amministrazione provinciale, Comune, Università degli Studi, Fondazione Monte dei Paschi e Regione Toscana, con l’intento dichiarato di garantire continuità al monitoraggio. La rendicontazione annuale dei gas serra è elaborata da Ecodynamics Group (Università di Siena). A partire dal 2022 l’analisi è sviluppata secondo il Global Protocol for Community-Scale Greenhouse Gas Inventories (GPC), con calcolo conforme alle Linee Guida IPCC 2006 e agli aggiornamenti 2019. La verifica di parte terza è svolta da DNV, facendo riferimento allo standard ISO 14064-1. Per la realizzazione, i settori indagati sono: energia, processi industriali/industria, rifiuti, agricoltura-foreste e altri usi del suolo.
«La provincia di Siena - ha dichiarato Agnese Carletti, presidente provinciale, durante la cerimonia “Siena


© manbo-photo/shutterstock.com
© Olivier Le Moal/shutterstock.com
© PaoloBruschi/shutterstock.com


© banjongseal324SS/shutterstock.com

© thodonal88/shutterstock.com
Carbon Neutral, le coordinate della sostenibilità” - è stata la prima area vasta in Europa certificata Iso 140641 e, dal 2011, ha raggiunto il traguardo di bilanci netti in negativo. Un obiettivo centrato quattro anni prima del previsto. A distanza di più di dieci anni, durante i quali il monitoraggio è continuato, questo territorio rinnova così il suo impegno virtuoso verso la sostenibilità».
Il punto, però, non è trasformare una serie storica in un trofeo. È capire da cosa dipende e cosa può incrinarla. Il segno meno poggia so -
prattutto su un serbatoio biologico: le foreste. Una risorsa che non è garantita nel tempo. Le capacità di assorbimento possono variare con età e gestione dei boschi e possono ridursi, o invertirsi, con siccità, incendi, eventi estremi e patogeni. Inoltre, una tonnellata stoccata in un anno non equivale a una rimozione permanente: ciò che entra nella biomassa può uscire in una stagione successiva.
Siena, dunque, non è un rifugio sicuro, ma un caso di studio a cielo aperto. Il suo saldo negativo non
è una polizza assicurativa contro il riscaldamento globale: è la fotografia di un equilibrio tra emissioni e le azioni di contrasto svolte dall’ecosistema che va misurato e difeso. Restare “sotto zero” non dipenderà solo da certificazioni e rendicontazioni, ma dalla tenuta del patrimonio forestale e dalla riduzione reale delle emissioni locali. La vera sfida non è aver raggiunto il traguardo prima degli altri, ma dimostrare quanto sia faticoso, e precario, restarci mentre il clima cambia spesso le regole del gioco. (G. P.).

PRODUCIAMO PIÙ RIFIUTI, MA LI GESTIAMO MEGLIO: IL
NOSTRO PARADOSSO
VIRTUOSO
Nel 2024 generati 29,9 milioni di tonnellate, +2,3% sul 2023
Eppure, la separazione sale al 67,7% e tutti i materiali da imballaggio superano i traguardi fissati da Bruxelles

© Stokkete/shutterstock.com

© Almahira hafshah/shutterstock.com

© Marc Elias/shutterstock.com
LA RACCOLTA DIFFERENZIATA
TOCCA IL 67,7% A LIVELLO
NAZIONALE. IL DIVARIO TERRITORIALE
RESTA, MA IL MEZZOGIORNO RIDUCE
LE DISTANZE: NORD AL 74,2%, CENTRO
AL 63,2% E SUD AL 60,2%
Nel 2024 hanno superato quota 29,9 milioni di tonnellate, segnando un incremento del 2,3% rispetto all’anno precedente. L’aumento s’inserisce in un contesto economico in crescita, con Pil e spesa per consumi finali che registrano entrambi un +0,7%. Complessivamente, nei 14 comuni con popolazione oltre i 200mila abitanti, i volumi salgono dell’1,8%. Sono i dati del Rapporto rifiuti urbani dell’Ispra (Istituto Superiore per la Protezione e la Ricerca Ambientale), che fotografa un sistema in movimento: cresce la produzione, ma migliorano anche i principali indicatori di gestione.
La raccolta differenziata tocca il 67,7% a livello nazionale. Il divario territoriale resta, ma il Mezzogiorno riduce le distanze: Nord al 74,2%, Centro al 63,2% e Sud al 60,2%. L’89,7% dei comuni intercetta oltre la metà dei propri rifiuti in modo differenziato e più del 72% delle amministrazioni ha superato la soglia del 65%. La separazione, quindi, non è più concentrata in poche aree virtuose, ma sta diventando componente strutturale dei servizi ambientali.
Le performance migliori appartengono all’Emilia-Romagna, che con il 78,9% guida la classifica nazionale e mette a segno la progressione più
marcata, con un balzo di 1,7 punti percentuali sul 2023. Seguono il Veneto (78,2%), la Sardegna (76,6%), il Trentino-Alto Adige (75,8%), la Lombardia (74,3%) e il Friuli-Venezia Giulia (72,7%). Superano l’obiettivo di legge anche Marche, Valle d’Aosta, Umbria, Piemonte, Toscana, Basilicata e Abruzzo. Nell’Italia a più velocità, alcune regioni consolidano livelli avanzati mentre altre stanno colmando il gap, ma tutte si misurano con gli stessi traguardi di riferimento. Tra le città sopra i 200 mila, Bologna guida con il 72,8%, seguita da Padova (65,1%), Venezia (63,7%) e Milano (63,3%). Seguono Firenze (60,7%), Messina (58,6%), Torino e Verona (57,4%). Più indietro Genova (49,8%), Roma (48%), Bari (46%) e Napoli (44,4%). Nei centri maggiori, l’efficacia della raccolta incide in modo rilevante sull’equilibrio nazionale.
Un aspetto decisivo riguarda la capacità di trattamento. Nel 2024 risultano operativi 625 impianti per la gestione dei rifiuti urbani. Oltre la metà è dedicata alla frazione organica, anche se in alcune regioni le strutture restano insufficienti. Il recupero dell’organico avviene prevalentemente negli impianti integrati anaerobico/aerobico (58,5% dei quantitativi trattati), seguiti dal compostaggio (34%) e dalla sola digestione anaerobica (7,5%). Il
© Kmpzzz/shutterstock.com

totale trattato biologicamente tocca i 7,2 milioni di tonnellate (+3,9% guardando all’anno precedente). Senza una rete adeguata, tuttavia, i progressi della differenziata rischierebbero di non tradursi in benefici concreti.
La percentuale di riciclaggio si attesta al 52,3%, in crescita sul 50,8% dell’anno precedente e sopra l’obiettivo del 50% previsto dalla normativa per il 2020. La meta del 55% al 2025 richiede un’ulteriore crescita di 2,7 punti. Una nota positiva arriva dallo smaltimento finale: la discarica rappresenta il 14,8% dei rifiuti prodotti (oltre 4,4 milioni di tonnellate), in calo del 3,7% in termini quantitativi rispetto al 2023. Un segnale incoraggiante, anche se i volumi restano significativi.
Buone notizie per gli imballaggi: tutti i materiali hanno già raggiunto gli obiettivi fissati per il 2025. Un’attenzione particolare fra essi va alla plastica, che supera per la prima volta la meta, attestandosi al 51,1% contro il 50% previsto.
Sul fronte dei flussi transfrontalieri, nel 2024 l’Italia ha esportato il 4,3% dei rifiuti urbani prodotti (1,3 milioni di tonnellate), a fronte di 216 mila tonnellate importate. Campania, Lazio e Lombardia guidano la classifica; Danimarca, Paesi Bassi e Austria sono, invece, le destinazioni principali. Flussi che
evidenziano la necessità di rafforzare l’autosufficienza impiantistica.
Il costo medio nazionale annuo pro capite sale a 214,4 euro (+17,4 euro sul 2023). Il Centro registra il valore più elevato (256,6 euro), seguito dal Sud (229,2) e dal Nord (187,2). Il Pnrr ha destinato 2,1 miliardi alla gestione dei rifiuti e a progetti di economia circolare; l’Ispra supporta il monitoraggio per verificarne attuazione ed efficacia. I dati indicano progressi su raccolta differenziata, riciclaggio e riduzione della discarica, ma restano alcuni nodi strutturali.
È qui, dunque, che comincia la parte difficile. I target sono necessari: fissano una soglia comune, ma non bastano se la filiera non regge in modo continuo, dalla raccolta al trattamento fino ai mercati di sbocco. Per questo la politica dei rifiuti deve spostarsi più a monte: prevenzione, riuso, design di prodotti e imballaggi pensati per essere davvero riciclati. La sfida, adesso, è cambiare metrica: non inseguire solo percentuali, ma costruire capacità industriale stabile e diffusa. Quando ogni territorio riesce a chiudere il ciclo con impianti adeguati, costi trasparenti e materia che rientra davvero in produzione, l’ambiente smette di essere un vincolo e diventa un vantaggio competitivo. (G. P.).

IL BIOLOGO AMBIENTALE
LA GESTIONE IDRICA SOSTENIBILE
Esecutore chiave degli ingenti investimenti del PNRR, garantisce il rispetto del principio vincolante del DNSH (Do Not Significant Harm) e opera secondo il modello integrato One Health
di Pierlisa Di Felice*
La crisi climatica, manifestata dall’incremento nella frequenza e intensità di eventi idroclimatici estremi, ha trasformato la risorsa idrica non più in un semplice vettore idraulico, ma in un fattore critico di equilibrio funzionale ecosistemico e sanità pubblica, esigendo un’impostazione strategica che superi la mera gestione emergenziale.
In questo contesto di elevata complessità ambientale e normativa, il Biologo Ambientale si afferma come

l’attore indispensabile per tradurre l’imperativo di tutela imposto dalla Direttiva Quadro Acque (DQA, 2000/60/ CE) 1 e dal D.Lgs. 152/20062 in strategie operative efficaci, posizionandosi come esecutore chiave degli ingenti investimenti del PNRR, garantendo il rispetto del principio vincolante del DNSH (Do Not Significant Harm) e operando secondo il modello integrato One Health.
Il principio DNSH non è un mero adempimento formale, ma la matrice
tecnico-scientifica della Tassonomia Europea 3, progettato per garantire che i progetti PNRR, specialmente quelli relativi alla Missione 2 (M2C4: Tutela della risorsa idrica), non arrechino un danno significativo a nessuno dei sei obiettivi ambientali dell’UE.
Per la gestione idrica, ciò si traduce nell’obbligo, verificato dal Biologo, di dimostrare la non compromissione dell’Obiettivo 3 (Uso sostenibile e protezione delle risorse idriche e marine) e dell’Obiettivo 6 (Protezione e ripristino della biodiversità), richiedendo un’analisi rigorosa degli effetti a cascata e sinergici.
Diagnostica Ecologica e Vettorialità dello Stress Idroclimatico
Il contributo del Biologo inizia con la fase cruciale della diagnostica ecologica, focalizzata sull’analisi della vettorialità dello stress idroclimatico, che si articola principalmente in due driver interconnessi: l’alterazione termica e l’alterazione idromorfologica.
L’incremento della temperatura superficiale dei corpi idrici e la riduzione del tempo di residenza idrica inducono stress termici che abbassano drasticamente la solubilità dell’ossigeno disciolto 4, favorendo fenomeni di ipossia e anossia, un processo che determina una pressione selettiva e un marcato shift tassonomico nella composizione delle comunità biotiche.
Un esempio pratico è la sostituzione dei macroinvertebrati sensibili della famiglia Perlidae (Plecoptera, indice di alta qualità) con Chironomus (Diptera, indice di bassa qualità), compromettendo gli Elementi di Qualità Biologica (come documentato dall’indice I.B.E.) e di conseguenza lo Stato Ecologico.
Parallelamente, la severa riduzione della portata (magre idriche) e la conseguente riduzione della sezione ba -
gnata provocano stress idromorfologici che generano la frammentazione dell’habitat fluviale in pozze isolate, un danno che ostacola la connettività funzionale per la fauna ittica - ad esempio bloccando le rotte migratorie riproduttive della trota marmorata (Salmo marmoratus) - e che viene quantificato dal Biologo attraverso la valutazione dell’indice di funzionalità ecosistemica fluviale (IFF) e l’analisi della funzionalità degli ecotoni ripari, cruciali per la ritenzione idrica e i processi biogeochimici.
Per dettagliare meglio quanto già sopra espresso, l’azione del Biologo è centrale oltre che nell’attuazione della Missione 2 (M2: Rivoluzione Verde e Transizione Ecologica) del PNRR, anche alla Missione 4 (M4: Istruzione e Ricerca), sostenendo lo sviluppo di nuovi bioindicatori e la ricerca applicata.
Soluzioni Basate sulla Natura (NBS) e Contaminanti Emergenti
La competenza del Biologo si concretizza in modo esemplare nella progettazione e validazione delle Soluzioni Basate sulla Natura (NBS) 5, la forma più evoluta di ingegneria ecostrutturale per la gestione idrica.
Una delle principali manifestazioni dell’ingegneria ecostrutturale è la riqualificazione fluviale, un’attività complessa che mira a ripristinare la morfodinamica naturale del corso d’acqua attraverso:
1. La rimozione selettiva degli ostacoli trasversali (es. briglie e traverse obsolete) per ripristinare la continuità longitudinale.
2. L’arretramento o l’appiattimento delle difese spondali rigide per ricreare lo spazio vitale necessario alla formazione naturale di meandri, piscine (pozze) e rapide (riffles), ele -
menti essenziali per diversificare l’habitat e aumentare la biodiversità ittica e bentonica. La riqualificazione include inoltre la progettazione di piane alluvionali rinaturalizzate, le quali, sfruttando la vegetazione igrofila come Phragmites australis, svolgono la doppia funzione di mitigare il rischio di piena (laminazione del picco idrografico) e di aumentare la ricarica degli acquiferi del suolo.
È questo un servizio ecosistemico di supporto e di fitodepurazione: in tale ambito il Biologo specifica l’uso di ecotipi locali e materiale genetico autoctono per ricostituire la vegetazione riparia (es. Salix e Populus) che fornisce l’ombreggiamento necessario a mitigare lo stress termico.
Qualsiasi progetto PNRR che incida su regimi idrici è soggetto a rigorosa VIA e VIncA: in particolare, nei siti Rete Natura 2000 (ZSC/ZPS), è richiesta la valutazione dell’effetto cumulativo dei prelievi sulla sopravvivenza di habitat prioritari, con l’obbligo di dimostrare l’assenza di impatto con ragionevole certezza scientifica (come stabilito dalla Giurisprudenza Waddenzee 6): anche in questo ambito è di fondamentale importanza il ruolo del Biologo ambientale.
Tuttavia, l’impegno del Biologo ambientale non si esaurisce nella sola riqualificazione fisica e idraulica degli ecosistemi. Il suo expertise in ecotossicologia è oggi cruciale per la sorveglianza della più insidiosa minaccia alla qualità delle matrici idriche: i Contaminanti Emergenti (CE).
Questi composti, che includono microplastiche, residui farmaceutici (quali antibiotici e ormoni che agiscono come interferenti endocrini), e composti PFAS (sostanze perfluoroalchiliche), rappresentano una sfida complessa poiché, pur presenti in
* Direttore Riserva Naturale Guidata Sorgenti del Pescara, Commissione Tecnica VIA-VAS VIA-VAS MASE, Referente Area Tematica “Normativa Ambientale” CNBA, Consigliere Ordine dei Biologi Lazio e Abruzzo con delega all’Ambiente per la Regione Abruzzo
concentrazioni estremamente basse (dell’ordine dei nanogrammi/litro), manifestano effetti subletali a lungo termine, specie in termini di bioaccumulo e perturbazione endocrina sulla fauna acquatica.
Il Biologo si assume dunque la responsabilità di identificare e quantificare questi agenti attraverso tecniche analitiche avanzate e di valutarne il rischio ecotossicologico per gli ecosistemi e per la salute umana.
Questo ruolo si estende anche all’analisi dei rischi legati a fattori biotici, come le fioriture algali tossiche (HABs), monitorando la proliferazione di cianobatteri in grado di compromettere la potabilità delle acque.
In definitiva, l’attività del Biologo ambientale, combinando la mitigazione del rischio fisico con l’analisi chimica e tossicologica, si consolida quale sentinella ecologica indispensabile nel contesto olistico One Health, collegando indissolubilmente la salute dell’ambiente con quella della collettività.
Monitoraggio e Gestione Adattiva
La conclusione degli interventi di ingegneria ecostrutturale, finanziati nell’ambito del PNRR, introduce la fase cruciale del Monitoraggio Post-Operam, dove il Biologo Ambientale applica il modello di Gestione Adattiva (Adaptive Management), un quadro metodologico che trasforma l’azione di tutela in un ciclo iterativo basato sull’evidenza scientifica.
L’obiettivo primario è misurare l’effettivo successo ecologico delle Soluzioni Basate sulla Natura (NBS) attraverso una batteria di indicatori di risposta biologica più sensibili dei semplici parametri chimico-fisici.
Questi includono i tassi di ricolonizzazione del macrobenthos e dell’ittiofauna per quantificare l’incremento dell’Indice Biotico Esteso (I.B.E.) o dell’Indice di Funzionalità Ecosistemica Fluviale (IFF), e il monitoraggio del ripristino della connettività ecologica (es. movimenti migratori della Salmo

marmoratus).
Vengono inoltre valutate le dinamiche degli ecotoni ripariali, verificando l’efficacia della vegetazione autoctona nel mitigare lo stress termico e nell’attivare i processi di fitodepurazione. Il cuore dell’Adaptive Management è il confronto tra i risultati del monitoraggio e le ipotesi ecologiche iniziali, supportato da una robusta analisi statistica.
Se l’analisi non conferma il raggiungimento degli obiettivi predefiniti (lo Stato Ecologico Buono imposto dalla
Note
DQA), il Biologo innesca la fase di riprogettazione (o iterazione), identificando la causa della deviazione - ad esempio, una scarsa performance di rimozione dei contaminanti emergenti - e proponendo un aggiustamento mirato (come l’introduzione di nuovi fitodepuratori). Questa capacità di correzione del tiro è essenziale per garantire che le risorse del PNRR siano indirizzate verso una resilienza ecosistemica autentica, massimizzando l’efficacia a lungo termine e assicurando la piena aderenza al vincolante principio DNSH.
1 Direttiva 2000/60/CE: Stabilisce il quadro per la protezione delle acque superficiali e sotterranee (DQA).
2 Decreto Legislativo 3 aprile 2006, n. 152: Norme in materia ambientale (Testo Unico Ambientale).
3 Regolamento (UE) 2020/852: Disciplina il quadro per facilitare gli investimenti sostenibili e definisce il principio DNSH (Do Not Significant Harm).
4 J.D. & Castillo, M.M. (2007). Stream Ecology: Structure and function of running waters. Springer.
5 Commissione Europea (DG Environment): Linee guida sulle Soluzioni Basate sulla Natura (NBS) e sul loro ruolo nel raggiungimento degli obiettivi climatici e di biodiversità.
6 Corte di Giustizia Europea, Sentenza 7 settembre 2004, C-127/02 (Waddenzee): Giurisprudenza fondamentale che stabilisce il principio di certezza scientifica per l’autorizzazione di progetti in siti Natura 2000.

di Teresa Pandolfi* e Giovanni Misasi*

La COP30 di Belém ha confermato la complessità del percorso climatico globale: un equilibrio difficile tra ambizioni politiche, vincoli economici e responsabilità condivise. Pur registrando alcuni avanzamenti, la conferenza ha mostrato ancora una volta il divario tra l’urgenza riconosciuta da tutti e la capacità di trasformarla in decisioni operative.
La soglia dei 1,5°C rimane il riferimento centrale, ma l’assenza di strumenti concreti per renderla perseguibile ne indebolisce il valore. La mancata adozione di una roadmap condivisa per la graduale uscita dai combustibili fossili è il nodo più evidente: un obiettivo formalmente accettato, ma ancora privo di un percorso verificabile.
Allo stesso modo, la consapevolezza del crescente gap di ambizione degli NDC (Contributi Determinati a Livello Nazionale) non si è tradotta in nuovi meccanismi per accelerarne l’aggiornamento o garantirne il monitoraggio. La governance climatica internazionale resta così sospesa tra pressioni morali alte e strumenti operativi insufficienti.
Sul fronte dell’adattamento, l’accordo sugli indicatori del Global Goal on Adaptation rappresenta un passo avanti, ma la loro reale efficacia dipenderà dai finanziamenti. L’idea di triplicare i fondi entro il 2035 è positiva, ma ancora lontana da un piano operativo chiaro. Una promessa, più che un impegno
strutturato.
Accanto alle incertezze globali, COP30 ha però evidenziato il ruolo decisivo delle soluzioni territoriali. È nei territori che la transizione prende forma: con progetti, investimenti e capacità tecniche che incidono realmente sulla qualità della vita.
In questo contesto emerge un modello che merita attenzione strategica: i Borghi del Benessere. Non solo iniziative di valorizzazione territoriale, ma veri e propri laboratori di sostenibilità applicata. Piccoli centri che integrano efficienza energetica, tutela ambientale, agricoltura rigenerativa, economia circolare, turismo lento e servizi di prossimità. Comunità che sperimentano, misurano, migliorano: e mostrano che la sostenibilità può essere una leva di sviluppo, non un vincolo.
Il modello dei Borghi del Benessere offre risposte concrete a molte delle criticità evidenziate dalla COP30.
È un approccio operativo che:
• riduce i consumi energetici grazie a infrastrutture leggere e intelligenti;
• aumenta la capacità di assorbimento della CO2 attraverso reti ecologiche, boschi e agricoltura multifunzionale;
• sostiene l’economia locale con filiere corte e produzioni a basso impatto;
• attrae cittadini, imprese e professionisti in contesti più sani e resilienti;
I borghi dimostrano che la transizione non è un esercizio ideologico, ma una costruzione quotidiana che unisce ambiente, economia e benessere. La sostenibilità, qui, smette di essere slogan e diventa qualità della vita, innovazione, competitività territoriale.
Nelle sue osservazioni finali, il Segretario Esecutivo dell’UNFCCC Simon Stiell ha richiamato la necessità di superare tatticismi e ritardi. Le sue parole segnano un punto di svolta: non basta riconoscere l’urgenza, occorre trasformarla in risultati misurabili.
E proprio i territori mostrano la strada.
COP30 ha evidenziato la forza del consenso politico e, al tempo stesso, la fragilità degli strumenti attuativi. La sfida ora è passare da promesse condivise a soluzioni reali.
In questo passaggio, i Borghi del Benessere possono diventare uno dei pilastri più innovativi della strategia climatica nazionale ed europea: luoghi in cui la sostenibilità non si annuncia, si pratica. Dove la transizione si tocca con mano e diventa un modello replicabile, capace di unire tutela del clima, crescita economica e rigenerazione sociale. Forse è il momento di riconoscere che il clima si governa con politiche territoriali intelligenti, capaci di integrare ambiente, economia e qualità della vita.
Se l’obiettivo è mitigare l’impatto umano sul pianeta, allora la risposta più efficace potrebbe arrivare dalle strade silenziose dei borghi che stanno già costruendo la transizione senza proclami. * Associazione Scientifica Biologi Senza Frontiere
• rigenera comunità, contrastando spopolamento e vulnerabilità sociale.

IL LUNGO IMPATTO DEGLI INCENDI SUL SUOLO
Gli incendi boschivi possono scomparire dal paesaggio in poche settimane, ma ciò che accade sotto la superficie racconta una storia molto più lunga.
Una ricerca guidata dall’Università di Gottinga, pubblicata su Catena, ha mostrato che la struttura del suolo e la disponibilità di nutrienti continuano a cambiare per oltre un decennio dopo un incendio.
Il team, attraverso uno studio “cronosequenziale”, ha confrontato i suoli bruciati di due parchi nazionali cileni, osservando come la densità, il pH e il contenuto di carbonio organico non riescono a tornare ai livelli
precedenti l’incendio nemmeno dopo molti anni.
Risultati simili emergono anche da un altro studio del 2024 pubblicato sull’European Journal of Forest Research, il quale ha documentato che gli incendi nelle foreste, nel caso specifico le foreste di pino europee, modificano a lungo termine le proprietà fisiche e biologiche del suolo, con effetti più marcati nelle aree colpite da incendi ad alta severità.
Anche una revisione su Frontiers in Earth Science ha evidenziato come gli incendi alterino la temperatura sotterranea, favoriscano l’idrofobicità del suolo e aumentino il rischio di erosione e frane, soprattutto nei pri -
Uno studio mostra come i roghi alterano il terreno: dati globali confermano gli impatti duraturi sugli ecosistemi
mi anni successivi all’evento.
I risultati di questi studi si inseriscono in un contesto globale in cui gli incendi stanno cambiando volto alla Terra. Secondo i dati sintetizzati da Our World in Data, infatti, negli ultimi vent’anni la superficie bruciata a livello mondiale oscilla tra i 300 e i 450 milioni di ettari l’anno.
In Europa, il sistema EFFIS ha registrato nel 2022 oltre 800mila ettari bruciati (valore più alto degli ultimi quindici anni) mentre nel 2023 e 2024 gli incendi mediterranei hanno mostrato una tendenza a stagioni più brevi, ma più intense, coerentemente con l’aumento delle ondate di calore.
In Cile, dove è stato condotto lo studio di Gottinga, gli incendi del 2017 e del 2023 sono stati tra i più devastanti mai registrati, con oltre mezzo milione di ettari bruciati in ciascun evento.
L’impatto sul suolo è particolarmente rilevante in ecosistemi come le foreste di Araucaria, dove la perdita di carbonio organico e la modifica della struttura minerale possono influenzare la rigenerazione per decenni.
Di nuovo, a livello globale, una ricerca pubblicata su Nature Geoscience ha stimato che l’erosione post incendio può aumentare fino a dieci volte nei primi due anni, con effetti cumulativi che alterano la morfologia del terreno e la qualità delle acque.
Tutto questo suggerisce che gli incendi non sono solo eventi acuti, ma processi che lasciano cicatrici profonde e durature.
Come sottolineano gli autori dello studio su Catena, comprendere la dinamica del suolo dopo un incendio è essenziale per pianificare interventi di ripristino efficaci e per prevedere la resilienza degli ecosistemi in un clima che rende gli incendi sempre più frequenti e intensi.
di Michelangelo Ottaviano
L’eccezionale sito triassico
nel Parco dello Stelvio
riscrive la storia dei primi rettili europei
Molto spesso gli alpinisti, per celebrare la loro devozione alle alture che esplorano, usano dire che la montagna restituisce all’essere umano quello che la modernità ha dimenticato con il tempo. E ciò che di recente ha interessato il Parco Nazionale dello Stelvio sembra proprio essere una manifestazione concreta della veridicità di questo aforisma.
Migliaia di impronte di dinosauri erbivori sono riemerse dalle pareti di Dolomia Principale, a 2.500 metri di quota, trasformando un angolo remoto delle Alpi in uno scorcio che affaccia sul Triassico. La scoperta, resa possibile grazie agli scatti del fotografo naturalista Elio Della Ferrera, riguarda una parete della Valle di Fraele, dove quelle che sembravano essere semplici discontinuità rocciose si sono rivelate un archivio fossile di grande importanza. Migliaia di orme larghe fino a quaranta centimetri, ripartite lungo sette crinali per quasi cinque chilometri, con una densità che raggiunge le sei impronte per metro quadrato, mostrano dettagli sorprendentemente nitidi del lento passaggio di questi giganti.
La disposizione di queste vestigia preistoriche suggerisce movimenti sincronizzati di gruppi numerosi di dinosauri, e consegna una preziosa informazione sulla loro socialità. Le analisi preliminari del Museo di Storia Naturale di Milano, condotte con il MUSE di Trento e l’Università degli Studi di Milano, indicano che si tratta di prosauropodi, degli erbivori dal collo lungo simili a Plateosaurus engelhardti. L’ipotesi che i prosauropodi vivessero in branchi non è nuova: già nel 1999 lo studio di Heinrich e colleghi sulle piste di Plateosaurus in Germania proponeva comportamenti gregari, mentre nel 2020 Mallison e Wings hanno discusso la possibilità di cure parentali nei sauropodomorfi ba-

LA VALLE ALPINA
DEI DINOSAURI RIEMERGE
sandosi su alcuni resti in Sudafrica.
Le orme dello Stelvio aggiungono un tassello fondamentale a questo quadro, perché offrono una sequenza continua di tracce su più livelli stratigrafici, permettendo di seguire l’evoluzione del comportamento di questi erbivori nel tempo. Il contesto geologico è altrettanto affascinante: 210 milioni di anni fa, dove oggi si ergono pareti alpine, si estendeva una piattaforma carbonatica tropicale affacciata sull’oceano della Tetide. Il fango di quelle spiagge ha registrato il passaggio dei dinosauri, e la successiva orogenesi alpina ha inclinato e sollevato gli strati fino a renderli quasi verticali. È un capovolgimento naturale che ha
trasformato un antico fondale in una parete da scalare, rendendo però difficilissimo il lavoro dei ricercatori. Proprio per questo, il gruppo di ricerca utilizzerà droni e tecniche di fotogrammetria avanzata, come già sperimentato in altri siti triassici europei da Falkingham e Gatesy nel 2014, per mappare digitalmente ogni impronta e ricostruire in 3D le piste. La portata della scoperta è tale che gli studiosi stimano decenni di lavoro, poiché non si tratta solo di catalogare le orme, ma di interpretarle. La Valle dei dinosauri dello Stelvio è un invito a guardare le montagne non solo come luoghi di roccia e silenzio, ma come archivi viventi della storia della Terra. (M. O.).
IL RISO ACCENDE IL FUTURO: CON GLI SCARTI DEL CHICCO LA NUOVA FRONTIERA
DELL’ACCUMULO
Dalla cellulosa della lolla: aerogel ultraleggeri, porosi anche oltre il 90%, e quantum dots di grafene di pochi strati atomici, per unire sostenibilità e prestazioni
La prossima svolta dell’accumulo energetico potrebbe arrivare da ciò che oggi finisce ai margini delle filiere agroalimentari: la lolla di riso. Da questo sottoprodotto, abbondante e a basso costo, Enea, Sapienza Università di Roma e Politecnico di Torino stanno ricavando materiali nanostrutturati destinati a batterie e supercondensatori: dispositivi complementari che, combinando capacità di stoccaggio e velocità di rilascio dell’energia, rappresentano una strada che unisce sostenibilità ambientale e frontiera tecnologica.
I primi risultati, pubblicati sulle riviste internazionali “Molecules” e “Journal of Energy Storage”, mostrano come le future soluzioni elettrochimiche potranno contare su due innovazioni ottenute dalla cellulosa di biomasse comuni: gli aerogel di carbonio e i quantum dots di grafene. Il lavoro rientra nelle attività sostenute dalla Ricerca di sistema elettrico 2022–2024 e sviluppate attraverso l’infrastruttura iENTRAN -
CE@ENL, finanziata dal Pnrr per accelerare la transizione energetica e l’economia circolare.
«Gli aerogel di carbonio - spiega la coautrice dello studio Annalisa Aurora, ricercatrice del Laboratorio Enea tecnologie e dispositivi per l’accumulo elettrochimico - hanno mostrato un’elevata stabilità elettrochimica consentendo la realizzazione di dispositivi efficienti e di lunga durata. I quantum dots di grafene, invece, si sono rivelati capaci sia di accumulare cariche superficiali sia di ospitare (intercalare) al loro interno gli ioni di litio, dimostrando così il loro potenziale come materiale per l’anodo funzionale allo sviluppo di sistemi avanzati di accumulo energetico».
Il punto di partenza è un materiale sorprendente: l’aerogel. Ad altissima porosità, viene spesso descritto come una “spugna solida”: una rete tridimensionale leggera in cui la frazione di vuoti può superare il 90%. Questa architettura lo rende leggerissimo e, al contempo, stabile. È un materiale
a base di carbonio, famiglia già centrale nell’accumulo (grafite, hard carbon); nelle sue forme nanostrutturate (grafene, ossido di grafene, nanotubi e quantum dots) può migliorare le proprietà di conduzione. Un vantaggio rilevante, perché la materia prima è abbondante negli scarti vegetali.
L’aerogel è stato ottenuto dalla cellulosa estratta dalla lolla, che rappresenta circa il 38% in peso: la biomassa è stata sottoposta a gelificazione, essiccazione e successiva carbonizzazione. L’architettura risultante conferisce alta conducibilità e bassa densità, rendendo il materiale potenzialmente adatto sia alle batterie sia ai supercondensatori. Questi ultimi trovano impiego in auto elettriche, mezzi pubblici ed elettronica, dove servono picchi di potenza, risposta rapida e recupero di energia in fasi transitorie (ad esempio in frenata).
«I risultati della nostra ricerca - aggiunge Aurora - indicano che le migliori prestazioni si ottengono dagli aerogel di carbonio derivati da

gel con la massima concentrazione di cellulosa pura (7%). Pur mostrando valori di capacità di accumulo inferiori rispetto ad altri materiali, si sono distinti per l’elevata stabilità e durata elettrochimica anche dopo migliaia di cicli».
Dallo stesso percorso sperimentale deriva l’altro materiale chiave: i quantum dots di grafene, particelle nanometriche con spessore dell’ordine di pochi strati atomici, ottenute con un processo descritto dagli autori come rapido e a minore impatto. «A una scala così piccola il materiale acquisisce proprietà speciali, come la capacità di immagazzinare energia elettrica sulla sua superficie e di favorire il passaggio degli ioni di litio. Per questo motivo - conclude la ricercatrice Enea - sono considerati materiali zero-dimensionali molto promettenti, da esplorare soprattutto in combinazione con altri composti più strutturati per lo sviluppo di tecnologie di accumulo più efficienti».
Secondo FAOSTAT (FAO), la produzione mondiale di riso grezzo supera i 700 milioni di tonnellate annue. La lolla è un sottoprodotto generato in grandi quantità; la sua incidenza e composizione variano in funzione
di varietà e processo di lavorazione. Non sorprende che questa biomassa attiri un crescente interesse accademico e industriale: disponibilità elevata, costi contenuti, alto potenziale di conversione in grafene di qualità. L’attenzione si è intensificata negli ultimi anni, spinta dall’urgenza di trovare alternative sostenibili alle materie prime critiche e ridurre la dipendenza dalle importazioni. La grafite naturale, componente essenziale per gli anodi delle batterie, è infatti classificata dall’Unione Europea tra le materie prime critiche: oggi l’Europa dipende quasi interamente dalle importazioni, esponendo l’industria dell’accumulo a rischi di approvvigionamento e volatilità dei prezzi.
Sviluppare una filiera del “carbonio agricolo” permetterebbe di ridurre questa dipendenza, creando una catena del valore corta e resiliente. Insomma, dalla lolla non si ricava soltanto un nuovo materiale: si può capovolgere un paradigma. Quello che ieri era scarto, domani potrebbe accendere motori, alimentare reti e conservare l’energia. È la scommessa della ricerca: guardare dove nessuno guarda, e trovarci il futuro. (G. P.).



STELLA DI BETLEMME MISTERO SVELATO?
La stella di Betlemme è uno dei simboli del Natale. Secondo il Vangelo di Matteo, indicò la via ai Re Magi fino al luogo dove nacque Gesù, cui portarono oro, incenso e mirra. La domanda che negli anni un po’ tutti si sono posti è se la cometa che ancora oggi fa bella mostra di sé su presepi e riproduzioni della natività sia esistita davvero oppure no. Numerosi studi sono stati condotti a tal proposito e per quanto l’assoluta certezza sull’evento astronomico citato da Matteo non sia stata mai assodata, esistono comunque ipotesi plausibili - soprattutto congiunzioni planetarie - che avvalorano il fenomeno. L’ultimo stu -
dio riguardante il mistero della Stella di Natale, che da sempre affascina gli esperti di astronomia, è firmato da un ricercatore della Nasa, Mark Matney, ed è stato pubblicato sul Journal of the British Astronomical Association. In particolare, Matney si è soffermato sul motivo per cui la stella sarebbe rimasta così a lungo visibile nel cielo. Lo scienziato, che ha analizzato il possibile fenomeno in maniera indipendente dall’agenzia, ha passato al setaccio antichi resoconti cinesi che riferiscono della presenza di una cometa nel 5 a.C.
Quand’era ancora studente, Matney lavorava in un planetario che organizzava uno spettacolo natalizio proprio
Tra scienza e tradizione: lo studio di un ricercatore della Nasa prova a far luce sulla stella che guidò i Magi
sulla storia della stella di Betlemme. Ebbene, in quest’opera si sosteneva che nessun oggetto astronomico conosciuto avrebbe potuto comportarsi nel modo descritto dalla storia dei Magi, perché la rotazione terrestre fa sì che tutto nel cielo sorga a est e tramonti a ovest. Ecco, il ricercatore della Nasa ha voluto smontare questa ipotesi, indicando una cometa proveniente dalla misteriosa Nube di Oort come chiave del suo studio. «Se una cometa del genere passasse a una distanza estremamente ravvicinata dalla Terra, potrebbe creare lo strano aspetto di un oggetto simile a una stella che sorge nel cielo illuminato dal sole e poi sembra fermarsi per alcune ore» sostiene. E aggiunge: «Una cometa potrebbe rimanere ferma nello stesso punto se fosse praticamente in rotta di collisione con la Terra». Per sostenere la sua tesi Matney si è appunto basato su precedenti resoconti di registrazioni cinesi di una stella scopa (termine spesso utilizzato per descrivere le comete, in riferimento alla loro coda) apparsa nella primavera del 5 a.C. A quanto pare i registri orientali suggeriscono che la stella rimase nella stessa costellazione per 70 giorni: un tempo eccessivamente lungo per una cometa, tanto da spingere alcuni astronomi a supporre che l’oggetto fosse forse una nova luminosa. Per l’astrofisico americano, invece, questa descrizione supporta proprio la sua teoria della cometa in rotta di collisione. Tuttavia, Matney non nega i limiti dei dati presi in considerazione, sottolineando che avrebbe preferito avere più fonti da cui attingere informazioni. Ma evidenzia che il suo obiettivo non è tanto identificare la Stella di Betlemme in modo definitivo quanto piuttosto proporre un oggetto astronomico valido in grado di corrispondere al comportamento descritto. (D. E.).

Scuola permanente in EMBRIOLOGIA CLINICA

Una tecnica sviluppata all’IIT combina polarizzazione e campo oscuro per osservare cellule vive ad alto contrasto, aprendo a modelli basati su IA
Osservare le cellule mentre sono vive, senza alterarne la struttura e il comportamento, è una delle grandi sfide della microscopia moderna. La maggior parte delle tecniche oggi disponibili, infatti, richiede l’impiego di marcatori chimici o fluorescenti che, se da un lato consentono di distinguere con precisione le diverse componenti cellulari, dall’altro possono interferire con i processi biologici che si desidera studiare.
È in questo scenario che si inserisce il lavoro di un gruppo di ricercatori dell’Istituto Italiano di Tecnologia, che ha sviluppato una nuova strategia di osservazione capace di restituire immagini ad alto contrasto delle cellule viventi senza ricorrere a colorazioni o etichette artificiali.
La ricerca, coordinata da Alberto Diaspro e condotta da Nicolò Incardona e Paolo Bianchini, afferenti all’unità Nanoscopy dell’IIT, è stata pubblicata sulla rivista internazionale Optics Letters. Lo studio propone una tecnica di microscopia ottica che combina due approcci già noti, la polarizzazione della luce e l’illuminazione in campo oscuro, dando origine a un metodo capace di esaltare i dettagli cellulari preservandone l’integrità.
Il microscopio ottico resta uno strumento centrale per la biologia cellulare perché utilizza la luce visibile e permette di seguire i fenomeni dinamici in tempo reale. Tuttavia, le cellule sono per loro natura quasi completamente trasparenti: senza trattamenti specifici, appaiono come sagome evanescenti difficili da interpretare. Per questo motivo, nel corso dei decenni sono state sviluppate diverse soluzioni basate sulla manipolazione della luce.
La microscopia a polarizzazione, ad esempio, sfrutta il modo in cui alcune strutture cellulari interagiscono con la luce polarizzata, mentre la microscopia in campo oscuro illumina il campione in modo obliquo, rendendo visibili solo le strutture che diffondono la luce.

Ciascuna di queste tecniche ha però dei limiti. Se da un lato consentono di migliorare il contrasto, dall’altro non forniscono informazioni sufficientemente dettagliate a livello molecolare. Per questo, oggi la microscopia a fluorescenza, e in particolare quella a super-risoluzione, rappresenta lo standard per lo studio fine delle cellule: molecole fluorescenti progettate per legarsi a bersagli specifici consentono di mappare proteine, organelli e acidi nucleici con una precisione straordinaria nello spazio e nel tempo. Il prezzo da pagare, tuttavia, è l’uso di marcatori che possono perturbare il sistema biologico.
L’innovazione introdotta dal team dell’IIT nasce proprio dal tentativo di superare questa dicotomia. Combinando polarizzazione e campo oscuro in un’unica configurazione sperimentale, i ricercatori sono riusciti a ottenere immagini ad alto contrasto di cellule viventi senza l’impiego di fluorescenza. Il risultato è una visione più naturale del campione, che mantiene intatte le sue proprietà fisiche e biologiche. Questo aspetto è particolarmente rilevante quando si studiano processi delicati e dinamici, che possono essere alterati anche da interventi minimi.

Uno degli obiettivi principali di questa nuova tecnica è l’analisi della cromatina, il complesso di DNA e proteine che costituisce il contenuto del nucleo cellulare. La cromatina non è una struttura statica: la sua organizzazione cambia nel tempo e queste variazioni sono strettamente legate all’espressione genica, allo sviluppo cellulare e all’insorgenza di numerose patologie.
Disporre di uno strumento capace di osservarla senza manipolazioni invasive rappresenta quindi un passo importante per la ricerca di base e biomedica.
Nonostante i risultati promettenti, gli stessi autori riconoscono che la tecnica non è ancora in grado di sostituire completamente la microscopia a fluorescenza. In particolare, manca la capacità di distinguere in modo selettivo le diverse componenti molecolari della cellula.
È qui che entra in gioco il prossimo sviluppo del progetto: l’integrazione con l’intelligenza artificiale. L’idea è quella di acquisire immagini dello stesso campione sia con la nuova tecnica ottica sia con la fluorescenza tradizionale, utilizzando queste coppie di dati per addestrare modelli di IA capaci di tradurre le immagini non etichettate in immagini virtualmente fluorescenti, ricche di informazioni molecolari.
Se questo approccio dovesse dimostrarsi efficace, potrebbe aprire la strada a una nuova generazione di tecniche di microscopia ottica completamente non invasive, in grado di combinare osservazione diretta e specificità molecolare.
Un risultato che non solo amplierebbe le possibilità della ricerca fondamentale, ma potrebbe avere ricadute significative anche in ambito diagnostico e clinico, dove la necessità di preservare i campioni biologici è spesso cruciale. (C. P.).

MEDULLOBLASTOMA
IL RUOLO DI UNA MOLECOLA
di Pasquale Santilio
Il medulloblastoma è un tumore cerebrale maligno, aggressivo e a rapida crescita, che si sviluppa nel cervelletto, colpendo principalmente i bambini ma anche giovani adulti, ed è la neoplasia embrionale più comune nel sistema nervoso centrale. Una ricerca guidata dall’Istituto di biologia e patologia molecolari del Cnr di Roma (Cnr-Ibpm) ha caratterizzato un particolare RNA non codificante, che non dà, cioè, origine a proteine, con un ruolo chiave nella sopravvivenza delle cellule tumorali del medulloblastoma di gruppo 3.
Lo studio, pubblicato sulla rivista Cell Death & Disease, si inserisce nel
contesto delle RNA-based therapies, una delle frontiere della medicina di precisione, ed è stato realizzato con il supporto del Centro Nazionale per lo Sviluppo di Terapia Genica e Farmaci con Tecnologia a RNA, finanziato dal Piano Nazionale di Ripresa e Resilienza. La ricerca, coordinata da Pietro Laneve del Cnr-Ibpm, è il risultato di una collaborazione che ha coinvolto anche ricercatrici e ricercatori dell’Università Sapienza di Roma guidati da Monica Ballarino, esperta di IncRNA, e del Center for Life Nano-& Neuro Science dell’Istituto Italiano di Tecnologia.
Laneve ha spiegato: «La ricerca ha rivelato che questa molecola, denomi -
Una particella di RNA regola la sopravvivenza delle cellule tumorali. La ricerca è su Cell Death & Disease
nata IncMB3, agisce come un potente fattore anti-apoptotico, cioè impedisce la morte delle cellule tumorali. Interagendo con specifici partner funzionali, essa è infatti in grado di controllare il destino delle cellule tumorali alterando l’espressione di geni che svolgono un ruolo fondamentale per l’equilibrio tra proliferazione e morte cellulare programmata, nonché di geni ritenuti driver del medulloblastoma di gruppo 3». Lo studio ha evidenziato anche interessanti risvolti applicativi. A questo proposito, il ricercatore ha sottolineato: «Disattivando IncMB3 nelle cellule tumorali, si attivano processi di apoptosi e di riduzione della vitalità cellulare, effetti che risultano amplificati in combinazione con alcuni chemioterapici, come il cisplatino, come dimostrato in collaborazione con Daniela Trisciuoglio del Cnr-Ibpm. Una possibile futura strategia terapeutica per contrastare il tumore consiste nell’impiegare nanovettori di ferritina umana, sviluppati da Elisabetta Falvo e Pierpaolo Ceci del Cnr-Ibpm, efficaci nel veicolare alle cellule di medulloblastoma molecole antagoniste di IncMB3». Una strada verso approcci in grado di integrare biologia dell’RNA e nanotecnologie potrebbe essere rappresentata dall’inibizione di IncMB3. Pietro Laneve ha concluso: «Stiamo perfezionando potenziali agenti terapeutici che saranno testati in vivo in modelli preclinici. Il medulloblastoma di gruppo 3, caratterizzato da elevati tassi di recidiva e metastasi, rappresenta una sfida della neuro-oncologia pediatrica. La scoperta di IncMB3 e del suo meccanismo d’azione fornisce una nuova chiave di lettura della malattia e apre la via a terapie più mirate e meno tossiche, basate sull’interferenza selettiva di RNA non codificanti patologici».
Un trattamento con un antinfiammatorio può rallentare la degenerazione dei coni della retina e la perdita della vista
Uno studio che è stato condotto dall’Istituto di Neuroscienze del Consiglio nazionale delle ricerche di Pisa (Cnr-In) ha messo a punto un trattamento in grado di rallentare sensibilmente la degenerazione dei coni della retina e la perdita della vista indotte dalla Retinite Pigmentosa.
La patologia è una rara malattia genetica che causa una perdita progressiva della vista: inizialmente colpisce i bastoncelli, cioè le cellule della retina che ci consentono di vedere al buio e, successivamente, anche i coni, responsabili della visione diurna e dei dettagli.
Ecco i principali sintomi: cecità notturna (nictalopia): difficoltà a vedere in condizioni di scarsa illuminazione; perdita della visione periferica: il campo visivo si restringe progressivamente; sensibilità alla luce: aumentata sensibilità all’abbagliamento (fotofobia); difficoltà nel contrasto; in fase avanzata: perdita della visione centrale e cecità.
In presenza della degenerazione dei coni, la qualità della vita dei pazienti peggiora drasticamente, poiché la lettura, il riconoscimento dei volti e la percezione dei colori vengono meno.
Il gruppo di ricerca, coordinato dalla ricercatrice Enrica Strettoi, ha percorso ed esplorato una strada semplice, ma nuova: riutilizzare farmaci antinfiammatori già noti, come il desametasone, per contrastare i processi di infiammazione che si attivano nella retina danneggiata, contribuendo alla perdita dei fotorecettori.
Somministrando tale farmaco per via intraoculare in modelli preclinici di rinite pigmentosa, è stato osservato che le cellule visive (coni) e l’epitelio pigmentato, un tessuto fondamentale per il supporto della retina, si preservano dall’infiammazione. I risultati

UN FARMACO NOTO PER LA RETINITE PIGMENTOSA
dello studio, che ha richiesto cinque anni di lavoro, sono stati pubblicati sulla rivista Progress in Retinal and Eye Research, all’interno di un’ampia review che include anche dati inediti.
La ricercatrice Enrica Strettoi del Cnr-In ha spiegato: «Negli ultimi anni la ricerca ha fatto ampi progressi nella comprensione delle cause genetiche della malattia e nello sviluppo di terapie geniche, ma a tutt’oggi non esiste una cura valida per tutti i pazienti.
Il nostro studio si è focalizzato su un elemento chiave emerso di recente, ovvero il ruolo dell’infiammazione provocata da cellule immunitarie come microglia e macrofagi, che si attivano nella retina danneggiata,
contribuendo alla perdita dei fotorecettori».
La ricercatrice ha poi aggiunto: «I risultati positivi che sono stati così ottenuti suggeriscono che i glucocorticoidi, farmaci già approvati e ampiamente utilizzati in oculistica, e di cui il desametasone fa parte, potrebbero rappresentare una nuova opportunità terapeutica per la Retinite Pigmentosa, indipendentemente dalla mutazione genetica che la causa.
Una prospettiva che apre la strada a trattamenti immediatamente trasferibili alla clinica, con l’obiettivo di rallentare la perdita visiva e migliorare la qualità di vita dei pazienti in questa grave patologia orfana». (P. S.).

DIECI INNOVATIVI CAVI SUPERCONDUTTORI
Sono stati consegnati al CERN di Ginevra, per l’acceleratore di particelle più grande e potente al mondo (Large Hadron Collider-LHC), dieci innovativi cavi superconduttori prodotti in Italia. La fornitura è stata realizzata per il progetto High Luminosity dal consorzio leader nel settore della superconduttività, ICAS, uno spin-off ENEA che comprende anche due aziende di punta del settore, vale a dire la toscana Tratos Cavi spa e la piemontese Criotec Impianti spa.
Il progetto High Luminosity ha beneficiato del contributo del Laboratorio Superconduttività dell’ENEA e delle competenze tecnico-industriali
di Tratos Cavi per la realizzazione di prodotti altamente innovativi. Due dei dieci cavi sono stati già collaudati in condizioni operative e sono pronti per essere installati.
Realizzati in diboruro di magnesio, questi cavi ad alta tecnologia sono lunghi circa 100 metri ciascuno e serviranno a connettere gli alimentatori di potenza ai magneti superconduttori dell’acceleratore, che vedrà incrementata la luminosità da 5 a 7,5 volte per nuovi progressi scientifici nella fisica fondamentale.
Ecco, alcune brevi informazioni relative al diboruro di magnesio. Si tratta di un composto binario inorganico superconduttore con una temperatu -
Una produzione realizzata da uno spin-off Enea per l’acceleratore di particelle più grande e potente al mondo
ra critica di circa 38 K e temperature di esercizio dell’ordine di 20-25 kelvin a campi magnetici di circa 1 Tesla. Può essere raffreddato in elio gassoso (utilizzando un ciclo frigorifero) o in idrogeno liquido. Le sue potenzialità come superconduttore sono state annunciate nella rivista statunitense Nature nel marzo del 2001. La sua temperatura critica di -234°C (39 kelvin) è la più alta tra i superconduttori convenzionali, di tipo BCS (Bardeen-Cooper-Schrieffer).
Alessandro Dodaro, direttore del dipartimento Nucleare dell’ENEA, ha così commentato questo straordinario lavoro: «Questi complessi sistemi sono il risultato di attività di ricerca, sviluppo e ingegnerizzazione che hanno dimostrato le potenzialità dei superconduttori in diboruro di magnesio per il trasporto di potenza ad alta efficienza. Le attività sono state condotte in stretta collaborazione con il CERN, ma sono anche frutto di un efficace incontro tra ricerca e industria, che ha saputo coniugare le esigenze produttive con i rigorosi standard di qualità e controllo richiesti dai grandi progetti scientifici internazionali, come quelli nel campo degli acceleratori e della fusione nucleare».
I cavi, alloggiati in un criostato flessibile e raffreddati da un flusso forzato di elio gassoso (opererà a temperature comprese tra 4.5 e 20 gradi K. A differenza dei gradi Celsius, la scala Kelvin inizia dallo zero assoluto, cioè il punto in cui tutte le particelle sono prive di energia termica), saranno in grado di trasportare correnti elettriche comprese tra 2 mila e 18 mila Ampere, l’unità di misura della corrente elettrica, per conduttore, operando in parallelo e indipendentemente all’interno di un unico fascio, per un totale complessivo di circa 100 mila Ampere. (P. S.).
Il progetto MUST realizzerà nuove strutture multifunzionali e sostenibili per i loro componenti
Il progetto MUST è stato finanziato dal Ministero delle Imprese e del Made in Italy con oltre 4 milioni di euro (finanziamento nell’ambito del bando Scoperta Imprenditoriale DM del 13 luglio 2023 e DD del 7 dicembre 2023- Fondo per la Crescita Sostenibile), al quale partecipa ENEA insieme ad Aerosoft spa, e ATM srl. L’obiettivo è realizzare nuove strutture multifunzionali per pacchi batteria innovativi e celle integrate direttamente nel telaio delle auto elettriche.
Sergio Galvagno, responsabile del progetto per ENEA e ricercatore del laboratorio Componenti e sistemi intelligenti per la manifattura sostenibile presso il Dipartimento Sostenibilità, ha dichiarato: «Negli ultimi anni la crescita e la diffusione delle auto elettriche sta avendo un notevole impulso e l’impiego delle batterie negli autoveicoli ha portato nuove esigenze costruttive sia in termini di ingegneria del veicolo sia di requisiti tecnici.
La sfida tecnologica di primaria importanza per ottenere veicoli sempre più performanti sarà quella di stampare in 3D materiali compositi di nuova generazione per realizzare strutture complesse, ma anche più leggere a parità di requisiti strutturali».
Il progetto prevede la possibilità di utilizzare nuovi compositi a matrice plastica rinforzati con fibre inorganiche, come carbonio e vetro, le cui proprietà permettono di realizzare manufatti estremamente leggeri e resistenti già applicati con successo in ambito aeronautico e automobilistico. Galvagno ha proseguito: «Come ENEA sperimenteremo materiali e tecniche di stampa 3D per realizzare componenti automobilistici e svilupperemo attività di recupero e riuso di sfridi (residuo della lavorazione di materiali o prodotti vari) e scarti di compositi

MATERIALI 3D PER AUTO ELETTRICHE
rinforzati con fibre di carbonio per la chiusura del ciclo produttivo. Per migliorare la sostenibilità ambientale ed economica del settore, ENEA valuterà i potenziali impatti ambientali associati all’implementazione di questi processi».
Le strutture alveolari così realizzate garantiranno una rigidezza torsionale equivalente o superiore a quelle attuali. Saranno utilizzate tecnologie produttive e tecniche di giunzione innovative e ingegneria computazionale per l’alloggiamento del pacco batterie.
Giorgio Fusco, responsabile scientifico del progetto MUST e responsabile tecnico R&D di Aerosoft, ha spiegato: «Per il progetto MUST ci oc -
cuperemo, in sinergia con i partner, della progettazione strutturale dei prototipi contenitori batterie e investigheremo i processi innovativi di presso-termoformatura con materiali compositi termoplastici con e senza fibra per consentire progressi tecnologici di processo e prodotto. Le ultime generazioni di batterie sono ancora particolarmente pesanti. Pertanto, il trade off con le strutture portanti del veicolo diventa sempre più il focus dei costruttori».
Aerosoft spa, con base a Napoli e con sedi anche all’estero, progetta e produce componenti con materiali compositi per i settori aerospazio, automotive, navale e ferroviario. (P. S.).

Poco più di un mese di stop a visite e spettacoli, con abbassamento delle acque.
Un blocco utile a far respirare l'ambiente e a intensificare ricerche ed esplorazioni
BIOLOGICO DELLE GROTTE
PERCHÉ È ESSENZIALE

IL LAVORO HA RIVELATO COME
LE GROTTE SIANO STATE
TEATRO DELL'UNICO
INSEDIAMENTO PALAFITTICOLO
SOTTERRANEO DOCUMENTATO
D'EUROPA, RISALENTE
ALL'ETÀ DEL BRONZO
Trentasette giorni di chiusura, poco più di un mese di stop a visite, tour, escursioni e rappresentazioni teatrali. Dallo scorso 7 gennaio è iniziato il fermo biologico delle Grotte di Pertosa-Auletta, in provincia di Salerno, che si protrarrà fino al 13 febbraio.
Una chiusura che si ripete annualmente e che è necessaria per consentire all'ambiente unico delle grotte di ritrovare le proprie condizioni ottimali dopo mesi segnati da notevole affluenza di pubblico.
Per fermo biologico, di solito, s'intende la temporanea sospensione delle attività di pesca in specifiche aree marine o d'acqua dolce, al fine di consentire la riproduzione e la tutela di specifiche specie ittiche.
In questo caso, ovviamente, la pesca non c'entra, anche se le grotte sono attraversate da un corso d'acqua sotterraneo navigabile, il Negro. La funzione del blocco, però, è più o meno la stessa: garantire la tutela dell'ambiente unico e incontaminato delle grotte, rispettandone i tempi naturali e favorendo la preservazione delle sue caratteristiche geologiche.
Sin dai primi giorni del fermo si è provveduto a svuotare lentamente le grotte dalle loro acque attraverso l'apertura della diga posta all'ingresso, controllata da Iren.
Un'operazione ormai di routine, effettuata ogni dodici mesi e che permette di abbassare il livello del corso
Beni Culturali
d'acqua e di liberare porzioni significative della cavità carsica.
Un'operazione di semi-svuotamento essenziale per proseguire l'esplorazione stessa delle grotte di Pertosa-Auletta, che nei loro meandri custodiscono tesori, cimeli e reperti archeologici di inestimabile valore e che sono annualmente battute, proprio durante il periodo di chiusura, da squadre di speleo-archeologici alla ricerca di ulteriori testimonianze dal passato.
Il fermo biologico, inoltre, fornisce l'occasione alla Fondazione MIdA, che si occupa della loro gestione e tutela, di svolgere le necessarie attività di monitoraggio, manutenzione ordinaria, programmazione e ricerca, il tutto allo scopo di garantire esperienze di visita sempre più sicure e sostenibili.
Al termine del periodo di fermo biologico con la chiusura della diga
il livello delle acque del Negro all'interno delle grotte può tornare quello di sempre, per essere percorso dalle barche che portano i visitatori tra corridoi, sale e scenari di straordinaria bellezza. Si calcola che il calcare che compone ogni angolo di questo misterioso e affascinante sito e che è modellato dall'incessante gocciolare delle acque impieghi ben cento anni per crescere di un solo centimetro.
Particolarmente significativa la data scelta per la fine del fermo e per la riapertura al pubblico delle grotte, del Museo del Suolo e del Museo Speleo-Archeologico: il 14 febbraio, giorno di San Valentino, che quest'anno cade di sabato.
L'ideale per un weekend da vivere in amore e armonia davanti all'incredibile scenario del «Bacio» delle grotte, l'incontro tra una stalattite e una stalagmite che costituisce una delle
attrazioni più apprezzate del sito, che si estende per circa tre chilometri al di sotto del massiccio degli Alburni.
Chiamate anche grotte dell'Angelo, situate a 263 metri sul livello del mare nel cuore della provincia di Salerno, a una quarantina di minuti d'auto dal capoluogo, le grotte di Pertosa-Auletta sono state oggetto di indagini e studi dalla fine del XIX secolo.
Il lavoro di Giovanni Patroni e Paolo Carucci, in particolare, ha rivelato come le grotte siano state teatro dell'unico insediamento palafitticolo sotterraneo documentato d'Europa, risalente all'età del Bronzo. Negli ultimi anni le scoperte si sono moltiplicate, in diversi casi proprio durante i periodi di fermo biologico.
Sono venuti alla luce, infatti, vasi, vasetti, utensili, palificazioni lignee e battuti tipici di quel periodo, che lasciano intendere come i primi abi -

© Paolo Ippolito - Fondazione Mida

tanti del sito fossero essenzialmente pastori.
Molto interessanti anche i ritrovamenti di età ellenistica e della prima età romano-imperiale emersi nel corso dell'ultima campagna di ricerca del 2025: monete, piccoli oggetti e ornamenti che fanno supporre come le grotte abbiano ospitato attività votive e riti che si sono perpetuati nei secoli.
È dal 1932 che le grotte di Pertosa-Auletta sono aperte al pubblico e la loro particolarità è che il primo tratto dell'itinerario di visita si percorre con una speciale barca trainata da un imponente cavo d'acciaio, che serve a raggiungere il restante tratto che è invece prettamente pedonale.
Oltre cinquantamila le presenze annue nel sito. Le grotte costituiscono anche una location perfetta e suggestiva per ospitare spettacoli teatrali o addirittura di genere innovativo, tipici esempi di speleoteatro in un ambiente senza pari.
Per anni sono stati la sede de «L'Inferno di Dante nelle Grotte», dove il pubblico attraversava i cerchi dell'Inferno immaginato dal Vate per incontrare i personaggi che lo caratterizzavano, o dello spettacolo itinerante «Ulisse: il Viaggio nell'Ade», che metteva in scena la discesa di Ulisse negli Inferi alla ricerca dell'indovino Tiresia. (R. D.).


Beni Culturali

VERSO MILANO-CORTINA: L'ITALIA DELLA NEVE CHE PUNTA AL PODIO OLIMPICO
Dal 6 al 22 febbraio il nostro paese ospiterà i Giochi invernali e gli appassionati sono pronti ad entusiasmarsi per stelle e talenti emergenti azzurri di sedici discipline
© martin SC photo/shutterstock.com
Sofia Goggia.
Chi ha qualche lustro alle spalle e una passione per gli sport su neve e ghiaccio, ricorderà con un brillio negli occhi le Olimpiadi invernali di Lillehammer 1994, dove l'Italia chiuse quarta nel medagliere con 20 podi totali. Dal 6 al 22 febbraio prossimo, le stelle azzurre dell'oggi cercheranno di eguagliare e - chissà - superare quella carrellata soddisfazioni ai Giochi olimpici di Milano-Cortina. Giochiamo in casa e giocare in casa, oltre alle polemiche per ritardi e scelte dei tedofori, dovrà pur garantire qualche vantaggio, in termini di spinta di pubblico, motivazioni e conoscenza dei “campi” di gioco. Vediamo quali sono le stelle e i possibili outsider da medaglia azzurri, cui il presidente del Coni, Luciano Buonfiglio, ha chiesto di arrivare almeno a 19 medaglie. Avversari permettendo. Nello sci alpino, il grave infortunio e la lunga convalescenza caricano di interrogativi la presenza di Federica Brignone, che a Milano-Cortina gareggerà a dieci mesi dall'ultima volta. Tre volte sul podio olimpico, due volte iridata (con 5 medaglie totali ai Mondiali) e due volte vincitrice della Coppa del Mondo assoluta, la 35enne valdostana al top della condizione sarebbe un asso valido per più discipline. Ci affideremo a Sofia Goggia, oro a Pyoengchang 2018 e argento Pechino 2022 in discesa libera, quattro volte vincitrice della Coppa del mondo di specialità. Va forte anche in Super G, lì dove ci proveranno anche Elena Curtoni e Laura Pirovano. Fra gli uomini i nomi forti sono quelli di Dominik Paris e Mattia Casse, ma occhio a Giovanni Franzoni, fresco vincitore del Super G di Wengen. E nel parallelo a squadre miste siamo campioni del mondo in carica con Vinatzer, Della Vite, Della Mea e Collomb.
Nella Last Dance del 35enne Federico Pellegrino, argento nella gara sprint nelle ultime due edizioni, sono riposte le speranze italiane nello sci di fondo. Principale rivale sarà, al solito,

il norvegese Johannes Høsflot Klæbo. Ma Pellegrino proverà a dare il suo massimo contributo anche nelle prove di squadra.
Davanti al suo pubblico chiuderà la carriera anche Dorothea Wierer, una delle due regine del biathlon italiano assieme a Lisa Vittozzi, desiderosa di regalarsi davanti al suo pubblico quel titolo che ancora le manca, nell'individuale o nella mass start. Iridata due anni fa, gran tiratrice, Vittozzi è il nome forte per la sprint e l'inseguimento. Assieme proveranno a guidare verso l'oro la staffetta, assieme al talentuoso 25enne Tommaso Giacomel, vicecampione del mondo nell'individuale e più volte a segno in Coppa in questa stagione.
Grande attesa anche per i protagonisti dello snowboard, disciplina che vede l'Italia in pole per titoli e medaglie in diverse specialità. Maurizio Bormolini è il detentore della Coppa del Mondo ed è in grande spolvero, al pari del sempreverde Roland Fischnaller, ancora capace a 45 anni di mietere successi in coppa, e di Mirko Felicetti. Scalpitano anche le ambiziose ragazze come Lucia Dalmasso, Elisa Caffont e Michela Moioli, oro nello snowboard cross a Pyeongchang 2018, campionessa del mondo in carica e argento a squadre quattro anni fa con Omar Visintin. Nel freestyle puntiamo su Ian Matteoli, primo italiano a conquistare un podio in Coppa del Mondo, nel big air.
Dalla neve al ghiaccio. Nello short track, Pietro Sighel è la grande speranza al maschile, dopo un autunno da protagonista nel World Tour. Solo Fabio Carta, per due volte, era riuscito a conquistare il titolo nel pattinaggio
di velocità su pista corta. E il trentino, classe 2000, è competitivo su più distanze. Come Arianna Fontana, 11 medaglie olimpiche totali e due trionfi, consecutivi, sui 500 metri nelle ultime due edizioni. Entrambi proveranno a trascinare anche le staffette.
Nel pattinaggio di velocità, i recenti Europei hanno visto Davide Ghiotto, Andrea Giovannini e Michele Malfatti aggiudicarsi l'oro nell'inseguimento e gli azzurri chiudere con cinque medaglie totali. Tra queste, quelle nelle mass start firmate dallo stesso Giovannini e da Francesca Lollobrigida, atleta polivalente capace di vincere il bronzo anche nei 3000 quattro anni fa. E il curling? L'oro olimpico di Amos Mosaner e Stefania Constantini è riverberato nel trionfo ai Mondiali italiani di doppio misto lo scorso anno, maturato con 11 vittorie su 11. Restano il riferimento per tutti gli altri. Va a caccia di un podio olimpico, il primo, anche la squadra maschile capitanata da Joel Retornaz, che vuole riscattare il podio mancato agli Europei qualche mese fa. Impresa più complicate per le ragazze capitanate da Constantini.
Pronti a stupire anche gli azzurri delle altre discipline, dal bob allo slittino, dal debuttante sci alpinismo (con valtellinese Giulia Murada, fra le altre) allo skeleton, dopo la storica doppia medaglia europea firmata da Amedeo Bagnis, da solo e con Alessandra Fumagalli. Completano il mosaico l'hockey su ghiaccio e la combinata nordica. Tra Milano, Cortina, Anterselva, la Val di Fiemme (Predazzo/Tesero) e la Valtellina (Livigno/Bormio) si assegneranno 116 titoli: 54 maschili, 50 femminili e 12 in prove miste. (A. P.).
Pietro Sighel.

Le squadre di Lorenzetti e Gaspari hanno vinto la rispettiva rassegna iridata per club, chiudendo un anno solare che ha visto l'Italia vincere anche i Mondiali maschili e femminili
Ekaterina Antropova.
La sorpresa Scandicci fra le donne, Perugia fra gli uomini: l'Italia del volley fa due su due anche ai Mondiali per club. Conclusione migliore non poteva esserci, per un 2025 magico che ha visto le nazionali italiane di pallavolo trionfare sia ai Mondiali, sia in Volley Nations League e le Champions League maschile e femminile finire, rispettivamente, nelle bacheche di Perugia e Conegliano.
Un anno che non farà facile ripetere, se si pensa che in campo femminile i club turchi stanno attirando le grandi campionesse della Serie A1 italiana con contratti milionari inavvicinabili e progetti di grande prestigio, come quello che porterà fino al 2028 la Final Four della Champions League alla Ülker Sports Arena di Istanbul.
Intanto, però, il Mondiale per club è finito ancora una volta in mani italiane. A conquistare quello femminile, in Brasile, non è stata però la pigliatutto Imoco Conegliano, ma l'outsider (di lusso) Savino del Bene Scandicci, che ha sfatato il tabù delle finalispesso disputate contro le solidissime venete - grazie a una splendida prova corale e alle giocate di Ekaterina Antropova, russa d'origine, nata in Islanda e diventata stella della nazionale italiana. In una torrida San Paolo, le fiorentine hanno battuto per tre set a zero, nel girone, le kazake dello Žetysu, le forti brasiliane dell'Osasco e le peruviane dell'Alianza Lima. Poi, in semifinale, hanno riservato lo stesso trattamento a un altro team brasiliano, il Praia Clube.
Infine, la finale con Conegliano, che negli ultimi anni era stato spesso uno scoglio insormontabile sia per Scandicci, sia per il suo tecnico Marco Gaspari. Non solo Antropova, eletta miglior giocatrice del match, per le toscane: la regia di un'infinita Maja Ognjenovic, i cinque muri di Nwakalor, l'efficienza offensiva di Avery Skinner, le difese di Castillo, il "lavorone" di Bosetti fra prima e seconda linea sono

solo alcuni degli highlights di una grande prova di squadra.
È finita 3-1 per Scandicci, con Conegliano che si è espressa su livelli irraggiungibili (malgrado l'assenza della centrale azzurra Fahr) solo nel quarto set, presa per mano dall'asso Gabi e dal tifo brasiliano che sosteneva la connazionale dell'Imoco. Il duello Conegliano-Scandicci prosegue in Serie A e, chissà, si riproporrà anche in Champions League. E mentre le fiorentine lavorano per trovare una valida sostituta di Antropova, destinata all'Eczacibasi in Turchia, e rimanere ai vertici, Conegliano blinda le stelle Haak e Gabi lanciando un chiaro messaggio al nuovo Eldorado della pallavolo femminile.
Un regista italiano, Simone Giannelli, è stato eletto invece miglior giocatore del Mondiale per club Fivb maschile a Belem, in Brasile, dopo aver guidato la Sir Sicoma Monini Perugia al terzo trionfo nella manifestazione. Sue le due giocate decisive nel 3-2 sulla Bluteon Osaka che sono valse il 23-21 al tie-break e il primo posto nel girone (entrambe hanno battuto 3-0 sia il Sada, sia l'Asswehly), suo il tocco di seconda che ha chiuso la finale con gli stessi giapponesi, stavolta battuti senza concedere alcun parziale. Fra le due sfide con Brizard e compagni, anche il 3-0 in semifinale ai brasiliani del Bvc con Ishikawa in grande spolvero.
In finale Perugia è stata dominante nei primi due parziali, vinti rispettivamente a 20 ed a 21, poi nel terzo è dovuta risalire da uno scarto negativo per agganciare Osaka sul 24 pari, annullare quattro set point e infine chiudere il match con il punteggio

di 29-27. In doppia cifra Ben Tara (16 punti), premiato miglior opposto del torneo, Semeniuk (14) e Dzavoronok (10). Nel "6+1" ideale anche Giannelli come miglior palleggiatore e i centrali Loser e Solè. Sulla scia del trionfo mondiale Perugia ha affrettato il passo anche in Superlega, il massimo campionato italiano, cogliendo altre cinque vittorie di fila e isolandosi in vetta in attesa dei big match con Trento, Verona e Piacenza nell'ultimo mese di regular season.
E le Nazionali? Le ragazze di Julio Velasco hanno dominato la scena, prima confermandosi regine della Volley Nations League femminile e poi vincendo d'autorità i Campionati del mondo. Allori che si aggiungono al titolo olimpico vinto a Parigi un anno e mezzo fa. Dal 21 agosto al 6 settembre prossimi ci sono gli Europei e l'Italia li affronterà senza Monica De Gennaro, che ha dato l'addio in grande stile alla nazionale.
In palio c'è anche il pass per i Giochi di Los Angeles 2028. Le azzurre giocheranno nel gruppo D, a Göteborg, affrontando Svezia, Montenegro, Francia, Slovacchia e Croazia. Eventuali ottavi e quarti in Repubblica Ceca, mentre semifinali e finali si disputeranno a Istanbul, in Turchia.
Dal 10 al 26 settembre 2026, invece, Italia, Bulgaria, Finlandia e Romania ospiteranno gli Europei maschili. Inseriti nella Pool A, i campioni del mondo azzurri se la vedranno con Svezia (a Napoli), Grecia, Slovacchia, Repubblica Ceca e Slovenia (a Modena). Giocheranno gli eventuali ottavi e gli eventuali quarti a Torino, mentre Milano sarà la sede di semifinali e finali. (A. P.).
Simone Giannelli.
© Celso Pupo/shutterstock.com

DUE ITALIANI NELLA TOP 5 DEL TENNIS
Quante volte stiamo leggendo “pagina storica” negli ultimi anni, a proposito del tennis italiano? Innumerevoli. Molto spesso grazie a Jannik Sinner, ma non solo. L’ultima della serie, lo scorso 10 gennaio, l’ha scritta Lorenzo Musetti nel torneo Atp 250 di Hong Kong, il primo dell’anno per il 23enne tennista carrarino. Pagina storica non tanto per il risultato in sé, visto che ancora una volta “Il Magnifico” si è fermato a un passo dal titolo, battuto in finale dal kazako Aleksandr Bublik. Grazie al successo in semifinale su Andrey Rublev, però, Musetti è salito per la prima volta in carriera al quinto posto della classi -
fica Atp, scavalcando Alex De Minaur. E quindi dal 12 gennaio, ufficialmente, l’Italia può così per la prima volta nella storia due giocatori nella Top 5 mondiale, visto che al numero 2 c’è proprio il pluricampione Slam Jannik Sinner. «Faccio ancora fatica a metabolizzare questo traguardo, è una sensazione incredibile. Per me è un punto di partenza e questo mi spingere a fare ancora meglio in futuro» il commento di Musetti dopo la semifinale con Rublev. In precedenza, Lorenzo si era spinto fino alla posizione numero 6, dopo la semifinale al Roland Garros dello scorso anno. Pochi mesi fa, Musetti è diventato il quinto italiano ad aver partecipa -
Dietro Sinner, numero 2 al mondo, Musetti si è affacciato in quinta posizione grazie al torneo di Hong Kong
to alle Nitto Atp Finals in singolare e terzo ad aver vinto almeno una partita dopo Matteo Berrettini e Jannik Sinner: l’ha spuntata con Alex De Minaur, proprio l’atleta scavalcato grazie all’eccellente cammino nel torneo di Hong Kong.
Musetti è il quarto miglior italiano di sempre in classifica maschile, dopo Jannik Sinner arrivato fino alla prima posizione (che proverà a riprendersi in questo 2026), Adriano Panatta salito fino alla quarta e Nicola Pietrangeli, che prima dell’era della classifica computerizzata era arrivato al terzo posto.
Non solo Sinner e Musetti. Nella settimana della doppia Top 5 maschile, alla vigilia dell’Australian Open, l’Italia è arrivata con quattro giocatori fra i primi 25 al mondo, cinque nella Top 50, otto in Top 100, tre quarti dei quali di età compresa fra 23 e 24 anni. I nomi, ormai, sono sempre più noti agli appassionati di sport in generale e non solo ai fan della racchetta: Flavio Cobolli (n. 22), Luciano Darderi (n. 24), Lorenzo Sonego (n. 41), Matteo Berrettini (n. 56), Matteo Arnaldi (n. 65) e Mattia Bellucci (n. 76). Secondo un’analisi di un noto quotidiano sportivo nazionale, il “peso” dell’Italia sul totale dei punti nella Top 30 Atp è pari al 19,54 per cento, nettamente superiore a quello di Spagna, (14,94) e Stati Uniti (13,15). E la giovane età di gran parte dei protagonisti regala prospettive rosee.
Sono sempre due, invece, le Top 100 italiane nella classifica Wta. Alla vigilia del primo torneo major di stagione, l’Australian Open, la lucchese Jasmine Paolini ha guadagnato una posizione tornando alla numero 7. Alle sue spalle, ha risalito una posizione Elisabetta Cocciaretto, alla numero 80, mentre Lucia Bronzetti è scivolata alla 106 e Lucrezia Stefanini alla 109. (A. P.).
Il 41enne portoghese continua a far centro anche
nella Saudi League e ribadisce la sua sete di trofei e record
“Voglio diventare il giocatore con più trofei nella storia del calcio e raggiungere un altro numero che voi conoscete”. E quel numero si sta rapidamente avvicinando per Cristiano Ronaldo, l'attaccante più prolifico della storia del calcio, 41 anni il prossimo 5 febbraio, che continua a mietere record con la maglia dell'Al-Nassr, in Arabia Saudita.
Sempre in tiro, sempre proiettato verso nuovi obiettivi personali, il campionissimo portoghese continua a macinare reti anche quando la squadra attraversa periodi poco brillanti. Fra fine dicembre e metà gennaio, infatti, l'Al-Nassr è incappato in un filotto negativo di un pareggio e tre sconfitte, che l'hanno allontanato dalla cima della Saudi League, malgrado l'apporto quasi continuo di CR7 in zona gol. E sembra quasi ironia della sorte che la vittoria, 3-2 sull'Al-Shahab, sia tornata in una giornata di digiuno del calciatore più seguito al mondo.
La rete numero 959 è arrivata il 12 gennaio, nella sconfitta per 3-1 con la capolista Al Hilal allenata dall'italiano Simone Inzaghi. Match con coda polemica, per Cristiano Ronaldo il quale, dopo la sostituzione nel finale, dalla panchina ha mimato il gesto dello scippo per manifestare il suo disaccordo con alcune decisioni arbitrali, dai due rigori all'espulsione del portiere Al Aqidi.
Se il cammino di squadra ha subito un rallentamento, quello del fenomeno di Funchal si impreziosisce di record sempre nuovi. L'ultimo: Cristiano Ronaldo ha toccato quota 100 con la stessa maglia per la quarta volta in carriera. Al Real Madrid ha disegnato pagine di storia con 450 gol in 438 partite, alla Juventus ne ha realizzati 101 in 134, al Manchester United 145 in 346. Ora, con l'Al-Nassr, è arrivato

MILLE (GOL) E UN RONALDO: OBIETTIVO A QUATTRO CIFRE
a 109 in 124 incontri (fonte Transfermarkt.it). Anche in Nazionale CR7 ha da tempo raggiunto e incrementato la tripla cifra: attualmente vanta 143 reti con il Portogallo, delle quali 121 in match ufficiali, con diversi record a livello europeo e mondiale. Alle spalle del portoghese c'è un altro grande interprete del calcio tuttora in attività, Lionel Messi, a quota 115, poi l'iraniano Ali Daei a 108. Fra i giocatori in attività, in buona posizione il belga Romelu Lukaku e il polacco Robert Lewandowski. Tanti gol, tanti portieri tristi. Segnando all'Al-Qadsiah, in Saudi Pro League, lo scorso novembre Cristiano Ronaldo ha raggiunto un altro record: 200 squadre colpite. E secondo la Fede-
razione internazionale di storia e statistica del calcio (Iffhs), il portoghese è il primo giocatore nella storia del calcio a riuscire nell'impresa. Un'impresa frutto di talento, allenamento, costanza. Anno dopo anno. E grazie alle prime reti di questo 2026, CR7 ha allungato a 25 la striscia di anni solari con almeno una rete all'attivo, partita nel 2002. Come si può immaginare, questo rendimento gli ha permesso di diventare anche capocannoniere (e più volte) in quattro campionati e in quattro leghe differenti: Premier League inglese, Liga spagnola, Serie A italiana e Saudi Pro League. Con una certezza, lungo una carriera da applausi: Cristiano Ronaldo logora chi non ce l'ha. (A. P.).
JANE AUSTEN E LE MERAVIGLIE BOTANICHE DELL’ERA REGENCY
Un volume che celebra la natura e invita a ricordarsene
Tra storie affascinanti e personaggi incredibili
di Anna Lavinia
Molly Williams, Jessica Roux
Nel giardino di Jane Austen
Aboca 2025 - 25,00 euro

In una lettera datata dicembre 1798 indirizzata alla sorella Cassandra, Jane Austen scrive “non ricordo di aver mai fatto una cosa simile in vita mia” riferendosi ad una fredda passeggiata all’aperto che aveva fatto da sola a Deane, nel Kant.
La natura per la scrittrice britannica sembrava essere un rifugio sicuro e proprio l’esperienza di stare all’aperto è stato un tema fondamentale dei suoi lavori.
Per i 250 anni dalla nascita dell’autrice, è uscito un libro per (ri) connettersi con il suo mondo. Non tanto attraverso i suoi scritti piuttosto perdendosi nei paesaggi lussureggianti che hanno risvegliato la sua immaginazione.
Lei che ha celebrato la meraviglia del creato attraverso le parole, viene omaggiata adesso in un tour botanico. Il mondo di Jane Austen da un altro punto di vista, con i piedi nella terra e gli occhi rivolti alla natura, non solo per osservare ma per custodire e proteggere.
Da un piccolo villaggio dell’Hampshire al cuore della cultura contemporanea, la potenza di Jane Austen ha attraversato secoli, nazioni, generazioni ed inevitabilmente luoghi.
Giardini, frutteti, sentieri, piante e fiori non sono semplici decorazioni letterarie ma “elementi” reali in grado di svelare emozioni e cambiamenti della società. Ogni angolo verde parla e riflette la vita delle protagoniste dei suoi romanzi. La giovane donna che ha forgiato la letteratura, con naturalezza e dignità è stata la prima scrittrice ad aver dato vita ad un mondo femminile fatto di piccole cose. Anche di fiori e varietà botaniche.
I giardini letterari di Austen non fanno solo da sfondo ai suoi romanzi ma ne sono parte attiva, le fragole in Emma (1815) richiamano all’umiltà e alla classe tra la società privilegiata in cui la protagonista vive e poi ci sono le rose, simbolo di purezza e innocenza, che rispecchiano incredibilemente Fanny Price, l’eroina di Mansfield Park (1815).
Non sorprende dunque l’idea del 2017 di un floricoltore inglese di dedicare una rosa proprio a Jane Austen.
Un gradevole profumo accostato ad un colore arancio intenso con sfumature di giallo sul retro dei petali: è la varietà botanica Harzicon a lei dedicata.
Dalla penna al vaso e viceversa, un libro che profuma di passeggiate segrete tra fiori e pagine letterarie, una guida botanica che invita a sedersi sotto un glicine in fiore ed ammirare la natura che nel frattempo si intreccia con le sue avvincenti e intramontabili storie.
E per chi non vive di sola immaginazione, ci sono le eleganti illustrazioni di Jessica Roux che restituiscono scorci poetici dell’epoca, dalle tavole imbandite ai roseti in fiore.
Per coloro che invece vogliono mettere le mani nella terra, ci sono pagine ricche di spunti pratici. Ricette per creare tinture dalle siepi, coltivare fragole in cestini sospesi o preparare l’acqua alla lavanda. Nebulizzata in camera, applicata su pelle e abiti o usata come disinfettante su tagli e abrasioni.
Tutte le istruzioni per realizzare “un must” del tempo, un cosmetico naturale usato per la salute e il benessere che racchiude l’essenza dell’età della Reggenza in Inghilterra. In un rapporto spesso dimenticato tra umano e natura, questo nutrito volume sembra adattarsi perfettamente ad una delle frasi più celebri della grande scrittrice: “per quel che mi riguarda, se un libro è ben scritto, lo trovo sempre troppo corto”.



Roberto Riccardi
Salvatore Ottolenghi
Giuntina, 2025 - 18,00 euro
Per molti, Ottolenghi è il famoso chef di cucina mediterranea, in realtà Salvatore, che porta lo stesso cognome, è l’uomo che ha cambiato il modo di fare le indagini. Il medico che nel 1902 ha convinto Giolitti a creare la prima scuola di polizia scientifica. Attraverso mezzo secolo di storia, una biografia da leggere col fiato sospeso. (A. L.).
Costantino Motzo
Il nutrizionista: racconti, avventura e ricerca di un metodo 2025 - 11,44 euro
Cos’hanno in comune le merende della mamma, l’estate in Sardegna e la divulgazione ogni mattina sui social network? Il metodo Motzo è la versione 2.0 della dieta mediterranea che si pone all’ascolto delle persone e al tempo stesso al passo con la modernità. Un viaggio tascabile tra scienza, salute, benessere e ricordi di vita. (A. L.).
Bianca Pitzorno
La sonnambula
Bompiani, 2026 - 18,00 euro
La sonnambula è colei che è preda di un disturbo del sonno che la pone in uno stato di dissociazione tra sonno e veglia. Ma nell’Ottocento narrato nel romanzo è invece la donna che predice il futuro, una medium di nome Ofelia Rossi. E con il potere della sua mente, cerca il riscatto e la libertà in un mondo che tenta di controllarla. (A. L.).
Libri
IL BINGE-WATCHING QUANDO LO SCHERMO NON CONOSCE PAUSE
Gli effetti psicologici, sociali e biologici delle maratone televisive
Il binge-watching è un fenomeno relativamente recente che consiste nel guardare video online o contenuti in streaming, ad esempio su piattaforme come Netflix, per periodi di tempo prolungati. In passato, la visione televisiva era scandita dai palinsesti: ogni episodio di una serie veniva trasmesso settimanalmente e lo spettatore doveva adattarsi a quella cadenza. Oggi, invece, grazie ai servizi di streaming che rendono disponibili intere stagioni, o addirittura serie complete, la fruizione dei contenuti è diventata accessibile senza vincoli di orario. Questa nuova libertà di scelta ha però un effetto collaterale: molte persone finiscono per guardare un episodio dopo l’altro, trasformando la visione in vere e proprie “maratone televisive”, da cui deriva il termine binge-watching [1]. Ciò che inizialmente nasce come un passatempo innocuo e diffuso è presto diventato oggetto di interesse per la comunità scientifica, che ha iniziato a indagarne gli effetti sulla salute, sia fisica che mentale. Dal punto di vista fisico, trascorrere molte ore seduti favorisce comportamenti sedentari e stili di vita poco salutari. Sul piano biologico e comportamentale, la visione prolungata può alterare i ritmi circadiani, compromettere la qualità del sonno e avere ripercussioni sociali, riducendo il tempo dedicato alle relazioni e alle interazioni personali. La pandemia di COVID-19 ha ulteriormente amplificato questo fenomeno. Le misure di contenimento del contagio,
* Comunicatrice scientifica e Medical writer
come quarantene e lockdown, hanno limitato le attività quotidiane, favorendo un maggiore uso di Internet e delle piattaforme digitali. In questo contesto, il binge-watching è diventato per molti una strategia per gestire lo stress e l’ansia legati all’isolamento, ma spesso si è trasformato in un circolo vizioso, in cui il bisogno di evasione alimenta comportamenti sempre più disfunzionali. A rafforzare questa tendenza hanno contribuito anche le piattaforme di streaming, che durante la pandemia hanno proposto promozioni, nuove uscite e contenuti esclusivi, spingendo ulteriormente la diffusione di questa abitudine ormai radicata nella vita quotidiana [2,3].
Negli ultimi anni, diversi studi hanno indagato il legame tra binge-watching e salute mentale trovando supporto nella “Teoria degli usi e delle gratificazioni” (Uses and Gratifications Theory), secondo cui le persone tendono a utilizzare i media per soddisfare specifici bisogni psicologici. La teoria suggerisce che, quando l’attività è pianificata, può produrre una sensazione di gratificazione e controllo. Ma il binge-watching, spesso, non è del tutto intenzionale: molte persone cercano di limitarsi, ma incontrano difficoltà nell’interrompere la visione. In questi casi, l’esperienza può generare senso di colpa o rimpianto, contribuendo a peggiorare il benessere psicologico. Da questa prospettiva, il binge-watching può essere considerato una forma specifica di uso problematico di Internet, in linea con il modello teorico I-PACE (Interaction of Person-Affect-Cognition-Execution), che descrive le interazioni tra fattori individuali, emotivi, cognitivi e comportamentali nella ge -
di Daniela Bencardino*

nesi dei comportamenti disfunzionali online.
Fattori motivazionali, come il bisogno di evasione, la paura di essere esclusi, la ricerca di socialità o di gratificazione psicologica, e tratti di personalità, come l’elevato nevroticismo, la bassa gradevolezza o la scarsa apertura all’esperienza, possono favorire comportamenti di binge-watching. Le possibili conseguenze sulla salute comprendono forme di dipendenza comportamentale, disturbi del sonno, sedentarietà, e disagio psicologico (depressione, ansia, solitudine, stress) [4,5].
Percezione della dipendenza tra chi guarda serie TV
In uno studio qualitativo su 25 persone che si sono autodefinite “binge-watcher” è emerso che questi spettatori trascorrono in media 4 giorni a settimana a guardare serie, dedicando circa 2 ore al giorno durante la settimana e fino a 3 ore nel weekend. La maggior parte utilizza piattaforme di streaming su dispositivi mobili, come smartphone, tablet e computer, mentre solo un partecipante preferisce la tradizionale televisione via cavo. Dall’analisi delle interviste sono emersi quattro temi principali. Innanzitutto, i partecipanti descrivono il binge-watching come un comportamento continuo e immersivo. Alcuni lo associano semplicemente alla visione prolungata, indipendentemente dal genere; altri includono anche la ricerca di informazioni relative alla serie, come dettagli sul cast o merchandising; altri ancora percepiscono il binge-watching come un comportamento difficile da controllare, che può interferire con le responsabilità quotidiane.
Per quanto riguarda i contenuti, i partecipanti ampliano il concetto tradizionale di binge-watching anche a varietà, reality e animazione, sottolineando l’importanza della continuità narrativa rispetto al genere. Alcuni riten -
gono che solo programmi con contenuto continuo possano essere definiti binge-watching, mentre eventi sportivi o film indipendenti non rientrano in questa categoria. Il binge-watching viene percepito anche come un comportamento pianificato e controllato, in cui lo spettatore decide quando e come guardare, al contrario della TV tradizionale vincolata ai palinsesti.
Molti preferiscono farlo su dispositivi mobili, scegliendo liberamente orari e momenti della giornata. L’impatto sulla vita quotidiana si manifesta soprattutto nelle routine giornaliere: gli intervistati tendono a guardare dopo scuola o lavoro e prima di dormire, e le visioni prolungate possono alterare il sonno e influenzare l’umore del giorno successivo.
Tuttavia, non percepiscono effetti gravi sulla salute. Il binge-watching esercita anche una funzione di stimolo e piacere, favorendo riflessione, empatia e creatività, e può motivare attività aggiuntive come acquisti, viaggi, studio di lingue o approfondimenti culturali e professionali.
Infine, quasi tutti concordano sul fatto che guardare serie insieme ad amici e colleghi migliora le interazioni sociali, creando interessi comuni e rafforzando le relazioni. Infine, analizzando le esperienze dei partecipanti alla luce delle caratteristiche delle dipendenze comportamentali (sbalzi di umore, tolleranza, astinenza, perdita di controllo e conflitto), il binge-watching mostra tratti associabili a comportamenti compulsivi o potenzialmente problematici, pur mantenendo aspetti positivi legati al piacere e alla socialità. I partecipanti allo studio hanno descritto il binge-watching come un’esperienza emotivamente intensa, in cui emergono eccitazione, urgenza e difficoltà a interrompere la visione. Queste sensazioni rientrano nella caratteristica delle dipendenze comportamentali nota come
mood modification, cioè la capacità di modificare l’umore attraverso l’attività stessa. Alcuni hanno spiegato che il desiderio di guardare l’episodio successivo si manifesta in modo marcato solo durante le maratone di serie, mentre la visione casuale di contenuti non rappresenta binge-watching. Un’altra caratteristica osservata è la tolleranza: alcuni partecipanti, soprattutto studenti, hanno riferito di dover aumentare progressivamente la durata o l’intensità delle sessioni per ottenere la stessa soddisfazione.
Al contrario, coloro che avevano lavoro e famiglia dichiaravano di essere limitati dagli impegni quotidiani e non potevano estendere il tempo dedicato alla visione. Il binge-watching può generare anche sintomi di astinenza: i partecipanti hanno riportato noia, tristezza e delusione quando terminavano una serie o non potevano continuare a guardare, cercando a volte nuovi contenuti per compensare queste emozioni negative. Alcuni hanno raccontato di provare rabbia, frustrazione o senso di impotenza se interrotti a metà episodio. Nonostante ciò, la percezione della perdita di controllo varia: molti descrivono il binge-watching come un comportamento che può diventare incontrollabile e interferire con la vita quotidiana, soprattutto in passato o riferendosi ad altri. Attualmente, la maggior parte dichiara di gestire la propria abitudine in modo pianificato e consapevole.
I conflitti legati al binge-watching emergono prevalentemente nelle relazioni familiari: chi non pratica binge-watching tende a percepirlo negativamente, criticando il tempo speso davanti allo schermo o cercando di limitarlo. Alcuni partecipanti hanno anche riportato conflitti interiori, sentendosi in colpa per non aver esercitato autocontrollo o per non aver svolto attività ritenute produttive, come studiare o lavorare. Infine, la maggior parte dei partecipanti riconosce che il binge-watching può avere caratteristiche simili a una dipendenza, a causa dell’impatto emotivo negativo quando non si può guardare, della difficoltà a controllare la durata delle sessioni, della costante attenzione alla serie in corso e della propensione a trascurare responsabilità quotidiane. Tuttavia, molti distinguono tra la dipendenza percepita negli altri e la propria esperienza, che viene considerata pianificata e controllata: ad esempio, alcuni scelgono giorni specifici per maratone di più episodi, con pause tra uno e l’altro, gestendo così consapevolmente il proprio tempo di visione [6].
Tra motivazione e controllo del comportamento
Alla base del binge-watching, apparentemente legato al semplice intrattenimento, si nascondono dinamiche psicologiche e tratti di personalità che possono spingere alcuni individui verso un uso più intenso o addirittura problematico delle piattaforme di streaming. Uno studio ha analizzato proprio questi aspetti, con l’obiettivo di compren -
dere come i sistemi motivazionali e i tratti di personalità contribuiscano alla concezione del binge-watching come svago fino alle sue forme più disfunzionali.
I risultati hanno evidenziato il ruolo chiave del sistema di inibizione comportamentale (BIS), un sistema neuropsicologico che regola la sensibilità alla punizione e la tendenza a evitare situazioni potenzialmente rischiose. Un’eccessiva attivazione del BIS può portare a un comportamento inibito, ma anche a una ricerca di gratificazioni: in questo caso, la visione di serie TV può diventare una strategia di fuga da emozioni negative o stress quotidiano, predisponendo a comportamenti ripetitivi e potenzialmente dipendenti. Dal punto di vista dei tratti di personalità, emergono due dimensioni opposte: il nevroticismo, associato a una maggiore vulnerabilità emotiva e quindi a un rischio più alto di binge-watching problematico, e la coscienziosità, che sembra invece avere un ruolo protettivo, favorendo l’autoregolazione e il controllo del comportamento. Questi risultati sono coerenti con quanto già osservato in altri tipi di dipendenze comportamentali, come l’uso eccessivo dei social network o dello smartphone, dove la combinazione di alti livelli di nevroticismo e bassi livelli di coscienziosità rappresenta un fattore di rischio ben documentato.
Il binge-watching, quindi, non può essere ridotto a un semplice passatempo: riflette l’interazione tra motivazioni profonde e caratteristiche di personalità. Per alcuni individui, guardare serie può essere un modo per evadere dalla solitudine o per gestire stati emotivi difficili. Tuttavia, quando questo comportamento diventa un meccanismo di regolazione disfunzionale, può interferire con il benessere psicologico e con i normali ritmi fisiologici, confermando ancora una volta il legame stretto tra mente e corpo. Un aspetto interessante emerso dallo studio riguarda proprio la linea sottile che separa il comportamento “sano” da quello problematico. Ciò che nasce come un’attività piacevole e culturale può, in un contesto ambientale o personale sfavorevole, trasformarsi in un’abitudine compensatoria. Riconoscere questi segnali precoci potrebbe essere utile per la prevenzione di forme di dipendenza comportamentale [7,8].
Strategie per ridurre il binge-watching
Comprendere le dinamiche alla base del binge-watching è utile per descrivere il fenomeno e guidare lo sviluppo di interventi mirati a limitarne gli effetti negativi sulla salute. I fattori che favoriscono il binge-watching sono gli obiettivi personali, l’influenza sociale, l’abitudine consolidata e la gratificazione emotiva derivante dalla visione, mentre tra gli ostacoli predominano l’autocontrollo, la capacità di monitorare il proprio comportamento e la consapevolezza dei limiti. Sulla base di questi risultati, le
strategie più promettenti per ridurre il binge-watching comprendono la revisione dei propri obiettivi legati alla visione, la valutazione consapevole dell’impatto delle sessioni di binge-watching sul benessere, e l’incremento della consapevolezza delle conseguenze negative, come affaticamento mentale e alterazioni del sonno.
Interventi mirati a promuovere l’autocontrollo, a incoraggiare pause programmate e a suggerire attività alternative per gestire stress e noia potrebbero quindi ridurre i comportamenti disfunzionali, senza compromettere l’aspetto ricreativo della visione. Questi approcci rappresentano un primo passo verso strategie sostenibili e personalizzate per la regolazione del binge-watching, evidenziando l’importanza di combinare conoscenze psicologiche, motivazionali e comportamentali per prevenire conseguenze negative sulla salute mentale e fisica [9].
Conclusioni
Alla luce di questi risultati, il binge-watching si concre -

tizza come un comportamento complesso, al crocevia tra biologia, psicologia e cultura digitale. Le basi neuropsicologiche che regolano la ricerca di gratificazione e il controllo degli impulsi mostrano come la fruizione dei media possa attivare gli stessi circuiti cerebrali coinvolti nelle dipendenze comportamentali, in particolare quelli legati al sistema dopaminergico della ricompensa. Questo spiega perché, per alcune persone, diventi difficile ritardare la visione dell’episodio successivo. Il cervello, infatti, ricerca la stessa stimolazione emotiva e cognitiva ottenuta durante la visione precedente.
Comprendere questi meccanismi può aiutare a sviluppare strategie di prevenzione e interventi di promozione del benessere digitale, volti a favorire un uso più consapevole e regolato dei contenuti online. In prospettiva, i biologi e i professionisti della salute mentale possono contribuire a integrare l’analisi comportamentale con misure fisiologiche, ad esempio i livelli di cortisolo, i ritmi sonno-veglia o la variabilità cardiaca, per chiarire l’impatto del binge-watching sull’omeostasi dell’organismo. Parallelamente, l’educazione alla “salute digitale” diventa un obiettivo prioritario, soprattutto per le fasce più giovani, per promuovere equilibrio tra tempo online e attività reali, tra stimolazione e riposo. Il binge-watching, come molte altre pratiche nate con la cultura dello streaming, non va demonizzato, ma compreso. Riconoscerne i meccanismi neuropsicologici e sociali renderà possibile trasformarlo da rischio a opportunità di conoscenza e autoregolazione.
Bibliografia
1. Alimoradi Z, Jafari E, Potenza MN, Lin CY, Wu CY, Pakpour AH. Binge-Watching and Mental Health Problems: A Systematic Review and Meta-Analysis. Int J Environ Res Public Health. 2022 Aug 6;19(15):9707
2. Lemenager T, Neissner M, Koopmann A, Reinhard I, Georgiadou E, Müller A, Kiefer F, Hillemacher T. COVID-19 Lockdown Restrictions and Online Media Consumption in Germany. Int J Environ Res Public Health. 2020 Dec 22;18(1):14
3. Vaterlaus, J.M.; Spruance, L.A.; Frantz, K.; Kruger, J.S. College student television binge watching: Conceptualization, gratifications, and perceived consequences. Soc. Sci. J. 2019, 56, 470–479
4. Starosta, J.A.; Izydorczyk, B. Understanding the phenomenon of binge-watching—A systematic review. Int. J. Environ. Res. Public Health 2020, 17, 4469
5. Pittman, M.; Steiner, E. Distinguishing feast-watching from cringe-watching: Planned, social, and attentive binge-watching predicts increased well-being and decreased regret. Convergence 2021, 27, 1507–1524
6. Chang YJ, Peng CY. Exploring experiences of binge-watching and perceived addictiveness among binge-watchers: a qualitative study. BMC Public Health. 2022 Dec 6;22(1):2285
7. Forte G, Favieri F, Casagrande M, Tambelli R. Personality and Behavioral Inhibition/Activation Systems in Behavioral Addiction: Analysis of Binge-Watching. Int J Environ Res Public Health. 2023 Jan 16;20(2):1622
8. Forte G., Favieri F., Pazzaglia M., Casagrande M. Mental and body health: The association between psychological factors, overweight, and blood pressure in young adults. J. Clin. Med. 2022;11:1999
9. Kwok, A.; Younas, F.; Gutman, L.M.; Vlaev, I. Barriers and Facilitators to Binge-Watching Using the Theoretical Domains Framework. Encyclopedia 2024, 4, 1250-1262
RUOLO DEL MICROBIOTA INTESTINALE E DELLA DISBIOSI NELLA MALATTIA DI PARKINSON
La funzione dei batteri e della flora intestinale nelle patologie neurodegenerative
Negli ultimi anni, il microbiota intestinale ha assunto un ruolo centrale nella comprensione di molte patologie croniche e neurodegenerative, tra cui la Malattia di Parkinson (PD). Evidenze sempre più numerose indicano come l’alterazione della composizione microbica intestinale (disbiosi) possa contribuire allo sviluppo e alla progressione della PD attraverso meccanismi di infiammazione, aumento della permeabilità intestinale, produzione di metaboliti neuroattivi e interferenza con la farmacocinetica della levodopa, principale farmaco utilizzato nel trattamento.
L’alimentazione, in quanto modulatore primario del microbiota, rappresenta quindi un elemento terapeutico complementare di primaria importanza. Questa revisione narrativa sintetizza le conoscenze attuali sul ruolo del microbiota intestinale nella patogenesi e gestione della PD, con particolare attenzione agli aspetti dietetici e terapeutici emergenti.
Il termine microbiota definisce la complessa comunità di microrganismi che colonizzano specifici distretti del corpo umano, mentre microbioma indica l’insieme del loro patrimonio genetico. Sebbene i due termini vengano spesso utilizzati in modo intercambiabile, essi descrivono concetti distinti ma complementari. La maggior parte dei microrganismi che compongono il microbiota umano risiede nell’intestino, tanto da essere considerato un vero e
* Biologi Nutrizionisti
proprio organo metabolico e immunologico.
Negli ultimi anni, grazie all’applicazione di tecniche di sequenziamento avanzato (Next Generation Sequencing, NGS), in particolare del gene 16S rRNA, è stato possibile caratterizzare la diversità microbica intestinale con elevata precisione, permettendo di identificare correlazioni significative tra alterazioni della flora batterica e malattie croniche, incluse quelle neurodegenerative.
Il microbiota intestinale: composizione e funzioni
Il microbiota intestinale è costituito principalmente da sei phyla batterici: Firmicutes, Bacteroidetes, Actinobacteria, Proteobacteria, Verrucomicrobia e Fusobacteria. Questa complessa comunità esercita funzioni fondamentali per l’omeostasi dell’organismo ospite, tra cui:
• Digestione e sintesi di nutrienti: produzione di vitamine essenziali come acido folico, vitamina K e vitamine del gruppo B.
• Regolazione della motilità intestinale: modulazione della peristalsi e del transito intestinale.
• Protezione contro agenti patogeni: effetto barriera attraverso la competizione con microrganismi potenzialmente nocivi e l’attivazione del sistema immunitario (circa il 70% delle cellule immunitarie risiede nell’intestino).
• Detossificazione e metabolismo: neutralizzazione di sostanze tossiche e modulazione del metabolismo lipidico e glucidico.
La composizione del microbiota è influenzata da mol -
di Matteo Pillitteri* e Dario Incorvaia*
teplici fattori: genetica, età, dieta, stile di vita, stress, esposizione ambientale e uso di farmaci (antibiotici in particolare). Quando l’equilibrio microbico (eubiosi) viene alterato, si instaura una condizione di disbiosi, con ripercussioni sistemiche sull’organismo.
Disbiosi e alterazione della barriera intestinale
La disbiosi intestinale determina cambiamenti metabolici e infiammatori che compromettono la funzionalità della barriera intestinale. Quest’ultima è costituita da cellule epiteliali unite da strutture proteiche chiamate “giunzioni serrate” (tight junctions), responsabili del controllo selettivo del passaggio di sostanze dal lume intestinale al circolo sanguigno.
Gli acidi grassi a catena corta (Short Chain Fatty Acids, SCFA) - come butirrato, propionato e acetato - prodotti dal metabolismo batterico, rappresentano un substrato energetico essenziale per gli enterociti e contribuiscono al mantenimento dell’integrità delle giunzioni serrate. Una riduzione di batteri produttori di SCFA, come Faecalibacterium prausnitzii e Roseburia spp., comporta un aumento della permeabilità intestinale (“leaky gut”), favorendo il passaggio di endotossine, allergeni e metaboliti tossici nel torrente circolatorio e innescando risposte infiammatorie sistemiche.
Microbiota intestinale e Malattia di Parkinson
La Malattia di Parkinson (PD) è una patologia neurodegenerativa caratterizzata dalla perdita progressiva dei neuroni dopaminergici nella substantia nigra e dalla presenza di aggregati di α-sinucleina. Oltre ai sintomi motori classici (bradicinesia, rigidità, tremore, instabilità posturale), la PD è spesso accompagnata da manifestazioni non motorie, tra cui stipsi cronica, disfunzioni autonome e alterazioni dell’olfatto, che possono precedere di anni i sintomi neurologici veri e propri.
La teoria di Braak (2003) propone che la neurodegenerazione nella PD abbia origine nel sistema nervoso enterico e si propaghi successivamente al sistema nervoso centrale attraverso il nervo vago. In questo contesto, il microbiota intestinale potrebbe rappresentare un fattore chiave nell’innesco del processo patologico. La Teoria di Braak si basa su dati di autopsie su pazienti affetti da Parkinson deceduti in fase precoce di malattia, scoprendo che all’interno del neurone del plesso gastrointestinale sono presenti segni degenerazione come i cosiddetti Corpi di Lewy, ovvero accumuli di proteine tra cui l’Alfa-synucleina, una proteina molto importante per la regolazione delle attività cellulari.
Si ipotizza che all’interno dell’intestino, già molti anni prima della malattia, si realizza un processo infiammatorio che conduce alla disattivazione della Alfa-synucleina
conducendo infine alla degenerazione del neurone dopaminergico.
Numerosi studi metagenomici hanno rilevato nei pazienti con PD una riduzione di taxa batterici produttori di SCFA (Faecalibacterium, Roseburia) e un aumento di batteri potenzialmente pro-infiammatori come Akkermansia muciniphila e Bifidobacterium. Queste alterazioni sono associate a danno della barriera intestinale, infiammazione cronica, stress ossidativo e mimetismo molecolare tra antigeni batterici e proteine neuronali.
Una meta-analisi condotta da Nishiwaki et al. (2020) e successivamente aggiornata (Kleine Bardenhorst et al., 2023) ha confermato che la composizione del microbiota nei pazienti parkinsoniani differisce significativamente da quella dei controlli sani, suggerendo un ruolo patogenetico della disbiosi intestinale.
Interferenza del microbiota con la levodopa
La levodopa rappresenta ancora oggi il trattamento farmacologico di prima scelta per la PD, in quanto precursore della dopamina, neurotrasmettitore carente nella malattia. Tuttavia, solo una minima parte (circa il 10%) della levodopa somministrata per via orale raggiunge il cervello, a causa di un assorbimento intestinale inefficiente e della metabolizzazione periferica.
Alcuni batteri intestinali, in particolare Enterococcus faecalis, esprimono un enzima chiamato tyrosine decarboxylase (TyrDC), capace di decarbossilare la levodopa in dopamina direttamente nel lume intestinale. Poiché la dopamina non attraversa la barriera emato-encefalica, questo processo riduce la biodisponibilità del farmaco, compromettendo l’efficacia clinica.
Le strategie proposte per ridurre questa interferenza includono:
• Uso combinato di inibitori periferici della decarbossilasi (carbidopa, benserazide), che tuttavia non inibiscono gli enzimi batterici.
• Sviluppo di inibitori batterici selettivi, come il composto AFMT, in grado di bloccare TyrDC senza interferire con la decarbossilasi umana (Zhang et al., 2025).
• Modulazione del microbiota intestinale mediante dieta, probiotici e prebiotici mirati, con l’obiettivo di ridurre la popolazione batterica interferente e migliorare l’assorbimento del farmaco.
Ruolo dell’alimentazione nella gestione della Malattia di Parkinson
L’alimentazione svolge un ruolo determinante nel trattamento integrato della PD. Oltre a favorire un microbiota eubiotico, una dieta equilibrata può migliorare la tolleranza alla levodopa e ridurre gli effetti collaterali gastrointestinali.

Poiché la levodopa compete con gli aminoacidi neutri per i trasportatori intestinali, è consigliabile assumerla almeno 30 minuti prima dei pasti. Un eccesso proteico nei pasti principali può ridurne l’assorbimento, per cui si raccomanda di concentrare le proteine (carne, pesce, uova, legumi) preferibilmente a cena, riservando il pranzo a piatti prevalentemente vegetali.
Nei pazienti anziani, frequentemente soggetti a disfagia, rallentamento dei movimenti e perdita di appetito, è indicata una dieta frazionata in piccoli pasti frequenti, con consistenze morbide e adeguato apporto di liquidi (almeno due litri al giorno, preferibilmente acque ricche di calcio).
Una dieta ricca di fibre prebiotiche (frutta, verdura, cereali integrali, legumi) e alimenti fermentati (yogurt, kefir, miso) favorisce la produzione di acidi grassi a catena corta e contribuisce al mantenimento dell’integrità intestinale e immunitaria.
Prospettive terapeutiche e conclusioni
La disbiosi intestinale rappresenta oggi un promettente target diagnostico e terapeutico nella Malattia di Parkinson. L’integrazione tra analisi del microbiota e interventi nutrizionali personalizzati apre nuove prospettive nella medicina integrata e di precisione.
Tuttavia, approcci sperimentali come il trapianto di microbiota fecale (FMT) non hanno ancora fornito risultati clinici univoci, e sono necessarie ulteriori evidenze per definirne sicurezza ed efficacia.
Nel complesso, il mantenimento di un microbiota inte -
stinale equilibrato, supportato da un’alimentazione varia e da uno stile di vita sano, costituisce un pilastro fondamentale non solo nella prevenzione, ma anche nel supporto terapeutico della PD.
Bibliografia
1. Braak, H., & Del Tredici, K. (2003). Pathoanatomy of Parkinson’s disease. Journal of Neurology, 250(Suppl 1), I1–I4. Ghosh, D., Ghosh, S., Sharma, M., & Datta, S. (2024). A review of gut microbiota as a therapeutic approach for Parkinson’s disease. MGM Journal of Medical Sciences, 11(4), 763–771.
2. Huang, Y., Liao, D., Liu, H., Zhong, C., & Cai, M. (2021). The role of intestinal dysbiosis in Parkinson’s disease. Neuro-Immunology Journal.
3. Kleine Bardenhorst, S., Cereda, E., Severgnini, M., et al. (2023). Gut microbiota dysbiosis in Parkinson’s disease: A systematic review and pooled analysis. European Journal of Neurology, 30(11), 3581–3594.
4. Menozzi, E., & Schapira, A. H. V. (2024). The gut microbiota in Parkinson disease: Interactions with drugs and potential for therapeutic applications. CNS Drugs.
5. Nishiwaki, H., et al. (2020). Meta-analysis of gut dysbiosis in Parkinson’s disease. Movement Disorders, 35(9), 1626–1635.
6. Sampson, T. R., & Mazmanian, S. K. (2015). Control of brain development, function, and behavior by the microbiome. Cell Host & Microbe, 17(5), 565–576.
7. Scheperjans, F. (2021). Gut microbiota and Parkinson’s disease: The latest evidence and perspectives. Movement Disorders, 36(7), 1507–1516.
8. Sharon, G., Sampson, T. R., Geschwind, D. H., & Mazmanian, S. K. (2016). The central nervous system and the gut microbiome. Cell, 167(4), 915–932.
9. Zhang, X., et al. (2025). Targeted gut microbiota modulation enhances levodopa bioavailability and motor recovery in MPTP Parkinson’s disease models. International Journal of Molecular Sciences, 26(11), 5282.
10. Zhu, F., Ju, Y., Wang, W., Wang, Q., & Guo, R. (2023). Altered gut microbiota and its metabolites in Parkinson’s disease: Implications for diagnosis and therapy. Frontiers in Cellular Neuroscience, 17, 1154239.

LA SINFONIA BIOCHIMICA QUANDO LE PROTEINE DANZANO SUI CAMPI ELETTRICI
La vita è un fenomeno elettromagnetico organizzato e comprenderlo significa scoprire come la fisica orchestri la chimica degli esseri viventi
di Stefano Spagnulo*
Immaginate un’orchestra sinfonica. Ogni strumento deve essere accordato alla perfezione, ogni musicista deve entrare al momento giusto, ogni nota deve risuonare all’intensità corretta. Un solo violino stonato, un ingresso anticipato dei timpani, ed ecco che l’armonia si dissolve nel caos. Ora, scendete di scala: dalla sala da concerto al cuore di una cellula vivente. Qui, in uno spazio un milione di volte più piccolo, si svolge una sinfonia ancora più complessa.
Le proteine - questi straordinari polimeri di amminoacidisono gli strumenti di quest’orchestra molecolare. E il loro direttore? Non è altro che la fisica: campi elettrici, forze elettromagnetiche, gradienti di carica che plasmano, muovono e dirigono ogni movimento. Questa non è una metafora poetica. È la realtà dimostrata dalla biochimica moderna: la vita è un fenomeno elettromagnetico organizzato, e comprenderlo significa scoprire come le leggi della fisica orchestrino la chimica della vita.
I: Le Condizioni Ottimali - Quando la Forma Incontra la Funzione
La Legge dell’Accordatura Perfetta
Nel 1894, il chimico Emil Fischer propose il suo celebre modello “chiave-serratura” per spiegare la specificità enzimatica. Aveva intuito qualcosa di fondamentale: la forma conta. Ma solo un secolo dopo abbiamo compreso fino a che punto. Ogni enzima possiede una temperatura ottimale, solitamente attorno ai 37°C per gli organismi umani. A questa temperatura, la proteina
* Biologo Nutrizionista, Laboratorista e Ambientale. Docente di Scienze dell'alimentazione.
mantiene la sua struttura tridimensionale ideale - né troppo rigida da essere inefficiente, né troppo flessibile da perdere specificità. Spostatevi di pochi gradi in più o in meno, e l’efficienza catalitica crolla. Non è diverso da un violino: la tensione delle corde deve essere esattamente quella giusta. Troppo tesa, la corda si spezza. Troppo allentata, il suono diventa sordo. La proteina, come il violino, è uno strumento che funziona solo quando accordato alle condizioni ambientali perfette.
I Quattro Livelli dell’Armonia Molecolare
La struttura delle proteine si organizza in quattro livelli gerarchici, ciascuno governato da forze elettromagnetiche specifiche:
1. Struttura primaria: lo spartito genetico: La sequenza di amminoacidi è determinata dal DNA. Qui troviamo i “caratteri” della nostra storia: amminoacidi carichi positivamente (lisina, arginina), negativamente (aspartato, glutammato), polari ma neutri (serina, treonina), e idrofobici (valina, leucina, isoleucina). Questa sequenza è lo spartito - fissato, immutabile per quella specifica proteina.
2. Struttura secondaria: le prime armonie: Le α-eliche e i foglietti β nascono da legami a idrogeno, interazioni elettrostatiche deboli ma numerose. Un legame a idrogeno singolo ha un’energia di appena 4-20 kJ/mol - circa cento volte più debole di un legame covalente - ma quando se ne allineano centinaia, stabilizzano strutture regolari e ripetitive. Qui emerge un principio fondamentale: il pH del mezzo modifica le cariche degli ammi-
noacidi, alterando la rete di legami a idrogeno. È come cambiare l’acustica della sala da concerto: la stessa sequenza di note suona completamente diversa.
3. Struttura terziaria: il timbro unico: Questo è il livello dove l’elettromagnetismo diventa protagonista assoluto. La forma tridimensionale finale emerge dall’interazione di:
• Interazioni elettrostatiche tra gruppi carichi (forze che seguono la legge di Coulomb: F ∝q₁q₂/r²).
• Effetto idrofobico, dove residui non polari si aggregano per minimizzare il contatto con l’acqua, aumentando l’entropia del solvente.
• Legami a idrogeno direzionali e specifici.
• Ponti disolfuro tra residue di cisteina, legami covalenti che agiscono come “chiodi” strutturali.
La forma finale è letteralmente un equilibrio di forze elettromagnetiche. Christian Anfinsen dimostrò negli anni ‘60 che una proteina denaturata può ripiegarsi spontaneamente nella sua forma nativa: la sequenza contiene tutte le informazioni necessarie. Il ripiegamento cerca il minimo globale di energia libera di Gibbs (G = H - TS), dove H è l’entalpia, T la temperatura e S l’entropia.
4. Struttura quaternaria: l’ensemble orchestrale: Quando più subunità proteiche si assemblano - come l’emoglobina con le sue quattro catene - cariche complementari si attraggono, superfici idrofobiche si incastrano. Variazioni di pH, concentrazione ionica o temperatura possono dissociare il complesso. L’orchestra si tiene insieme solo se ogni strumento mantiene la giusta accordatura.
II: Il Campo Elettrico come Linguaggio Molecolare
La Percezione Senza Sensi
Le proteine non hanno occhi, orecchie o recettori nervosi. Eppure “percepiscono” il loro ambiente con una sensibilità straordinaria. Come? Attraverso le cariche elettriche e i momenti di dipolo. Ogni amminoacido contribuisce alla distribuzione di carica della proteina. I residui carichi (Lys⁺, Arg⁺, Asp , Glu ) creano regioni di potenziale elettrico. I residui polari (Ser, Thr, Asn, Gln) possiedono dipoli permanenti - separazioni parziali di carica. Anche i residui idrofobici, apparentemente inerti, hanno distribuzioni elettroniche che rispondono ai campi esterni. Una proteina immersa in soluzione è come un mobile sospeso in un campo di forze: se il campo cambia, la forma cambia. Non è una risposta attiva o “volontaria” - è fisica pura. Le cariche si attraggono e si respingono secondo la legge di Coulomb, i dipoli si orientano secondo il campo elettrico locale, i legami a idrogeno si formano o si rompono in risposta a variazioni di pH (che altro non è se non la concentrazione di ioni H⁺, particelle cariche).
I Campi Elettrici Interni: L’Architettura Invisibile
Distinguiamo subito due categorie di campi elettromagnetici:
Campi interni (fisiologici): Sono fondamentali e determinano ripiegamento, stabilità, attività enzimatica e interazioni con substrati. Parliamo di:
• Cariche degli ioni disciolti (Na⁺, K⁺, Ca²⁺, Cl , Mg²⁺)
• pH locale (concentrazione di H⁺ e OH )
• Potenziali di membrana (circa -70 mV nelle cellule nervose)
• Micro-campi nel sito attivo degli enzimi (fino a 10⁸-10⁹ V/m)
Campi esterni (ambientali): Onde radio, Wi-Fi, campi elettromagnetici di dispositivi elettronici. Alle intensità tipiche dell’ambiente quotidiano, questi non hanno energia sufficiente per rompere legami o alterare strutture proteiche. Non modificano la conformazione, non influenzano la catalisi. Sono, per usare la nostra metafora, un rumore lontano che non disturba l’orchestra. L’eccezione sono le radiazioni ionizzanti (UV, raggi X, raggi gamma), che possiedono energia sufficiente per rompere legami covalenti, denaturare proteine e danneggiare il DNA. Ma qui siamo in un regime completamente diverso.
Il Potenziale di Membrana: Il Vento che Fa Danzare le Proteine Nelle cellule nervose e muscolari, la distribuzione asimmetrica di ioni crea un potenziale elettrico transmembrana di circa -70 mV. Può sembrare poco, ma considerando che la membrana è spessa solo 5 nanometri, questo si traduce in un campo elettrico di circa 14 milioni di volt per metro. I canali ionici voltaggio-dipendenti possiedono “sensori di voltaggio” - segmenti della proteina ricchi di residui carichi, specialmente arginine. Quando il potenziale di membrana cambia (per esempio durante un potenziale d’azione), questi segmenti carichi si spostano fisicamente in risposta al campo elettrico, come bandiere che si orientano nel vento. Questo movimento induce un cambio conformazionale che apre o chiude il canale. È un meccanismo elegante e dimostrato: esperimenti di mutagenesi sito-specifica hanno mostrato che sostituire le arginine critiche con residui neutri abolisce la sensibilità al voltaggio. La struttura cristallografica di canali come il Kv1.2 ha rivelato esattamente dove si trovano questi sensori e come si muovono.
III: Gli Enzimi - Catalizzatori Elettrostatici
Il Segreto della Velocità
Gli enzimi accelerano le reazioni chimiche di fattori incredibili - spesso 10⁶ a 10¹⁷ volte più veloci della reazione non catalizzata. Come ci riescono? Per decenni si è pensato che il trucco fosse semplicemente “avvicinare i reagenti” e “stabilizzare lo stato di transizione”. Vero, ma incompleto. La rivoluzione è arrivata quando abbiamo capito che gli enzimi sono ingegneri dei campi elettrici.
Micro-Campi da Record
Nel sito attivo degli enzimi, le cariche sono disposte con pre-
cisione quasi architettonica per creare campi elettrici di intensità estrema: 10⁸-10⁹ V/m. Per dare un’idea, i fulmini generano campi di “solo” 3×10⁶ V/m. Il campo in un sito attivo enzimatico è centinaia di volte più intenso.
Questi micro-campi compiono quattro azioni critiche:
1. Orientano i substrati: Il campo elettrico allinea i momenti di dipolo del substrato nella configurazione ideale per la reazione. È come un direttore d’orchestra che indica ai musicisti esattamente quando entrare.
2. Polarizzano i legami: Il campo distorce la distribuzione elettronica dei legami chimici del substrato, rendendoli più reattivi. È come tirare una corda prima di tagliarlaserve molto meno sforzo.
3. Stabilizzano lo stato di transizione: Lo stato di transizione è la configurazione più instabile e di energia più alta lungo il percorso della reazione. Gli enzimi posizionano cariche strategicamente per stabilizzare proprio questa configurazione, abbassando la barriera energetica (energia di attivazione). È come mettere dei cuscini sotto un oggetto che sta per cadere da un’altura.
4. Destabilizzano lo stato di partenza: Alcuni enzimi non solo stabilizzano dove si vuole arrivare, ma rendono scomoda la situazione di partenza, spingendo la reazione in avanti.
Esempi Concreti: Quando la Teoria Diventa Realtà
1. Alcol deidrogenasi (ADH): Quest’enzima ossida gli alcoli (come l’etanolo) a aldeidi. Nel sito attivo, uno ione Zn²⁺ coordina l’ossigeno del gruppo -OH. Il campo elettrico generato da questo ione metallico:
• Polarizza il legame O-H
• Stabilizza la carica negativa che si forma sullo stato di transizione
Facilita il trasferimento dell’idruro (H ) al coenzima NAD⁺ Misurazioni di costanti cinetiche mostrano accelerazioni di 10⁹ volte. Rimuovere lo zinco abolisce l’attività.
2. Serina proteasi (chimotripsina, tripsina, elastasi): La celebre triade catalitica Ser-His-Asp è un capolavoro di ingegneria elettrostatica. L’aspartato, carico negativamente, orienta l’istidina attraverso un legame a idrogeno. L’istidina, a sua volta, aumenta la nucleofilicità dell’ossigeno della serina. Il risultato:
• La serina, normalmente un nucleofilo debole, diventa un attaccante feroce
• Il legame peptidico del substrato viene polarizzato
• L’intermedio tetraedrico (stato di transizione) viene stabilizzato
Esperimenti di mutagenesi hanno confermato che alterare uno solo dei residui della triade riduce l’attività di oltre 1000 volte.
3. Lisozima: Quest’enzima taglia i polisaccaridi della parete cellulare batterica. Alexander Fleming lo scoprì nel
1922, e David Phillips ne determinò la struttura nel 1965 - il primo enzima di cui si conobbe la struttura 3D. Il lisozima distorce il substrato, forzandolo in una conformazione ad alta energia (a “mezza sedia” invece che a “sedia”). Come? Con un campo elettrico che destabilizza lo stato di partenza e stabilizza lo stato di transizione. È come pre-tendere un elastico: serve molta meno energiaper romperlo poi.
4. Carbonato anidrasi: Uno degli enzimi più veloci conosciuti (k_cat ≈ 10⁶ s ¹), converte CO₂ in HCO₃⁻. Nel sito attivo, uno ione Zn²⁺ coordina una molecola d’acqua e, attraverso il campo elettrico generato, abbassa il pKa dell’acqua da 15.7 a circa 7. Questo rende l’acqua un nucleofilo efficace a pH fisiologico.
5. ATP sintasi: Qui il campo elettrico diventa motore meccanico. Il gradiente protonico attraverso la membrana mitocondriale crea un campo elettrico che induce rotazione fisica di una porzione dell’enzima. Questa rotazione meccanica è accoppiata alla sintesi di ATP. Paul Boyer e John Walker ricevettero il Nobel nel 1997 per aver chiarito questo meccanismo straordinario.
IV: Il Folding Proteico - La Ricerca della Forma Perfetta
Il Paradosso di Levinthal
Nel 1969, Cyrus Levinthal pose un quesito sconcertante: una proteina di appena 100 amminoacidi potrebbe assumere circa 3¹⁰⁰ ≈ 10⁴⁸ conformazioni diverse. Se provasse ciascuna per 10 ¹³ secondi (il tempo di una vibrazione molecolare), impiegherebbe 10²⁷ anni - più dell’età dell’universo. Eppure, le proteine si ripiegano in millisecondi o secondi. La soluzione? Il ripiegamento non è casuale. È guidato dalla termodinamica lungo un “paesaggio energetico” a forma di imbuto.
Il Funnel Energetico: Scivolare Verso la Stabilità
Ken Dill e collaboratori proposero negli anni ‘90 il modello del funnel energetico (imbuto energetico). Immaginate un imbuto tridimensionale:
• In alto: molte conformazioni possibili, alta energia, alta entropia (disordine)
• In basso: poche conformazioni stabili, bassa energia, bassa entropia
• Lungo la discesa: la proteina “scivola” verso conformazioni sempre più stabili
La forma dell’imbuto non è liscia - ci sono minimi locali (trappole) dove la proteina può rimanere bloccata temporaneamente. Ecco perché esistono le proteine chaperoni, che aiutano a evitare questi vicoli ciechi e prevengono l’aggregazione. L’energia che guida la discesa è l’energia libera di Gibbs: G = H - TS. Dove:
• H (entalpia) diminuisce quando si formano interazioni stabilizzanti (legami a idrogeno, interazioni elettrostatiche, ponti disolfuro)
• S (entropia) aumenta paradossalmente: quando i residui idrofobici si aggregano nel core della proteina, le molecole d’acqua che li circondavano vengono liberate e aumentano il loro disordine
• T è la temperatura
Il folding è favorito quando ΔG < 0, cioè quando il guadagno entalpico e entropico supera il costo della perdita di entropia conformazionale della catena.
Cooperatività: Il Contrappunto Molecolare
Nel contrappunto musicale, più linee melodiche indipendenti si intrecciano creando armonia attraverso la loro interazione. Nelle proteine, il fenomeno analogo è la cooperatività: il ripiegamento di una regione facilita il ripiegamento di regioni lontane nella sequenza. L’emoglobina ne è l’esempio classico. Il legame dell’ossigeno a una subunità induce un cambio conformazionale che aumenta l’affinità delle altre subunità. Christian Bohr descrisse questo effetto nel 1904; Jacques Monod, Jeffries Wyman e Jean-Pierre Changeux lo formalizzarono matematicamente nel 1965 con il modello MWC (Monod-Wyman-Changeux).
V: Frontiere Quantistiche - Dove la Musica Diventa Particella-Onda
Il Tunneling Quantistico nella Catalisi
Uno degli sviluppi più affascinanti della biochimica degli ultimi trent’anni è la scoperta che gli enzimi sfruttano effetti quantistici. In meccanica quantistica, particelle leggere come protoni (H⁺), elettroni (e ) o idruri (H ) non devono necessariamente scavalcare una barriera energetica: possono attraversarla grazie al tunneling quantistico. È come se potessero passare attraverso un muro invece di scavalcarlo. Judith Klinman dell’Università di Berkeley ha dimostrato negli anni ‘90 che il tunneling di idruri avviene negli enzimi alcol deidrogenasi. L’evidenza più forte viene dall’effetto isotopico cinetico: sostituire l’idrogeno normale (¹H) con deuterio (²H, più pesante) rallenta la reazione di 50-100 volte a temperatura ambiente, e questo rapporto aumenta abbassando la temperatura - un comportamento impossibile da spiegare con la sola meccanica classica. Altri esempi confermati:
• Metilammina deidrogenasi: trasferimento di elettroni via tunneling
• Lipoossigenasi di soia: trasferimento di atomi di idrogeno
• Citocromo P450: trasferimento di protoni in reazioni di ossidazione
Il tunneling quantistico spiega perché alcune reazioni enzimatiche sono troppo veloci per i calcoli classici. Gli enzimi modellano la forma della barriera di potenziale - attraverso i loro campi elettrici - rendendo il tunneling più probabile.
Vibrazioni Coerenti: Un’Ipotesi Affascinante
Alcuni ricercatori, come Graham Fleming di Berkeley, han-
no proposto che vibrazioni collettive coerenti nella proteina potrebbero contribuire alla catalisi. L’idea è che oscillazioni sincronizzate di gruppi atomici potrebbero facilitare il trasferimento di energia o particelle.
Questa ipotesi è ancora dibattuta. Esperimenti spettroscopici ultrarapidi hanno rilevato coerenze quantistiche in alcuni sistemi proteici, ma resta da dimostrare se giochino un ruolo funzionale o siano semplicemente conseguenze fisiche senza rilevanza biologica.
VI: Patologie del Disaccordo - Quando l’Orchestra Stona
Misfolding e Malattie Neurodegenerative
Se il folding è l’accordatura dell’orchestra molecolare, il misfolding è una stonatura catastrofica che produce malattie.
• Malattia di Alzheimer: La proteina β-amiloide si ripiega male e forma aggregati (placche) nei tessuti cerebrali. Anche la proteina tau, normalmente stabilizzante dei microtubuli, forma grovigli neurofibrillari.
• Malattia di Parkinson: L’α-sinucleina forma aggregati chiamati corpi di Lewy nei neuroni dopaminergici.
• Malattie da prioni (Creutzfeldt-Jakob, “mucca pazza”): La proteina prionica normale (PrP^C) può convertirsi in una forma mal ripiegata (PrP^Sc) che è infettiva - propaga il misfolding ad altre molecole in una reazione a catena. Stanley Prusiner ricevette il Nobel nel 1997 per aver dimostrato che proteine mal ripiegate possono essere agenti infettivi.
• Fibrosi cistica: Causata dalla delezione di fenilalanina 508 (ΔF508) nel trasportatore CFTR. Questa singola mutazione impedisce il corretto folding della proteina, che viene degradata prima di raggiungere la membrana cellulare.
Chaperoni Molecolari: I Tecnici del Suono
Le proteine chaperoni (Hsp70, Hsp90, chaperonine GroEL/ GroES) prevengono l’aggregazione e assistono il folding. Funzionano attraverso meccanismi ATP-dipendenti che:
• Legano regioni idrofobiche esposte
• Forniscono un ambiente protetto per il ripiegamento
• Permettono cicli di folding/unfolding fino al raggiungimento della forma corretta
Sono letteralmente i tecnici del suono molecolare, che assicurano che ogni strumento dell’orchestra sia perfettamente accordato.
VII: Sintesi - La Fisica della Vita
Abbiamo percorso un viaggio dalla macroscala della musica alla nanoscala delle proteine, e scoperto che le stesse leggi fisiche governano entrambi i mondi.
I Principi Unificanti
1. L’accordatura perfetta Violini e enzimi funzionano solo
in condizioni ottimali. Una deviazione dalla temperatura, dal pH, dalla forza ionica ideali, e l’efficienza crolla.
2. Il ritmo e la cinetica Batteristi e enzimi regolano la velocità dei processi. Senza un controllo temporale preciso, il sistema diventa caotico.
3. La specificità Cantanti e enzimi sono specialisti. Ciascuno riconosce il proprio “repertorio” - note o substrati - con precisione quasi assoluta.
4. La cooperatività orchestrale Orchestra e metabolismo funzionano perché ogni elemento interviene al momento giusto. Il tutto emerge dall’interazione coordinata delle parti.
5. I campi come linguaggio I campi elettrici sono il linguaggio silenzioso che le proteine parlano. Percepiscono, rispondono, catalizzano - tutto attraverso interazioni elettromagnetiche su scala nanometrica.
Le Evidenze Sperimentali
Questa non è speculazione filosofica. Ogni affermazione in questo articolo si basa su:
• Strutture cristallografiche ad alta risoluzione (risoluzione atomica, 1-2 Å)
• Esperimenti di mutagenesi sito-specifica che identificano residui critici
• Misurazioni cinetiche che quantificano accelerazioni catalitiche
• Spettroscopia (NMR, fluorescenza, EPR) che rivela dinamiche conformazionali
• Simulazioni di dinamica molecolare che riproducono movimenti atomici
• Misurazioni elettrofisiologiche che quantificano potenziali di membrana e correnti ioniche
L’Elettromagnetismo come Direttore d’Orchestra
La vita è un concerto di forze elettromagnetiche su scala nanometrica. Senza:
• Legami a idrogeno (elettrostatici)
• Interazioni cariche-cariche (Coulomb)
• Effetto idrofobico (entropico, ma dipendente da proprietà elettroniche)
• Campi elettrici nel sito attivo
• Potenziali di membrana ...non ci sarebbe ripiegamento, non ci sarebbe specificità, non ci sarebbe catalisi, non ci sarebbe vita.
Epilogo: Verso Nuove Frontiere
La comprensione della biochimica come fenomeno elettromagnetico apre prospettive terapeutiche rivoluzionarie:
• Drug design razionale: progettare farmaci che sfruttano i campi elettrici dei siti attivi
• Modulazione dell’attività enzimatica: controllare l’attività di proteine attraverso campi elettrici esterni appli-
cati (una frontiera ancora largamente inesplorata)
• Correzione del misfolding: sviluppare chaperoni farmacologici per prevenire malattie neurodegenerative
• Bioingegneria quantistica: progettare enzimi artificiali che sfruttano effetti quantistici in modo ottimale
La metafora musicale non è solo un artificio retorico - rivela una verità profonda: l’armonia emerge dall’interazione di elementi semplici governati da leggi universali. Che si tratti di onde sonore in una sala da concerto o di campi elettrici in un sito attivo enzimatico, i principi sono gli stessi: risonanza, cooperatività, sintonia perfetta.
Le proteine sono strumenti che suonano solo se immerse nel campo giusto, con la giusta tensione, la giusta carica, la giusta energia. E noi, ascoltatori privilegiati di questa sinfonia molecolare, stiamo appena cominciando a comprenderne la partitura.
Bibliografia
Manuali Generali
1. Berg, J.M., Tymoczko, J.L., Stryer, L. (2019). Biochemistry (9th ed.). W.H. Freeman and Company. o Capitoli 8-10 (Enzimi e cinetica), Capitoli 2-3 (Struttura proteica)
2. Nelson, D.L., Cox, M.M. (2021). Lehninger Principles of Biochemistry (8th ed.). W.H. Freeman. -Capitolo 4 (Struttura tridimensionale delle proteine) -Capitolo 6 (Enzimi)
3. Voet, D., Voet, J.G., Pratt, C.W. (2016). Fundamentals of Biochemistry: Life at the Molecular Level (5th ed.). Wiley. Articoli Fondamentali Storici
Struttura delle Proteine
4. Anfinsen, C.B. (1973). “Principles that govern the folding of protein chains”. Science, 181(4096), 223-230. -Articolo Nobel: dimostra che la sequenza determina la struttura o DOI: 10.1126/science.181.4096.223
5. Pauling, L., Corey, R.B., Branson, H.R. (1951). “The structure of proteins: Two hydrogen-bonded helical configurations of the polypeptide chain”. Proceedings of the National Academy of Sciences, 37(4), 205-211. -Scoperta dell’α-elica
-DOI: 10.1073/pnas.37.4.205
6. Kendrew, J.C., et al. (1958). “A three-dimensional model of the myoglobin molecule obtained by x-ray analysis”. Nature, 181, 662-666. -Prima struttura 3D di una proteina -DOI: 10.1038/181662a0
7. Perutz, M.F., et al. (1960). “Structure of haemoglobin: a three-dimensional Fourier synthesis at 5.5-Å resolution, obtained by X-ray analysis”. Nature, 185, 416-422.-Struttura dell’emoglobina e cooperatività -DOI: 10.1038/185416a0
Catalisi Enzimatica
8. Fischer, E. (1894). “Einfluss der Configuration auf die Wirkung der Enzyme”. Berichte der deutschen chemischen Gesellschaft, 27(3), 2985-2993. -Modello chiave-serratura (articolo originale in tedesco)
9. Koshland, D.E. (1958). “Application of a theory of enzyme specificity to protein synthesis”. Proceedings of the National Academy of Sciences, 44(2), 98-104. -Modello “induced fit” -DOI: 10.1073/pnas.44.2.98
10. Warshel, A., Levitt, M. (1976). “Theoretical studies of enzymic reactions: Dielectric, electrostatic and steric stabilization of the carbonium ion in the reaction of lysozyme”. Journal of Molecular Biology, 103(2), 227-249. -Simulazioni pionieristiche della catalisi enzimatica -DOI: 10.1016/0022-2836(76)90311-9 -Alla base del Nobel 2013
Campi Elettrici e Catalisi Enzimatica
11. Warshel, A., et al. (2006). “Electrostatic basis for enzyme catalysis”. Chemical Reviews, 106(8), 3210-3235. -Review fondamentale sul ruolo dell’elettrostatica -DOI: 10.1021/cr0503106
12. Fried, S.D., Boxer, S.G. (2017). “Electric fields and enzyme catalysis”. Annual Review of Biochemistry, 86, 387-415. -Review moderna e completa sui campi elettrici negli enzimi -DOI: 10.1146/annurev-biochem-061516-044432
13. Boxer, S.G. (2009). “Stark realities”. Journal of Physical Chemistry B, 113(10), 2972-2983. -Spettroscopia Stark per misurare campi elettrici in proteine -DOI: 10.1021/jp8067638
14. Shaik, S., et al. (2010). “Electric-field effects in enzyme catalysis: the case of histone-lysine methyltransferase”. Journal of the American Chemical Society, 132(9), 3210-3220. -Dimostrazione sperimentale dei campi elettrici -DOI: 10.1021/ja909320g Folding Proteico e Termodinamica
15. Levinthal, C. (1969). “How to fold graciously”. Mossbauer Spectroscopy in Biological Systems, 67(41), 22-24. -Il paradosso di Levinthal (articolo seminale)
16. Dill, K.A., Chan, H.S. (1997). “From Levinthal to pathways to funnels”. Nature Structural Biology, 4(1), 10-19. -Modello del funnel energetico -DOI: 10.1038/nsb0197-10
17. Onuchic, J.N., Wolynes, P.G. (2004). “Theory of protein folding”. Current Opinion in Structural Biology, 14(1), 70-75. -Energy landscape theory -DOI: 10.1016/j.sbi.2004.01.009
18. Dill, K.A., MacCallum, J.L. (2012). “The protein-folding problem, 50 years on”. Science, 338(6110), 1042-1046. -Review moderna sul folding -DOI: 10.1126/science.1219021
Proteine di Membrana e Potenziali Elettrici
19. Doyle, D.A., et al. (1998). “The structure of the potassium channel: molecular basis of K+ conduction and selectivity”. Science, 280(5360), 69-77. -Struttura cristallografica del canale del potassio -DOI: 10.1126/science.280.5360.69 - Base per il Nobel a MacKinnon (2003)
20. Long, S.B., Campbell, E.B., MacKinnon, R. (2005). “Crystal structure of a mammalian voltage-dependent Shaker family K+ channel”. Science, 309(5736), 897-903. -Sensore di voltaggio visualizzato -DOI: 10.1126/science.1116269
21. Catterall, W.A. (2010). “Ion channel voltage sensors: structure, function, and pathophysiology”. Neuron, 67(6), 915-928. -Review completa sui canali voltaggio-dipendenti -DOI: 10.1016/j.neuron.2010.08.021 Cooperatività e Allostery
22. Monod, J., Wyman, J., Changeux, J.P. (1965). “On the nature of allosteric transitions: A plausible model”. Journal of Molecular Biology, 12(1), 88-118. -Modello MWC della cooperatività -DOI: 10.1016/S0022-2836(65)80285-6
23. Koshland, D.E., Némethy, G., Filmer, D. (1966). “Comparison of experimental binding data and theoretical models in proteins containing subunits”. Biochemistry, 5(1), 365-385. -Modello KNF (sequenziale) -DOI: 10.1021/bi00865a047
Effetti Quantistici in Biochimica
24. Klinman, J.P., Kohen, A. (2013). “Hydrogen tunneling links protein dynamics to enzyme catalysis”. Annual Review of Biochemistry, 82, 471-496. -Review sul tunneling quantistico negli enzimi -DOI: 10.1146/annurev-biochem-051710-133623
25. Scrutton, N.S., Basran, J., Sutcliffe, M.J. (1999). “New insights into enzyme catalysis: Ground state tunnelling driven by protein dynamics”. European Journal of Biochemistry, 264(3), 666-671. -Tunneling e dinamiche proteiche -DOI: 10.1046/j.1432-1327.1999.00645.x
26. Nagel, Z.D., Klinman, J.P. (2006). “Tunneling and dynamics in enzymatic hydride transfer”. Chemical Reviews, 106(8), 3095-3118. -Review dettagliata sul trasferimento di idruri -DOI: 10.1021/cr050301x
27. Hay, S., Scrutton, N.S. (2012). “Good vibrations in enzyme-catalysed reactions”. Nature Chemistry, 4(3), 161-168. -Vibrazioni e catalisi -DOI: 10.1038/nchem.1223
28. Lambert, N., et al. (2013). “Quantum biology”. Nature Physics, 9(1), 10-18. -Introduzione alla biologia quantistica -DOI: 10.1038/ nphys2474
Esempi Specifici di Enzimi Serina Proteasi
29. Hedstrom, L. (2002). “Serine protease mechanism and specificity”. Chemical Reviews, 102(12), 4501-4524. -Meccanismo della triade catalitica -DOI: 10.1021/cr000033x
30. Blow, D.M., et al. (1969). “Role of a buried acid group in the mechanism of action of chymotrypsin”. Nature, 221, 337-340. -Struttura e meccanismo -DOI: 10.1038/221337a0 Lisozima
31. Phillips, D.C. (1966). “The three-dimensional structure of an enzyme molecule”. Scientific American, 215(5), 78-90. -Primo enzima con struttura nota
32. Blake, C.C., et al. (1965). “Structure of hen egg-white lysozyme: A three-dimensional Fourier synthesis at 2 Å resolution”. Nature, 206, 757-761. -Struttura cristallografica originale -DOI: 10.1038/206757a0 Carbonato Anidrasi
33. Lindskog, S. (1997). “Structure and mechanism of carbonic anhydrase”. Pharmacology & Therapeutics, 74(1), 1-20. -Review sul meccanismo DOI: 10.1016/S0163-7258(96)00198-2
ATP Sintasi
34. Boyer, P.D. (1997). “The ATP synthase—a splendid molecular machine”. Annual Review of Biochemistry, 66(1), 717-749. -Articolo Nobel sul meccanismo rotazionale -DOI: 10.1146/annurev.biochem.66.1.717
35. Abrahams, J.P., et al. (1994). “Structure at 2.8 Å resolution of F1-ATPase from bovine heart mitochondria”. Nature, 370, 621-628. -Struttura cristallografica -DOI: 10.1038/370621a0
36. Noji, H., et al. (1997). “Direct observation of the rotation of F1-ATPase”. Nature, 386, 299-302. -Visualizzazione diretta della rotazione -DOI: 10.1038/386299a0
Misfolding e Malattie
37. Dobson, C.M. (2003). “Protein folding and misfolding”. Nature, 426(6968), 884-890. -Review su folding e patologie -DOI: 10.1038/nature02261
38. Chiti, F., Dobson, C.M. (2006). “Protein misfolding, functional amyloid, and human disease”. Annual Review of Biochemistry, 75, 333366. -Amiloidi e malattie neurodegenerative -DOI: 10.1146/annurev.biochem.75.101304.123901
39. Prusiner, S.B. (1998). “Prions”. Proceedings of the National Academy of Sciences, 95(23),13363-13383. -Articolo Nobel sui prioni -DOI: 10.1073/pnas.95.23.13363
40. Selkoe, D.J. (2003). “Folding proteins in fatal ways”. Nature, 426(6968), 900-904. -Alzheimer e amiloide- -DOI: 10.1038/nature02264
Chaperoni Molecolari
41. Hartl, F.U., Bracher, A., Hayer-Hartl, M. (2011). “Molecular chaperones in protein folding and proteostasis”. Nature, 475(7356), 324-332. -Review completa sui chaperoni -DOI: 10.1038/nature10317
42. Horwich, A.L., Fenton, W.A. (2009). “Chaperonin-mediated protein folding: using a central cavity to kinetically assist polypeptide chain folding”. Quarterly Reviews of Biophysics, 42(2), 83-116. -Meccanismo delle chaperonine
o DOI: 10.1017/S0033583509004764
Dinamica Molecolare e Simulazioni
43. Karplus, M., McCammon, J.A. (2002). “Molecular dynamics simulations of biomolecules”. Nature Structural Biology, 9(9), 646-652. -Introduzione alle simulazioni MD -DOI: 10.1038/nsb0902-646
44. Dror, R.O., et al. (2012). “Biomolecular simulation: a computational microscope for molecular biology”. Annual Review of Biophysics, 41, 429-452. -Simulazioni avanzate di proteine -DOI: 10.1146/annurev-biophys-042910-155245
Libri di Approfondimento Specialistici
45. Fersht, A. (1999). Structure and Mechanism in Protein Science: A Guide to Enzyme Catalysis and Protein Folding. W.H. Freeman. -Il testo più completo su struttura e catalisi
46. Creighton, T.E. (1993). Proteins: Structures and Molecular Properties (2nd ed.). W.H. Freeman. -Trattazione dettagliata della struttura proteica
47. Petsko, G.A., Ringe, D. (2004). Protein Structure and Function. New Science Press. -Approccio strutturale alla funzione
48. Copeland, R.A. (2000). Enzymes: A Practical Introduction to Structure, Mechanism, and Data Analysis (2nd ed.). Wiley-VCH. -Eccellente per cinetica enzimatica
49. Price, N.C., Dwek, R.A., Ratcliffe, R.G., Wormald, M.R. (2001). Principles and Problems in Physical Chemistry for Biochemists (3rd ed.). Oxford University Press. -Fisica applicata alla biochimica
50. Ball, P. (2011). H2O: A Biography of Water. Phoenix. -Ruolo dell’acqua nelle strutture biologiche (divulgativo ma rigoroso)
Risorse Online e Database
51. Protein Data Bank (PDB) - www.rcsb.org -Database di tutte le strutture proteiche note -Visualizzazione 3D interattiva
52. BRENDA - www.brenda-enzymes.org -Database completo di informazioni enzimatiche -Cinetica, specificità, localizzazione
53. UniProt - www.uniprot.org -Database di sequenze e annotazioni proteiche
54. Proteopedia - www.proteopedia.org -Enciclopedia collaborativa 3D delle proteine
Review Recenti e Prospettive Future
55. Henzler-Wildman, K., Kern, D. (2007). “Dynamic personalities of proteins”. Nature, 450(7172), 964-972.-Dinamica e funzione -DOI: 10.1038/nature06522
56. Boehr, D.D., Nussinov, R., Wright, P.E. (2009). “The role of dynamic conformational ensembles in biomolecular recognition”. Nature Chemical Biology, 5(11), 789-796. -Conformazioni multiple e riconoscimento -DOI: 10.1038/nchembio.232
57. Schwartz, S.D., Schramm, V.L. (2009). “Enzymatic transition states and dynamic motion in barrier crossing”. Nature Chemical Biology, 5(8), 551-558. -Stati di transizione e dinamica -DOI: 10.1038/nchembio.202
58. Jimenez, R., Salazar, G., Yin, J., Joo, T., Romesberg, F.E. (2004). “Protein dynamics and the immunological evolution of molecular recognition”. Proceedings of the National Academy of Sciences, 101(11), 3803-3808. -Dinamica ed evoluzione -DOI: 10.1073/pnas.0305745101
Articoli Divulgativi di Alta Qualità
59. Goodsell, D.S. (2009). The Machinery of Life (2nd ed.). Springer. -Illustrazioni bellissime e spiegazioni chiare
60. Carey, J. (2000). “The importance of being proline”. Nature Structural Biology, 7(5), 339-341. -Ruolo speciale della prolina -DOI: 10.1038/75111
L’articolo assegna 3 crediti Ecm per coloro che seguiranno il corso abbinato all’interno dell’area riservata MyBio
MICROBIOTA
E SALUTE MENTALE. RUOLO DEL CORRETTO STILE DI VITA NELLA
MODULAZIONE DELL’ASSE INTESTINO-CERVELLO
di Salvatore Russolillo
asse intestino-cervello rappresenta un complesso sistema bidirezionale di comunicazione tra il tratto gastrointestinale e il sistema nervoso centrale, mediato da fattori neuro-immuno-endocrini e profondamente influenzato dal microbiota intestinale. Negli ultimi anni, numerose evidenze scientifiche hanno dimostrato come l’esercizio fisico e la
sana e corretta nutrizione possano modulare in maniera significativa la composizione e la funzionalità del microbiota, con effetti rilevanti sulla salute mentale, in particolare su condizioni come ansia, depressione e stress cronico.
Questa tesi esplora, attraverso una revisione sistematica della letteratura presente su PubMed, i meccanismi con cui l’attività fisica e i compor -

tamenti nutrizionali – in particolare l’esercizio aerobico regolare, l’allenamento PHA (Peripheral Heart Action) e il modello alimentare mediterraneo – influenzano la diversità e l’abbondanza delle specie microbiche intestinali, promuovendo la produzione di acidi grassi a catena corta (SCFA), neurotrasmettitori (come serotonina e GABA), e fattori neurotrofici (es. BDNF). Questi mediatori giocano un ruolo chiave nella regolazione dell’umore, nella neuroplasticità e nella risposta allo stress, contribuendo al miglioramento del benessere neuropsicologico e sistemico.
L’analisi comparativa tra studi preclinici e clinici ha evidenziato una sinergia tra esercizio e corretto stile di vita nel potenziare la funzione barriera intestinale, ridurre l’infiammazione sistemica e modulare l’attività dell’asse ipotalamo-ipofisi-surrene (HPA). Nonostante i risultati promettenti, emergono ancora lacune nella letteratura, specialmente riguardo a studi longitudinali controllati che combinino interventi dietetico- motori con outcome neuropsicologici. In conclusione, la modulazione dell’asse intestino-cervello attraverso stile di vita attivo e alimentazione sana si conferma una strategia efficace e non farmacologica per supportare la salute mentale e la resilien-
za psicofisica, aprendo nuovi orizzonti nella prevenzione integrata di disturbi neuropsichiatrici.
Negli ultimi anni si è assistito a una crescente attenzione scientifica nei confronti dell’asse intestino-cervello (gut-brain axis), un complesso network bidirezionale che mette in comunicazione il sistema nervoso centrale (SNC) con il tratto gastrointestinale. Questo asse si avvale di un’articolata rete di segnali neuroendocrini, immunitari e metabolici, che vengono influenzati significativamente dalla composizione e funzionalità del microbiota intestinale – l’insieme di trilioni di microrganismi che popolano il nostro intestino (Cryan et al., 2019) –. Oggi sappiamo che il microbiota non solo partecipa ai processi digestivi e immunitari, ma svolge un ruolo cruciale nella modulazione di stati emotivi, cognitivi e comportamentali, grazie alla produzione di neurotrasmettitori (come GABA, dopamina, serotonina), metaboliti (come gli acidi grassi a catena corta, SCFA) e molecole infiammatorie capaci di influenzare direttamente il cervello (Foster C McVey Neufeld, 2013; Clarke et al., 2014). Alterazioni del microbiota – note come disbiosi – sono state associate a un aumento del rischio di sviluppare disturbi
dell’umore, ansia, depressione e patologie neurodegenerative (Kelly et al., 2015). Parallelamente, due fattori modificabili dello stile di vita – l’attività motoria e la sana e corretta nutrizione – si sono rivelati determinanti nella regolazione della composizione microbica intestinale.
Studi recenti hanno dimostrato che l’attività fisica regolare, soprattutto aerobica e di resistenza, può aumentare la diversità batterica intestinale, migliorare la funzione barriera e stimolare la produzione di SCFA benefici (Allen et al., 2018; Mailing et al., 2019). Analogamente, modelli alimentari come il modello mediterraneo, ricco di fibre, polifenoli e acidi grassi insaturi, sono associati a una maggiore presenza di batteri commensali (es. Bifidobacterium, Lactobacillus) e a una riduzione dei marker infiammatori (De Filippis et al., 2016). L’ipotesi sempre più condivisa è che la combinazione sinergica di dieta e movimento rappresenti un approccio terapeutico e preventivo efficace per migliorare la salute mentale attraverso la modulazione dell’asse intestino-cervello. Tuttavia, nonostante le evidenze promettenti, esistono ancora molte lacune nella comprensione dei meccanismi precisi e nella traslazione clinica di questi risultati.

FORMAZIONE ECM PER I BIOLOGI
Scarica il Giornale dei Biologi
dall’area riservata MyBio
Ogni mese riceverai crediti Ecm in autoformazione e Fad