Ogni essere vivente cerca un luogo dove stare. L’uomo cerca qualcosa di più: un luogo dove essere.
Oggi tra gli strumenti che abbiamo per prenderci cura gli uni degli altri c’è l’intelligenza artificiale. Sa analizzare dati, riconoscere bisogni, supportare decisioni. Se ben orientata, può raggiungere chi è più fragile, rendere più efficaci gli interventi di cura, portare i servizi là dove servono davvero.
Ma nessun algoritmo ha mai cambiato una vita. Lo fa una relazione. Lo fa la fiducia. Lo fa la responsabilità che si condivide tra persone. La domanda allora non è se usare queste nuove possibilità. È come farlo senza perdere di vista ciò che conta: la dignità della persona.
Questo numero nasce per riflettere insieme su come innovazione e umanità possano camminare unite - perché il progresso diventa bene comune solo quando resta al servizio di tutti.
Un grazie sincero a chi ha contribuito con competenza e passione a questo confronto.
Buona lettura!
L’altro al tempo delle macchine intelligenti
La cura nell’era degli algoritmi: intelligenza artificiale e dimensione umana
L’intelligenza della cura di Paolo Venturi
Algoritmi e attese di cura di Giovanni Grandi
I limiti della previsione: dati, bias e fiducia di Lorenzo Landolfi
Il pregiudizio invisibile di Emanuele Micheli
L’altro al tempo delle macchine intelligenti
Editoriale di Don Luca Peyron, sacerdote, fondatore del Servizio per l’Apostolato Digitale dell’Arcidiocesi di Torino e membro dell’Istituto Italiano per l’Intelligenza Artificiale applicato all’Industria AI4I
Associato all’Unione Stampa Periodica Italiana
Aosta
Ivrea
Torino
Varese
Vercelli
Sanremo
Genova
Milano
Piacenza
Parma
Cremona
Verona
Vicenza
Trento
Bolzano
Belluno
Treviso
Padova
Venezia
Mantova
Reggio
Emilia
Modena
Bologna
Ravenna
La Spezia
Pistoia
Prato
Firenze
Arezzo
Jesi
Spoleto
Muccia
Viterbo
Anguillara
Civitavecchia
Roma
Alba
Adriatica
Pescara
Anzio
Formia
Caserta
Avellino
Bari
Gravina
Cosenza
Catanzaro
Messina
Reggio
Calabria
Catania
Cagliari
Prendersi cura di qualcuno implica, in prima istanza, l’accettazione di una relazione strutturalmente segnata dall’attrito. La cura nasce infatti dall’incontro con un bisogno, una mancanza o una fragilità che il soggetto non è in grado di fronteggiare autonomamente. Essa comporta l’ingresso in una dinamica relazionale attraversata da lentezza, vulnerabilità e talora inadeguatezza, elementi che ostacolano il conseguimento di obiettivi attesi o socialmente ritenuti necessari. In termini sociologici, la cura si colloca in uno spazio di tensione tra aspettative normative di efficienza e condizioni concrete di fragilità umana. In tale quadro, l’intelligenza artificiale – soprattutto nelle sue configurazioni generativa e agentica – si presenta come un dispositivo tecnologico capace di intervenire proprio nei punti di maggiore attrito. Essa è progettata per elaborare informazioni, organizzare dati, produrre risposte, ripetere compiti senza affaticamento, correlare grandi moli di contenuti con rapidità e ampiezza
superiori a quelle umane. Dal punto di vista funzionale, può dunque rappresentare un alleato significativo nei processi organizzativi e informativi connessi ai contesti di cura. Tuttavia, la differenza qualitativa rispetto all’agire umano è radicale: la macchina opera senza coscienza, intenzionalità morale e responsabilità valoriale. Essa non possiede consapevolezza delle conseguenze delle proprie azioni né è capace di attribuire senso al proprio operare. Può simulare pratiche di assistenza, ma non esperisce il significato del prendersi cura. Qui si colloca il nodo critico dell’integrazione dell’intelligenza artificiale nei contesti di cura: il rischio di confondere l’efficacia procedurale con la qualità relazionale. Pur riconoscendo l’esistenza di ulteriori questioni – bias algoritmici, gestione dei dati, concentrazione di potere – il punto centrale resta la natura della relazione di cura. Essa non è semplicemente un rapporto asimmetrico tra chi offre e chi riceve, bensì un incontro ontologicamente simmetrico tra persone,
Impaginazione grafica e stampa
Don Luca Peyron, Francesca Rossi, Paolo Venturi, Giovanni Grandi, Lorenzo Landolfi, Emanuele Micheli
ciascuna portatrice di una propria fragilità situata nel tempo e nello spazio. La cura autentica non si esaurisce nella soddisfazione di un bisogno, ma tende alla costituzione di un “noi”, ossia alla co-costruzione di un legame che umanizza entrambi i soggetti coinvolti. In psicologia e in antropologia tale processo è definito riconoscimento: diventiamo più pienamente umani nella misura in cui siamo visti e riconosciuti dall’altro come soggetti. Questo dinamismo non può essere sostituito da una macchina. L’intelligenza artificiale può riprodurne alcuni tratti formali e l’essere umano può percepirne la simulazione come sufficiente, ma la mimesi non genera automaticamente reciprocità né produce autentica trasformazione o crescita relazionale. Ciò non implica che i processi di cura debbano essere inefficienti o lenti; efficienza ed efficacia sono elemento desiderabili e legittimi, purché restino subordinati al fine primario: la relazione tra persone. Questo criterio orienta un discernimento concreto sull’uso dell’intelligenza artificiale: in quali fasi del processo è opportuno introdurla? Nella raccolta di informazioni può sostituire l’interazione diretta? La condivisione delle fragilità deve avvenire tramite un algoritmo o attraverso un ascolto umano? Le evidenze empiriche mostrano scenari complessi. Un recente studio di Save the Children segnala che circa la metà degli adolescenti italiani dichiara una fragilità psicologica e che una quota significativa ricorre a sistemi generativi di intelligenza artificiale per ricevere consigli affettivi o sociali. La preferenza per l’interazione algoritmica, percepita come non giudicante e meno imbarazzante, sollecita
un interrogativo critico: quali carenze relazionali del contesto sociale spingono verso tale scelta?
L’introduzione di sistemi di intelligenza artificiale nella nostra esistenza, nella società, ovunque, deve essere uno stimolo alla riflessione non solo sulle macchine, ma anche su di noi. In altri termini se è utile e necessario capire cosa esse fanno e come, è altrettanto utile, anzi necessario, capire cosa noi diventiamo usandole. Cosa cambia nel nostro modo di stare insieme o non stare più insieme, potendo delegare molte funzioni - anche antropologicamente significative - alle macchine.
La possibile introduzione di sistemi algoritmici negli ambienti e nei contesti di cura è una occasione preziosa per ripensare tali contesti uscendo da una mentalità efficientista per rientrare in una mentalità più umanisticamente significativa. La macchina è in grado di potenziare la nostra efficienza. Usiamo di questo potenziale per ritornare a considerare e valorizzare la nostra umanissima fragilità. La fatica dello stare e dello starci, il valore inestimabile dell’attrito dovuto al dover comprendere e considerare, amare e perdonare. È importante che i beneficiari della cura vedano risolti i loro problemi tanto quanto vedano incontrata la propria umanità, per quanto possa essere sporca, corrotta, variamente frantumata. I principi costituzionali di solidarietà, sussidiarietà ed il principio del bene comune hanno tutti un medesimo fine anche se declinato i vari modi: la creazione di una comunità di persone. Cioè di umani che serenamente vivono insieme. Questo passa certamente da giustizia ed equità, che in qualche modo il processo di cura ripristina, ma ancora di più passa dal desiderio di essere insieme, di stare insieme, di condividere insieme. Frutti, tutti, di quel processo di umanizzazione ove ciascuno riconosce il volto dell’altro come il proprio, come comune retaggio dell’essere umani qui ed ora. Se è importante, dunque, una riflessione pratica e concreta sul come e dove inserire l’intelligenza artificiale nei nostri ambienti, ancora più importante è riprendere in mano la più grande delle questioni: non il come facciamo le cose, ma per chi desideriamo mettere mano alla realtà. Alleati con la macchina, ma in comunione con i nostri simili.
La cura nell’era degli algoritmi: intelligenza artificiale e dimensione umana
di Francesca Rossi, IBM Research
Sempre più spesso, decisioni che riguardano la vita delle persone vengono supportate, o influenzate, da un algoritmo.
Negli ultimi anni mi è capitato spesso, nel mio lavoro sull’etica e la governance dell’intelligenza artificiale, di partecipare a discussioni su come gli algoritmi possano essere utilizzati per prendere decisioni sempre più importanti: concedere un prestito, supportare una diagnosi medica, orientare politiche pubbliche o servizi sociali. In molti di questi contesti la promessa è la stessa: usare i dati e l’intelligenza artificiale per prendere decisioni più rapide, più informate e anche più eque. Ma ogni volta che la conversazione si sposta
verso ambiti che riguardano direttamente la vita delle persone - la salute, la vulnerabilità sociale, l’accesso a servizi essenziali - emerge una domanda più profonda: che cosa significa introdurre algoritmi nei luoghi della cura?
Quando pensiamo agli algoritmi immaginiamo modelli matematici e sistemi informatici capaci di analizzare grandi quantità di dati. Quando pensiamo alla cura, invece, pensiamo a cose molto diverse: ascolto, relazione, empatia, attenzione alla storia di una persona. Eppure, oggi questi due mondi si stanno incontrando sempre più spesso. Nei servizi sanitari, sociali e assistenziali, sistemi di intelligenza artificiale vengono
utilizzati per individuare situazioni di fragilità, prevedere bisogni emergenti, orientare l’allocazione delle risorse o supportare il lavoro degli operatori. Strumenti di questo tipo promettono maggiore efficienza e la possibilità di comprendere meglio fenomeni complessi attraverso l’analisi di grandi quantità di informazioni. Ma proprio per questo pongono anche nuove domande etiche, perché la cura non è soltanto un problema di ottimizzazione, ma piuttosto e soprattutto una relazione umana, che include l’attenzione al contesto, alla storia di una persona, alla sua vulnerabilità e anche alla sua dignità.
Uno dei rischi più discussi riguarda i bias algoritmici, cioè il fatto che i sistemi di intelligenza artificiale possono replicare e talvolta amplificare disuguaglianze già presenti nei dati su cui vengono addestrati. Se i dati riflettono disparità sociali o accessi diseguali ai servizi, l’algoritmo rischia di trasformare queste distorsioni in decisioni apparentemente oggettive. In altre parole, un algoritmo può sembrare neutrale ma in realtà può riprodurre ingiustizie già esistenti.
Nel mio lavoro di ricerca sull’intelligenza artificiale ho spesso visto quanto sia forte la tentazione di considerare gli algoritmi come strumenti neutrali. Se i dati sono molti e i modelli sofisticati, si pensa che le
decisioni possano diventare automaticamente più oggettive. Con il tempo ho imparato che non è così semplice. Gli algoritmi riflettono sempre le scelte fatte da chi li progetta: quali dati usare, quali obiettivi ottimizzare, quali e quanti errori considerare accettabili. Proprio per questo, quando l’intelligenza artificiale entra in ambiti come la salute o il lavoro sociale, la domanda non è soltanto tecnica, ma anche e soprattutto umana: quali valori vogliamo incorporare nelle tecnologie che usiamo per prendere decisioni che riguardano la vita delle persone?
Ma fermarsi ai rischi sarebbe riduttivo: se progettata e governata con attenzione, l’intelligenza artificiale può diventare uno strumento prezioso per rafforzare la capacità di cura delle istituzioni. Può aiutare a individuare bisogni emergenti, coordinare servizi complessi e rendere più accessibili informazioni e percorsi di assistenza. Può anche ridurre il peso di attività amministrative ripetitive, liberando tempo per ciò che è al centro del lavoro di cura: l’ascolto delle persone, la relazione e il giudizio professionale. La vera questione, quindi, non è se usare o meno l’intelligenza artificiale nei servizi sociali, ma come usarla.
Un principio fondamentale è che gli algoritmi devono rimanere strumenti di supporto, non sostituti delle
decisioni o del giudizio umano. Le decisioni che riguardano la vita delle persone devono restare responsabilità di operatori e istituzioni, che possono utilizzare la tecnologia come fonte di informazione ma non delegarle l’ultima parola.
Questo richiede anche nuove competenze. Gli operatori sociali, i decisori pubblici e le organizzazioni del terzo settore devono poter comprendere come funzionano questi sistemi, che abilità hanno, quali dati utilizzano e quali limiti hanno. Allo stesso tempo, chi progetta sistemi di intelligenza artificiale deve imparare a confrontarsi con la complessità del lavoro sociale, dove entrano in gioco empatia, responsabilità e capacità di interpretare situazioni spesso ambigue. Gli algoritmi possono analizzare dati, individuare correlazioni, suggerire possibili decisioni. Ma la cura richiede qualcosa che nessun sistema automatico può davvero replicare: la capacità di riconoscere l’unicità di una persona e di assumersi la responsabilità di una scelta.
Per questo la vera sfida dell’intelligenza artificiale
nei servizi alla persona non è costruire macchine che decidano al posto nostro, ma sviluppare e usare tecnologie che rafforzino la nostra capacità di prenderci cura gli uni degli altri.
In fondo, lo scopo di qualunque tecnologia è supportare e migliorare il progresso umano. Questo progresso non sarà misurato dall’intelligenza degli algoritmi che useremo, ma dall’umanità delle decisioni che sapremo prendere.
L’intelligenza della cura
di Paolo Venturi, AICCON – Università di Bologna
Nel panorama contemporaneo, il dibattito sull’intelligenza artificiale rischia di restare intrappolato tra due narrazioni opposte e ugualmente parziali: il catastrofismo tecnofobico e un entusiasmo acritico mascherato dalla retorica dell’”AI for social good”. Quest’ultima dipinge l’algoritmo come una panacea capace di ottimizzare il welfare, anticipare i bisogni delle persone fragili e democratizzare l’accesso ai servizi. Tuttavia, guardando al fenomeno attraverso le lenti dell’economia civile, emerge una realtà più complessa e ricca di potenziale inespresso. La sfida che ci attende non è meramente tecnica, ma culturale e istituzionale: dobbiamo transitare dal concetto di “AI for Social”, spesso ridotto a operazione di marketing o a una correzione etica applicata ex-post, verso una vera “AI for Social Economy” dell’intelligenza artificiale, capace di generare valore distribuito e non concentrato.
Questa transizione richiede, anzitutto, di interrogarsi
onestamente sui costi sistemici che l’AI comporta.
Parlare di tecnologia al servizio del bene senza considerare le infrastrutture materiali, il consumo idrico ed energetico dei data center o le filiere globali di approvvigionamento significa svuotare il concetto stesso di bene comune. L’ottimizzazione di un servizio sociale non può dirsi civile se accresce la concentrazione del potere cognitivo o scarica i costi ambientali sulle generazioni future. La neutralità tecnica è un’illusione: ogni algoritmo incorpora una visione del mondo. Ma questa consapevolezza non deve portarci al rifiuto della tecnologia, bensì alla sua rivendicazione come spazio di scelta politica e progetto collettivo.
Il punto più delicato di questa dinamica riguarda la governance del dato. Non si tratta solo di evitare discriminazioni o bias algoritmici, errori reali e documentati, ma di costruire un’architettura in cui il dato sia trattato come bene relazionale e non come materia
prima estrattiva. Il dato prodotto da una comunità dovrebbe, almeno in parte, tornare a quella comunità sotto forma di conoscenza, servizi migliorati, capacità decisionale aumentata. Quando questo ciclo virtuoso si spezza, e il dato viene aggregato e valorizzato altrove senza che le comunità di origine ne traggano beneficio, si crea un’asimmetria che mina la fiducia e, in ultima analisi, la qualità stessa dei sistemi. Governare il dato significa dunque non solo proteggerlo, ma orientarne intenzionalmente la destinazione verso finalità di interesse collettivo.
Questa riflessione ci porta a distinguere tra due usi radicalmente diversi dell’intelligenza artificiale: quello che chiude lo spazio della scelta e quello che lo apre.
Nel primo caso, l’algoritmo perimetra il campo del decidibile, rendendo certe opzioni “inefficienti” e trasformando la scelta politica in una mera esecuzione tecnica. Nel secondo - ed è qui che risiede il potenziale più autentico dell’AI civile, la tecnologia restituisce mappe più ricche, rende pubbliche complessità nascoste e abilita conversazioni che altrimenti non avrebbero i dati per avvenire. La differenza non sta nel software, ma nell’intenzionalità con cui viene progettato e governato. Le buone pratiche esistono, e meritano di essere al centro del racconto. IDinsight,
organizzazione internazionale di data science applicata allo sviluppo, utilizza il machine learning per migliorare l’allocazione delle risorse in contesti di estrema povertà, collaborando con governi e comunità locali affinché le politiche pubbliche siano guidate da evidenze rigorose ma interpretate e validate localmente. L’algoritmo non produce un verdetto: genera scenari probabilistici che vengono discussi con le comunità coinvolte, mantenendo centrale la responsabilità umana e la conoscenza situata. È un modello in cui la potenza computazionale non sostituisce il giudizio, ma lo nutre.
Altrettanto significativo è il caso di AlphaFold di DeepMind, che ha reso pubblicamente disponibile un database sulla struttura delle proteine, accelerando la ricerca su malattie rare in laboratori di tutto il mondo, inclusi quelli con risorse limitate. O le esperienze di prevenzione precoce dell’abbandono scolastico in alcune regioni europee, dove modelli predittivialimentati da dati anonimi e aggregati - consentono alle scuole di attivare supporti personalizzati prima che il disagio diventi irreversibile. O ancora le piattaforme di modellazione climatica che permettono alle amministrazioni locali di pianificare politiche di resilienza urbana con un livello di dettaglio e anticipazione prima impensabile. In tutti questi casi, l’AI
non risponde al posto delle istituzioni: le mette nelle condizioni di rispondere meglio. E lo fa perché alla base c’è un’intenzionalità esplicita - chi ha progettato il sistema si è chiesto non solo “cosa è tecnicamente possibile?” ma “a chi serve questo strumento, chi ne governa l’uso, come si garantisce che i benefici siano distribuiti?”. Sono domande di governance prima ancora che di ingegneria. Proprio per questo, la vera emergenza è educativa e istituzionale insieme. La formazione degli operatori, dei decisori pubblici e degli stessi progettisti non può esaurirsi nelle competenze digitali: deve includere la capacità critica di leggere un output algoritmico senza accettarlo come verdetto, di negoziare i parametri di un sistema con le comunità che quel sistema andrà a toccare, di costruire processi partecipativi attorno ai dati. Un’AI inclusiva non nasce da un codice ben scritto, ma da una comunità ben organizzata attorno a intenzioni condivise.
In questo scenario, tutto il mondo della società civile organizzata e dell’Economia Sociale hanno un ruolo che non possono delegare. Non si tratta di applicare palliativi etici a tecnologie nate altrove, ma
di entrare da protagonisti nella definizione di cosa sia desiderabile: quali dati raccogliere, per quale scopo, con quale governance, con quali garanzie di restituzione alle comunità. L’economia civile ha gli strumenti relazionali e la vocazione alla cura per fare questa parte, a patto di uscire da un senso di impotenza verso temi percepiti come troppo tecnici o globali. Scegliere quale intelligenza artificiale vogliamo significa scegliere quale mondo vogliamo abitare. L’AI non deve sostituire la nostra capacità di giudizio, ma potenziarla. Non deve ridurre le persone a profili, ma rendere i profili capaci di raccogliere la complessità delle persone. L’Italia e l’Europa, con la loro tradizione di umanesimo, mutualismo e welfare di comunità, hanno la responsabilità storica di dimostrare che un modello diverso è possibile: una tecnologia che non estrae valore dalle comunità, ma lo genera insieme a loro, sostenendo la libertà di pensare, scegliere e prendersi cura del bene comune. Il futuro dell’intelligenza della cura non è scritto in un codice. È scritto nella nostra volontà di governarlo.
Algoritmi e attese di cura
di
Giovanni Grandi, Professore ordinario di Filosofia morale all’Università degli Studi di Trieste
Note bibliografiche
Jumaan, A. et al. / DeepMind (2021–2024). AlphaFold: Highly accurate protein structure prediction for the human proteome. Nature.
Ostrom, E. (1990). Governing the Commons: The Evolution of Institutions for Collective Action. Cambridge University Press.
Venturi, P. (2026). Intenzionalità e innovazione trasformativa. Quaderni dell’Economia Civile, n. 14. AICCON, Forlì. https:// www.aiccon.it/pubblicazione/intenzionalita-e-innovazionetrasformativa/
Venturi, P. (2026). Un’AI per potenziare il giudizio umano, anziché limitare le scelte. AICCON, gennaio 2026. https://www. aiccon.it/unai-per-potenziare-il-giudizio-umano-anzichelimitare-le-scelte/
Venturi, P., Maiolini, R. (2023). Digitale ed economia sociale: come ridisegnare nuove catene del valore? AICCON. https:// www.aiccon.it/digitale-ed-economia-sociale-ridisegnarenuove-catene-del-valore/
Venturi, P. (2020). Neo-mutualismo tra sociale e digitale. AICCON / Il Sole 24 Ore. https://www.aiccon.it/neomutualismo-sociale-digitale/
Venturi, P., De Benedictis, L., Miccolis, S., Zamagni, S. (2023). La prospettiva civile dell’impatto sociale. AICCON. https://www. aiccon.it/pubblicazione/la-prospettiva-civile-impatto-sociale/ Zuboff, S. (2019). Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri. Luiss University Press, Roma
Fin dall’antichità l’antropologia ha osservato che le decisioni che prendiamo ogni giorno non trasformano solo la realtà che ci circonda, ma anche noi stessi. Già Aristotele riteneva importante maturare quella virtù che chiamava phronesis, saggezza – i latini la chiameranno “prudenza” – e che risultava abilitante a compiere in ogni situazione la scelta migliore, mantenendo quindi in primo piano l’impatto che l’agire avrebbe avuto sul contesto sociale e sulla propria stessa personalità e dignità. Accanto a questa virtù, fin dagli esordi, ne troviamo una seconda, considerata gemella: la techne, ars per i latini. Eseguire un lavoro a regola d’arte significava accertarsi che il risultato prodotto – generalmente la trasformazione di realtà diverse appunto dalle relazioni e dal sé –, fosse ben fatto, fosse realizzato al meglio delle possibilità offerte dalle tecniche e dalle tecnologie a disposizione.
In una medesima azione si intrecciano dunque già per gli antichi più livelli di impatto.
In questo senso, servirsi di uno strumento per
raggiungere un certo scopo è un gesto che trasforma la realtà che abbiamo dinanzi, ma allo stesso tempo anche il nostro stesso modo di accostarci alle situazioni e alle cose, di percepirle, di immaginarne le evoluzioni, di organizzare l’esistenza: se allora è vero che siamo pur sempre noi esseri umani a sviluppare la tecnologia, è vero, allo stesso tempo, che le tecnologie ci cambiano.
Alcuni esempi ce lo attestano con facilità: l’avvento della posta elettronica e poi quello della messaggistica via chat ha semplificato e velocizzato le nostre comunicazioni, specie quelle lavorative. Ma ha modificato profondamente le nostre interazioni: ci attendiamo riscontri sempre più immediati, ci confrontiamo meno di persona, perde valore la “parola” mentre solo la “scrittura” ci pare affidabile e si modificano così i rapporti ordinari di fiducia. Lo sviluppo dei social media, a partire dal 2014, ha ampliato le nostre possibilità di connessione remota, ha creato un “pubblico” su misura per ciascuno, ha consentito in alcuni contesti una riorganizzazione
politica “dal basso” – pensiamo alla cosiddetta “primavera araba” –, ha spezzato molte solitudini. Ma progressivamente, con l’affermarsi della natura commerciale di molte piattaforme, gli algoritmi sono stati sempre più programmati per trattenere le persone online, per “monetizzare” la loro permanenza ed esposizione ai messaggi pubblicitari, dando perciò più volume a quel che eccita, che incuriosisce, che insospettisce; fenomeni come la polarizzazione delle opinioni, la diffusione di fake news, la manipolazione delle informazioni stanno ora cambiando il volto delle nostre società, crescono rabbia, aggressività, diffidenza e conflitti, la divisione corrode solidarietà una volta date per scontate.
L’avvento dell’intelligenza artificiale (AI) aggiunge un nuovo capitolo a questa storia accelerata della tecnologia dell’informazione, promettendo – fin dal nome – di offrirci un partner che ci somiglia, dedicato ad assisterci proprio in funzioni che sono state per secoli appannaggio dell’essere umano: leggere e interpretare dati, formulare previsioni, stimare vantaggi e svantaggi. Dal punto di vista tecnico le diverse risorse di AI non rappresentano però una novità radicale: da tempo sono disponibili sistemi informatici programmati per svolgere sofisticati compiti di diagnostica, in ambito industriale ma anche in ambito medico, e si tratta di strumenti di indubbia utilità. La novità, che sta introducendo nuove
mutazioni, è la possibilità di interagire con le macchine attraverso il linguaggio naturale, cosa che ha reso questi servizi accessibili a tutti e per gli scopi più vari.
Ma cosa significa interagire con un partner digitale potendogli rivolgere domande formulate allo stesso modo che per un partner umano?
È un interrogativo che va al di là della questione della effettiva correttezza delle risposte che si possono ottenere, per quanto anche questo sia un tema cruciale per i ricercatori, che esaminano le cosiddette “allucinazioni” degli algoritmi, i “bias” che ne condizionano le risposte predittive, i problemi correlati alle metriche utilizzate e alla trasparenza dei processi di elaborazione dei dati.
L’interrogativo ci riporta al 1950, quando Alain Turing propose il noto “test” omonimo, suggerendo di accettare di riconoscere come “intelligente” una macchina che fosse stata in grado di interagire con le domande di un essere umano, senza che questi potesse più discernere se il suo interlocutore fosse una persona o un sistema artificiale. Oggi questo “test” è in effetti ampiamente superato, ma la cosa interessante è che il “gioco di imitazione” (imitation game) non è più da svelare – come nell’ipotesi di Turing –, ma svelato e soprattutto, sempre più spesso, preferito all’originale.
Quando consultiamo una risorsa di IA sappiamo
benissimo che non stiamo chattando con una persona. Eppure, nel contesto comunicativo tratteggiato poco prima, le persone iniziano a preferire questo interlocutore digitale all’interlocutore umano: è gentile, garbato, accondiscendente, validante, immediatamente a disposizione. Indipendentemente dalla qualità in sé delle risposte che ci offre, riproduce i modi che tutti vorremmo trovare nelle persone con cui conversiamo, che interpelliamo per una informazione, che ci offrono un servizio. Che ci aspettiamo si prendano cura di noi.
È un paradosso interessante: programmiamo le macchine affinché ci restituiscano modalità di interazione contraddistinte da ascolto, attenzione dedicata, pazienza, carezze verbali, tutti tratti che proprio l’avvento delle macchine – specialmente nell’ambito della comunicazione – ha progressivamente reso più rari negli esseri umani: accelerazione, attese di velocità, di prestazioni, di eccellenza, ci rendono infatti affrettati, sbrigativi, irritabili, ansiosi e aggressivi.
Le macchine basate sui Large Language Model (LLM) sono oggi non solo dei sistemi largamente accessibili, ma – nei modi delle interazioni programmate – una imitazione non tanto di quel che siamo, quanto proprio di quel che vorremmo trovare di fronte a noi. Rispecchiano, in altri termini, un bisogno diffuso di cura, di attenzione dedicata, di dedizione. Lo rispecchiano e
lo rilanciano, in fondo facendoci prendere coscienza di quanto la cura sia centrale nell’esperienza umana. Educarsi e educare alla cura, rispondere umanamente e non artificialmente alla domanda di cura, richiede però anzitutto il riconoscimento che gli esseri umani non beneficiano dell’instancabilità delle macchine, e che un ambiente di vita accelerato nei processi e sovraccaricato nelle attese di perfezione è il primo avversario della cura stessa.
Agire culturalmente sui tempi e sui ritmi di vita, non accettare inconsapevolmente di farli riscrivere dalle stesse macchine di cui (utilmente) ci serviamo, è forse una delle avvertenze più importanti nel contesto delle trasformazioni che stiamo introducendo e ci stanno a loro volta trasformando.
I limiti della previsione: dati, bias e fiducia
di
Lorenzo Landolfi, ricercatore post-dottorato – Unità U-VIP, persone con disabilità visiva, Istituto Italiano di Tecnologia (IIT)
sembrano incollati al pavimento, il corpo vuole andare avanti ma le gambe non rispondono. Bastano pochi secondi per far cadere una persona. La domanda che diversi gruppi di ricerca si stanno ponendo - e su cui lavoriamo anche noi - è: si può prevedere quando sta per succedere?
L’intuizione è che il congelamento non arriva senza preavviso. Prima che i piedi si fermino, il corpo manda segnali: il ritmo del passo diventa asimmetrico, le oscillazioni del tronco cambiano frequenza, la lunghezza del passo si accorcia. Questi cambiamenti avvengono qualche secondo prima dell’episodio e l’occhio umano quasi non li coglie: si raccolgono quindi dati da sensori indossabili, si identificano retrospettivamente gli episodi di freezing, si addestra un modello a riconoscere i pattern che li precedono. I risultati più recenti sono incoraggianti - alcuni sistemi anticipano il freezing con un margine di uno o due secondi, sufficiente per attivare un feedback ritmico che sblocchi il paziente: una vibrazione, un segnale sonoro cadenzato, una luce pulsante sul pavimento. È un fenomeno noto in clinica - i pazienti parkinsoniani rispondono bene alla stimolazione ritmica - e la tecnologia cerca di sfruttarlo in modo automatico e tempestivo.
La sfida più seria non è però l’algoritmo in sé: è la
generalizzazione. Un modello addestrato su cento pazienti in un centro di eccellenza funziona bene su quei cento pazienti, meno bene su tutti gli altri. Se i dati di addestramento provengono prevalentemente da una certa popolazione, il modello impara i pattern di quella popolazione e fatica sulle altre - è il cosiddetto bias di dataset, probabilmente uno dei limiti più seri dell’Intelligenza artificiale. Le strategie per attenuarlo esistono, ma la soluzione strutturale rimane una: raccogliere dati più rappresentativi, il che richiede tempo e collaborazioni che in molti contesti ancora mancano.
Un altro fronte su cui lavoriamo riguarda la lingua dei segni italiana - la LIS. La LIS non è l’italiano tradotto in gesti. È una lingua naturale completa, con una grammatica propria, che usa lo spazio tridimensionale davanti al corpo come strumento morfologico e sintattico. La posizione delle mani, le espressioni facciali, la direzione dello sguardo - tutto contribuisce al significato in modo sistematico. Un’espressione facciale che in italiano segnalerebbe un’emozione, in LIS può essere il marcatore grammaticale che trasforma un’affermazione in una domanda.
I sistemi automatici di riconoscimento devono affrontare questa complessità a più livelli: prima isolare
In questo testo vorrei raccontare due delle sfide su cui lavoriamo direttamente e poi allargare lo sguardo a una questione più generale che riguarda tutto il settore: cosa succede quando i modelli predittivi iniziano a operare su grandi masse di dati clinici. Ho qualche osservazione che mi sembra valga la pena condividere.
Chi ha visto camminare una persona con il Parkinson in una fase avanzata conosce il freezing of gait: quei momenti improvvisi in cui il passo si blocca, i piedi
Lavoro nella Unit for Visually Impaired People (U-VIP) dell’Istituto Italiano di Tecnologia di Genova, diretta da Monica Gori, un gruppo che si occupa di percezione e disabilità sensoriale. Sono informatico di formazione, con un dottorato in sistemi percettivi. Non sono un medico, non sono un esperto di politiche sanitarie. Sono qualcuno che passa le giornate a costruire esperimenti, analizzare dati, cercare di capire come funziona il sistema percettivo umano quando deve fare i conti con il mondo. Da questa posizione abbastanza ordinaria, negli ultimi anni ho assistito a una trasformazione che vale la pena raccontare: gli strumenti che usiamo per studiare il movimento, la percezione, la comunicazione stanno diventando abbastanza potenti da uscire dal laboratorio ed entrare nella vita delle persone. Non senza complicazioni.
mani e volto del segnante dallo sfondo, poi riconoscere i segni isolati, infine - la parte più difficile - interpretare frasi continue in cui le relazioni grammaticali vengono codificate nello spazio. I modelli attuali se la cavano discretamente sui primi due livelli, in condizioni controllate. Sul terzo faticano ancora, anche perché i dataset annotati di LIS sono piccoli rispetto a quelli disponibili per le lingue vocali: creare annotazioni accurate richiede la collaborazione di segnanti nativi, linguisti e informatici, ed è un lavoro lento. Il risultato è che la distanza tra ciò che i paper descrivono e ciò che funziona in una conversazione spontanea reale è ancora considerevole.
Separato dal lavoro del nostro laboratorio, ma connesso alle stesse domande, c’è un filone di ricerca più ampio che riguarda l’uso di grandi dataset clinici per prevedere eventi avversi. L’idea è che molte condizioni critiche non compaiono all’improvviso: si preannunciano con segnali sottili, distribuiti nel tempo, che nessun medico riesce a tenere in mente per tutti i suoi pazienti simultaneamente. Un modello addestrato su centomila traiettorie di malattia può imparare a riconoscere le configurazioni che tipicamente precedono uno scompenso cardiaco o una crisi renale, e segnalarle con giorni di anticipo.
Le sfide tecniche sono considerevoli. Le cartelle cliniche reali sono piene di buchi - gli esami vengono fatti solo quando il medico li ritiene necessari - e questa non-
casualità dei dati mancanti complica l’addestramento. C’è poi il problema dell’interpretabilità: un sistema che segnala un rischio elevato è clinicamente utile solo se riesce a spiegare su quali elementi si basa. I medici non si fidano di scatole nere, e i regolatori europei stanno iniziando a richiederlo esplicitamente. Gli strumenti per rendere i modelli interpretabili esistono, ma spiegare perché un modello ha fatto una previsione su un singolo paziente non è la stessa cosa che capire davvero come funziona il modello in generale - una distinzione che spesso si perde nel dibattito pubblico.
Il quadro complessivo è promettente ma più complicato di come viene spesso presentato. Le tecnologie funzionano - alcune già oggi, altre in un orizzonte vicino. Ma tra “funziona in laboratorio” e “funziona per tutti” c’è ancora una distanza reale, che si misura in dataset più rappresentativi da costruire, in sistemi da validare su popolazioni diverse, in infrastrutture da adattare. Non sono ostacoli insormontabili - sono il lavoro che resta da fare.
C’è però una condizione trasversale a tutto questo: questi sistemi funzionano perché le persone ci prestano dati molto precisi su come si muovono, come comunicano, come si ammalano. Senza quella fiducia non c’è partecipazione, senza partecipazione non ci sono dati, senza dati i sistemi non funzionano. Trattare quella fiducia con cura non è solo un obbligo etico - è un presupposto pratico.
Il pregiudizio invisibile
di Emanuele Micheli, Presidente di Scuola di Robotica e Spock srl.
C’è un gioco online che dovreste provare. Si chiama Survival of the Best Fit e dura sei minuti. Sei minuti in cui vi troverete a fare esattamente quello che fate ogni giorno senza pensarci troppo: giudicare le persone. Il meccanismo è semplice. Siete i fondatori di una startup in crescita. Dovete assumere personale. Vi arrivano i curriculum, uno dopo l’altro, e voi decidete: sì o no, dentro o fuori, pollice su o pollice giù. All’inizio vi sentite bene: valutate le competenze, leggete le esperienze, cercate di essere giusti. Poi il ritmo accelera, i profili si accumulano, e senza accorgervene cominciate a usare scorciatoie, inconsce. E non volontarie. Dettagli che non c’entrano nulla con la capacità di quella persona, ma che il vostro cervello ha deciso essere rilevanti. E qui succede la cosa interessante: il gioco vi chiede di delegare le assunzioni a un algoritmo. Un’intelligenza artificiale che imparerà dai vostri criteri - che voi reputate giusti e senza pregiudizi - e li applicherà su scala industriale. In automatico. Senza mai fermarsi a chiedersi se ha senso.
Fine del gioco. Inizio della riflessione.
La colazione dei pregiudizi
Nel film The Breakfast Club di John Hughes ci sono cinque studenti che scoprono di non essere le etichette che il liceo ha appiccicato loro addosso. Andrew Clark non è solo “il sportivo”. Allison Reynolds non è solo “la strana”. Ma il preside Vernon, che rappresenta il sistema, non riesce a vederli per quello che sono. Li vede attraverso un filtro - un bias, diremmo oggiche li riduce a stereotipi funzionali. Il punto è questo: Vernon non è cattivo. Non sta cercando di fare del male a quei ragazzi. Semplicemente, non ha abbastanza informazioni, non ha il tempo di raccoglierle e non ha la consapevolezza che il suo giudizio è parziale. Esattamente come succede a noi quando giochiamo a Survival of the Best Fit. Esattamente come succede a un algoritmo quando viene addestrato su dati incompleti.
Il bias che nasce nel silenzio
Parliamo spesso di pregiudizio algoritmico come se fosse una questione tecnica, un bug da risolvere, una riga di codice scritta male. Ma la verità è più scomoda
e più umana: i bias dell’intelligenza artificiale nascono quasi sempre senza che nessuno li abbia voluti. Nascono dal silenzio di ciò che non sappiamo, dalla parzialità di ciò che vediamo, dall’inerzia di ciò che abbiamo sempre fatto.
Il caso più celebre è quello di Amazon. Nei primi anni del 2000 un team di ingegneri della compagnia di Seattle mise a punto un sistema di intelligenza artificiale per automatizzare la selezione del personale. L’idea era brillante nella sua semplicità: addestrare l’algoritmo sui curriculum ricevuti nei dieci anni precedenti, identificare i pattern dei candidati che erano stati assunti con successo, e applicare quei pattern ai nuovi profili. Efficienza pura. Nessuna intenzione discriminatoria. Eppure, il sistema imparò rapidamente a penalizzare i curriculum che contenevano la parola “women’s” - come in “women’s chess club” - e a declassare le laureate di college femminili. Perché? Perché nella storia decennale di Amazon, come nella maggior parte delle aziende tech, la forza lavoro era prevalentemente maschile. L’algoritmo non aveva “deciso” di essere sessista. Aveva semplicemente osservato il mondo così com’era e lo aveva codificato come il mondo così come doveva essere.
Amazon abbandonò il progetto. Ma quanti altri sistemi simili sono ancora attivi, in aziende che non hanno né la visibilità né la sensibilità per accorgersene?
Quando il dato mente senza saperlo Il fenomeno non si limita al mondo del lavoro. Nel sistema giudiziario americano, l’algoritmo COMPAS - progettato per predire la probabilità di recidiva dei detenuti - si è rivelato sistematicamente sbilanciato: classificava i detenuti afroamericani come soggetti ad alto rischio con frequenza quasi doppia rispetto ai detenuti bianchi con profili analoghi. Anche qui, nessuna volontà esplicita di discriminare. Solo dati storici che portavano con sé le cicatrici di decenni di disuguaglianza strutturale.
In ambito sanitario, un algoritmo utilizzato dagli ospedali statunitensi per oltre duecento milioni di pazienti assegnava punteggi di rischio più bassi ai pazienti neri rispetto ai pazienti bianchi con le stesse condizioni cliniche. Il meccanismo era sottile e, a prima vista, ragionevole: l’algoritmo usava la spesa sanitaria storica come indicatore del bisogno di cure. Ma i pazienti neri, a causa di barriere economiche e sociali, tendevano storicamente a spendere meno per la propria salute - non perché stessero meglio, ma perché avevano meno accesso alle cure. L’algoritmo scambiava la povertà per la salute.
Joy Buolamwini, ricercatrice del MIT, ha dimostrato che i sistemi di riconoscimento facciale di grandi aziende tech avevano margini di errore inferiori all’1% per gli
uomini bianchi, ma arrivavano al 35% per le donne nere. Non perché qualcuno avesse programmato quella discriminazione, ma perché i dataset di addestramento erano composti prevalentemente da volti maschili e caucasici. L’algoritmo conosceva bene solo una parte dell’umanità, e sull’altra andava letteralmente a tentoni.
Il mondo visto dal buco della serratura
Torniamo al gioco. Torniamo a Survival of the Best Fit. Quello che il gioco vi mostra, con la gentilezza di un’esperienza interattiva di sei minuti, è il meccanismo fondamentale di ogni bias involontario: l’assenza di percezione completa. Noi non discriminiamo perché siamo cattivi. Discriminiamo perché il nostro campo visivo è limitato. Vediamo il mondo dal buco della serratura delle nostre esperienze, delle nostre frequentazioni, del nostro quartiere, della nostra lingua, della nostra generazione. E quando chiediamo a una macchina di imparare da noi, le consegniamo quel buco della serratura presentandolo come una finestra panoramica.
L’educazione come antidoto
Ecco perché, quando parliamo di intelligenza artificiale nelle scuole, non possiamo limitarci a insegnare come funzionano le reti neurali o come si scrive un prompt efficace. Dobbiamo insegnare a riconoscere l’incompletezza. A chiedersi: cosa non sto vedendo? Chi non è rappresentato in questi dati? Quale storia sto raccontando e quale sto cancellando?
Survival of the Best Fit è uno strumento perfetto per farlo. Lo userei - e lo uso - nei laboratori di Scuola di Robotica, perché in sei minuti riesce a far vivere un’esperienza che nessuna lezione frontale potrebbe trasmettere con la stessa forza: la scoperta che il nostro giudizio, anche quando è in buona fede, è condizionato da fattori che non controlliamo. E che quando affidiamo quel giudizio a una macchina, non lo rendiamo oggettivo - lo rendiamo scalabile. Un pregiudizio scalabile è infinitamente più pericoloso di un pregiudizio individuale. Perché è invisibile, sistematico, e si presenta con l’autorità di un numero.
La scena dopo i titoli di coda
Alla fine di The Breakfast Club, i cinque ragazzi escono dalla biblioteca del sabato e tornano alle loro vite. Sappiamo che il lunedì mattina il sistema delle etichette li riassorbirà. Lo sportivo tornerà con i sportivi, la ribelle con i ribelli. Il film non ci regala un lieto fine definitivo. Ci regala una consapevolezza fragile: sapere di essere più di quello che gli altri vedono in noi.
Con l’intelligenza artificiale, siamo esattamente a quel punto. Sappiamo che i bias esistono. Sappiamo che nascono senza intenzione. Sappiamo che si annidano nei dati come le erbacce tra le crepe del marciapiede. La domanda non è se possiamo eliminarli del tuttoprobabilmente no, così come non possiamo eliminare del tutto i nostri pregiudizi cognitivi. La domanda è se siamo disposti a guardarli in faccia, a nominarli, e a costruire sistemi che li rendano trasparenti anziché invisibili.
Provate il gioco. Poi chiedetevi chi state lasciando fuori dalla stanza. E se la risposta vi sorprende, siete sulla strada giusta.
Survival of the Best Fit è un progetto open source supportato dalla Mozilla Foundation, realizzato da Gabor Csapo, Jihyun Kim, Miha Klasinc e Alia ElKattan. È giocabile gratuitamente su survivalofthebestfit.com.