Intelligenza artificiale e nursing oncologico

Scritto il 17/04/2026
da Chiara Sideri

Nel nursing oncologico il bisogno di strumenti capaci di intercettare precocemente problemi clinici, supportare il follow-up e alleggerire il carico assistenziale è evidente. Le persone con tumore convivono spesso con sintomi fisici e psicologici multipli, effetti avversi dei trattamenti, necessità decisionali complesse e, non di rado, con fasi di assistenza intermittente che rendono più difficile garantire continuità e personalizzazione delle cure. In questo scenario, l’intelligenza artificiale viene proposta come leva potenziale per migliorare il monitoraggio, la tempestività e l’organizzazione dell’assistenza. A fare il punto sul tema è una scoping review pubblicata su Cancer Nursing, che non valuta l’efficacia di un singolo algoritmo ma mappa lo stato dell’arte delle applicazioni di AI nel nursing oncologico. Gli autori hanno cercato gli studi pubblicati tra gennaio 2010 e novembre 2022 in 6 database in inglese e 3 in cinese, includendo 28 articoli peer-reviewed. Il quadro che emerge è chiaro: il settore è in crescita, ma il livello di maturità clinica è ancora disomogeneo e l’evidenza complessiva rimane, nella maggior parte dei casi, bassa o moderata.

Una letteratura giovane

oncologia IA

Quasi tutta la produzione scientifica inclusa nella review è di pubblicazione recente: un solo studio risale al 2011, mentre la grande maggioranza dei lavori compare dal 2017 in avanti, con una crescita particolarmente evidente nel biennio 2021-2022.

I Paesi più rappresentati sono Cina e Stati Uniti e il tumore più studiato è il carcinoma mammario. È un dato che va letto in doppia chiave: da un lato conferma che l’interesse per l’intelligenza artificiale nel nursing oncologico sta entrando in una fase di rapida espansione; dall’altro mostra che le conoscenze disponibili si concentrano ancora su pochi contesti geografici, su alcuni setting assistenziali più che su altri e su un numero limitato di quadri oncologici.

Il risultato è un panorama in crescita, ma ancora parziale, che non consente di estendere automaticamente le conclusioni all’intera assistenza oncologica.

Anche il livello delle evidenze invita alla prudenza. Metà degli studi inclusi era di tipo descrittivo, classificato come livello VI nella gerarchia adottata dagli autori, mentre solo una quota ridotta raggiungeva un impianto metodologico più robusto.

In termini pratici, significa che gran parte della letteratura oggi disponibile documenta soprattutto sviluppo, testing e validazione iniziale degli strumenti, più che una loro efficacia clinica consolidata nei contesti reali di cura.

È un passaggio decisivo, perché tra la costruzione di un modello promettente e la dimostrazione di un impatto assistenziale stabile, riproducibile e trasferibile nella pratica quotidiana esiste ancora una distanza importante.

I limiti da non ignorare

La review mette bene in evidenza almeno tre criticità:

  1. La prima è tecnica: molti modelli sono stati costruiti su campioni monocentrici, spesso di dimensioni moderate, con validazioni limitate e generalizzabilità incerta.
  2. La seconda riguarda la fiducia sociale: l’adozione dell’AI in assistenza non dipende solo dalla performance dell’algoritmo, ma anche dall’accettabilità da parte di professionisti e pazienti.
  3. La terza, forse la più sottovalutata, è etica. Solo 2 studi su 28 affrontavano realmente questioni etiche, mentre 7 non le menzionavano affatto. Privacy, trasparenza, bias, sicurezza dei dati e confini tra supporto tecnologico e giudizio clinico restano quindi nodi ancora largamente aperti.

C’è poi un’altra assenza che merita attenzione: l’oncologia pediatrica. Nella review non emergono studi dedicati ai bambini con tumore, segno di un vuoto importante. Gli autori lo collegano sia alla specificità biologica e clinica dei tumori pediatrici, sia alla difficoltà di disporre di dataset sufficientemente ampi e di alta qualità per addestrare modelli robusti. Anche il tema delle differenze di genere rimane poco approfondito, nonostante la rilevanza clinica che può avere nella costruzione e nell’interpretazione dei sistemi di AI.

Dal potenziale alla pratica

La conclusione più solida, oggi, non è che l’intelligenza artificiale stia già trasformando il nursing oncologico, ma che abbia aperto una traiettoria di sviluppo concreta e ormai difficilmente reversibile. Le applicazioni più mature sembrano concentrarsi soprattutto nella predizione del rischio, nel monitoraggio dei sintomi e nel supporto decisionale, cioè in quelle aree in cui la tempestività dell’informazione e la capacità di intercettare precocemente segnali clinici possono fare la differenza nella continuità assistenziale. Tuttavia, la letteratura analizzata mostra che gran parte di queste tecnologie si colloca ancora nelle fasi di sviluppo o testing, mentre i veri percorsi di implementazione restano pochi.

Per passare dalla promessa alla pratica non basta quindi aumentare il numero degli studi: servono trial randomizzati, validazioni esterne, campioni più ampi e multicentrici, ma anche valutazioni condotte nei contesti reali di assistenza, dove l’efficacia di uno strumento non dipende solo dalla performance tecnica del modello, bensì dalla sua integrazione nei flussi di lavoro, dalla qualità dei dati disponibili e dalla sua utilità concreta per infermieri e pazienti. In diversi casi, infatti, i sistemi descritti appaiono promettenti sul piano sperimentale, ma ancora poco documentati rispetto alla trasferibilità nella pratica quotidiana.

C’è poi un secondo livello, meno tecnico ma altrettanto decisivo: la readiness clinico-organizzativa. Gli autori sottolineano che il successo dell’AI nel nursing oncologico dipenderà anche dalla fiducia degli utenti, dall’accettabilità degli strumenti e da una progettazione centrata sulla persona. Un sistema può essere accurato, ma restare marginale se non è comprensibile, sostenibile nei tempi assistenziali o coerente con i bisogni reali di chi lo utilizza. Per questo il feedback di infermieri e pazienti, oggi ancora poco esplorato, dovrebbe entrare stabilmente nella valutazione delle tecnologie.

Resta infine il nodo etico, che nella review appare ancora sorprendentemente poco affrontato. Privacy, rappresentatività dei dati, rischio di bias, trasparenza dei sistemi e sicurezza delle informazioni non sono aspetti accessori, ma condizioni essenziali di un’adozione responsabile. In oncologia, dove la fragilità clinica e decisionale è spesso elevata, questo punto pesa ancora di più: la vera sfida non sarà introdurre più algoritmi, ma capire quali strumenti meritano davvero spazio accanto alla pratica infermieristica e quali, invece, restano per ora solo promesse tecnologiche