Il primo investigatore AI del cancro al seno che mostra il suo lavoro

La maggior parte dell’IA per individuare lesioni precancerose nelle scansioni mammografiche non rivela nessuno dei loro processi decisionali (in alto). Se lo fanno, è spesso una mappa di salienza (al centro) che dice solo ai medici dove stanno guardando. Una nuova piattaforma di intelligenza artificiale (in basso) non solo dice ai medici dove sta guardando, ma quale passato sperimenta il suo utilizzo per trarre le sue conclusioni. Credito: Alina Barnett, Duke University

Ingegneri informatici e radiologi della Duke University hanno sviluppato una piattaforma di intelligenza artificiale per analizzare lesioni potenzialmente cancerose nelle scansioni mammografiche per determinare se un paziente deve ricevere una biopsia invasiva. Ma a differenza dei suoi numerosi predecessori, questo algoritmo è interpretabile, il che significa che mostra ai medici esattamente come è arrivato alle sue conclusioni.

I ricercatori hanno addestrato l’IA a localizzare e valutare le lesioni proprio come verrebbe addestrato un vero radiologo, piuttosto che consentirgli di sviluppare liberamente le proprie procedure, dandogli diversi vantaggi rispetto alle sue controparti “scatola nera”. Potrebbe costituire un’utile piattaforma di formazione per insegnare agli studenti a leggere le immagini della mammografia. Potrebbe anche aiutare i medici nelle regioni scarsamente popolate del mondo che non leggono regolarmente le scansioni mammografiche a prendere decisioni sanitarie migliori.

I risultati sono apparsi online il 15 dicembre sulla rivista NaturaMacchina Intelligenza.

“Se un computer aiuterà a prendere importanti decisioni mediche, i medici devono fidarsi che l’IA stia basando le sue conclusioni su qualcosa che abbia senso”, ha affermato Joseph Lo, professore di radiologia alla Duke. “Abbiamo bisogno di algoritmi che non solo funzionino, ma si spieghino e mostrino esempi di ciò su cui stanno basando le loro conclusioni. In questo modo, indipendentemente dal fatto che un medico sia d’accordo con il risultato o meno, l’IA aiuta a prendere decisioni migliori”.

L’ingegneria dell’IA che legge le immagini mediche è un settore enorme. Esistono già migliaia di algoritmi indipendenti e la FDA ne ha approvati più di 100 per uso clinico. Indipendentemente dal fatto che leggano scansioni MRI, TC o mammografiche, tuttavia, pochissime di esse utilizzano set di dati di convalida con più di 1000 immagini o contengono informazioni demografiche. Questa carenza di informazioni, unita ai recenti fallimenti di diversi esempi degni di nota, ha portato molti medici a mettere in discussione l’uso dell’IA nelle decisioni mediche ad alto rischio.

In un caso, un modello di intelligenza artificiale ha fallito anche quando i ricercatori lo hanno addestrato con immagini riprese da strutture diverse che utilizzano apparecchiature diverse. Piuttosto che concentrarsi esclusivamente sulle lesioni di interesse, l’IA ha imparato a utilizzare sottili differenze introdotte dalle apparecchiature stesse per riconoscere le immagini provenienti dal reparto oncologico e assegnare a quelle lesioni una maggiore probabilità di essere cancerose. Come ci si aspetterebbe, l’IA non si è trasferita bene ad altri ospedali utilizzando apparecchiature diverse. Ma poiché nessuno sapeva cosa stesse guardando l’algoritmo quando prendeva decisioni, nessuno sapeva che era destinato a fallire nelle applicazioni del mondo reale.

“La nostra idea era invece di costruire un sistema per dire che questa parte specifica di una potenziale lesione cancerosa assomiglia molto a quest’altra che ho visto prima”, ha detto Alina Barnett, una dottoranda in informatica alla Duke and primo autore dello studio. “Senza questi dettagli espliciti, i medici perderanno tempo e fiducia nel sistema se non c’è modo di capire perché a volte commette errori”.

Cynthia Rudin, professoressa di ingegneria elettrica e informatica e informatica alla Duke, confronta il processo della nuova piattaforma di intelligenza artificiale con quello di un perito immobiliare. Nei modelli a scatola nera che dominano il campo, un perito fornirebbe un prezzo per una casa senza alcuna spiegazione. In un modello che include ciò che è noto come una “mappa di salienza”, il perito potrebbe sottolineare che il tetto e il cortile di una casa sono stati fattori chiave nella sua decisione sui prezzi, ma non fornirebbe alcun dettaglio oltre a questo.

“Il nostro metodo direbbe che hai un tetto in rame unico e una piscina nel cortile che sono simili a queste altre case nel tuo quartiere, il che ha fatto aumentare i loro prezzi di questo importo”, ha detto Rudin. “Questo è l’aspetto che potrebbe avere la trasparenza nell’intelligenza artificiale per immagini mediche e ciò che gli operatori del campo medico dovrebbero richiedere per qualsiasi sfida radiologica”.

I ricercatori hanno addestrato la nuova IA con 1.136 immagini scattate da 484 pazienti del Duke University Health System.

Per prima cosa hanno insegnato all’IA a trovare le lesioni sospette in questione e a ignorare tutti i tessuti sani e altri dati irrilevanti. Quindi hanno assunto radiologi per etichettare attentamente le immagini per insegnare all’IA a concentrarsi sui bordi delle lesioni, dove i potenziali tumori incontrano il tessuto circostante sano, e confrontare quei bordi con i bordi nelle immagini con esiti cancerosi e benigni noti.

Le linee radianti o i bordi sfocati, noti in medicina come margini di massa, sono il miglior predittore di tumori al seno cancerosi e la prima cosa che i radiologi cercano. Questo perché le cellule cancerose si replicano e si espandono così velocemente che non tutti i bordi di un tumore in via di sviluppo sono facili da vedere nelle mammografie.

“Questo è un modo unico per addestrare un’IA a guardare le immagini mediche”, ha detto Barnett. “Altri IA non stanno cercando di imitare i radiologi; stanno escogitando i propri metodi per rispondere alla domanda che spesso non sono utili o, in alcuni casi, dipendono da processi di ragionamento imperfetti”.

Dopo che la formazione è stata completata, le ricerche hanno messo alla prova l’IA. Sebbene non abbia superato i radiologi umani, ha funzionato altrettanto bene di altri modelli di computer a scatola nera. Quando la nuova IA è sbagliata, le persone che lavorano con essa saranno in grado di riconoscere che è sbagliata e perché ha commesso l’errore.

Andando avanti, il team sta lavorando per aggiungere altre caratteristiche fisiche che l’IA deve considerare quando prende le sue decisioni, come la forma di una lesione, che è una seconda caratteristica che i radiologi imparano a guardare. Rudin e Lo hanno anche recentemente ricevuto un Duke MEDx High-Risk High-Impact Award per continuare a sviluppare l’algoritmo e condurre uno studio del lettore radiologo per vedere se aiuta le prestazioni cliniche e/o la fiducia.

“C’era molta eccitazione quando i ricercatori hanno iniziato ad applicare l’IA alle immagini mediche, che forse il computer sarà in grado di vedere qualcosa o capire qualcosa che le persone non potevano”, ha affermato Fides Schwartz, ricercatore presso Duke Radiology. “In alcuni rari casi potrebbe essere il caso, ma probabilmente non è il caso nella maggior parte degli scenari. Quindi è meglio assicurarci che noi umani comprendiamo su quali informazioni il computer ha utilizzato per basare le sue decisioni”.


Articolo precedenteNuovo strumento di screening sviluppato per identificare automaticamente i cervelli più anziani tipici della demenza
Articolo successivoEsplorare la regolamentazione dell’elettricità con equità e giustizia per tutti