Siamo pronti a sfruttare in modo responsabile la potenza dell’intelligenza artificiale, massimizzarne i benefici e supportare una forza lavoro diversificata e ben formata? La risposta, così com’è, è no, o almeno non ancora.

Questo è quanto emerge da un recente editoriale pubblicato su PNAS Nexus, dalla Dott.ssa Monica M. Bertagnolli, direttrice del National Cancer Institute, il rapporto fra intelligenza artificiale e apprendimento automatico (IA/ML) nella ricerca biomedica e assistenza sanitaria. Bertagnolli sottolinea il potenziale di queste tecnologie nel migliorare l’efficienza, ridurre i costi, potenziare la capacità diagnostica e individuare nuovi target terapeutici per trattamenti sempre più personalizzati. Tuttavia, evidenzia le sfide e le responsabilità connesse all’implementazione di queste tecnologie nell’ambito sanitario.

Bertagnolli mette in luce il fatto che, nonostante l’incredibile potenziale offerto dall’IA/ML, il giudizio umano rimane essenziale. La corretta selezione e lo sviluppo dei modelli computazionali richiedono attenzione umana, così come la garanzia che i dati utilizzati siano pertinenti, completi e di alta qualità. La mancanza di trasparenza nei processi decisionali delle macchine, spesso definiti come “scatole nere”, può ostacolare l’accettazione delle metodologie basate su IA/ML nella pratica clinica. Bertagnolli suggerisce come l'”AI spiegabile” possa rappresentare la chiave per aprire la “scatola nera” e consentire ai ricercatori di comprendere meglio le logiche alla base delle predizioni.

Il tema dell’equità emerge come una delle principali sfide. Bertagnolli avverte che pregiudizi insiti nei dataset, spesso inconsapevoli, possono portare a risultati che discriminano alcuni gruppi di pazienti. Questa disuguaglianza è amplificata dalla composizione non rappresentativa della forza lavoro nel settore AI/ML e dalla sua concentrazione in poche aree metropolitane. L’editoriale sottolinea che per affrontare queste sfide, è essenziale un approccio multidisciplinare, coinvolgendo non solo ricercatori e clinici ma anche pazienti, organizzazioni sociali, scienziati dell’equità, esperti legali e politici.

C’è ancora molto da fare per la comunità scientifica per sfruttare al meglio il potenziale dell’IA/ML. Attualmente, l’industria privata sta dettando il ritmo per l’integrazione dell’IA nella società, così come nella ricerca biomedica e nella fornitura di assistenza sanitaria. Ciò è dovuto in gran parte al fatto che la barriera al suo uso su larga scala è straordinariamente alta.

Per fare progressi nelle scoperte sull’intelligenza artificiale si richiede l’impegno di infrastrutture e risorse informatiche capaci, ben gestite e accessibili. Sono necessarie quindi nuove infrastrutture per l’analisi dei dati.

L’editoriale richiama, inoltre, alla necessità di una riflessione approfondita sulla protezione della privacy e sulla sicurezza, nonché sull’accesso equo ai dati e alla formazione di una forza lavoro adeguata.

Bertagnolli sottolinea poi la responsabilità di sviluppare e attuare un quadro di governance dinamico e equo con tutti gli attori coinvolti, inclusi ricercatori, professionisti della salute, pazienti e organizzazioni.

Infine, nell’editoriale si incita a una collaborazione internazionale più ampia. Mentre gli sforzi, come il GPAI statunitense, mostrano progressi, si sottolinea la necessità di coinvolgere attivamente il settore sanitario in queste discussioni, riconoscendo la complessità di queste nuove sfide.

In sintesi, l’editoriale di Bertagnolli offre una panoramica approfondita delle opportunità e delle sfide legate all’intelligenza artificiale in medicina. La sua prospettiva, da direttrice dei National Institutes of Health, vuole guidare la discussione su come massimizzare i benefici di queste tecnologie, garantendo equità, responsabilità e sicurezza per tutti i pazienti.

Riproduzione Edra

LE OPINIONI SUL FUTURO DELLA IA IN MEDICINA: LA NECESSITÀ DI UN FUTURO RESPONSABILE DELLA CURA

Lascia un commento