L’emergere di modelli Generalist Medical Artificial Intelligence (GMAI) rappresenta una sfida significativa per gli attuali quadri normativi. In un commento pubblicato sulla rivista Nature Reviews Cancer , Stephen Gilbert e Jakob N. Kather, entrambi professori dell’EKFZ for Digital Health della TU Dresden, discutono di come potrebbe essere gestita la regolamentazione di questi modelli in futuro. I decisori politici dovranno decidere se adattare radicalmente i quadri attuali, bloccare gli approcci generalisti o costringerli su binari ristretti.

Gli attuali modelli di intelligenza artificiale (AI) per il trattamento del cancro sono addestrati e approvati solo per scopi specifici previsti. I modelli GMAI, al contrario, possono gestire un’ampia gamma di dati medici, inclusi diversi tipi di immagini e testo. Ad esempio, per un paziente affetto da cancro del colon-retto, un singolo modello GMAI potrebbe interpretare video endoscopici, diapositive patologiche e dati della cartella clinica elettronica (EHR). Pertanto, tali modelli multiuso o generalisti rappresentano un cambiamento di paradigma rispetto ai modelli di intelligenza artificiale ristretti.

Gli organismi di regolamentazione si trovano ad affrontare un dilemma nell’adattarsi a questi nuovi modelli perché le normative attuali sono progettate per applicazioni con uno scopo definito e fisso, un insieme specifico di indicazioni cliniche e una popolazione target. L’adattamento o l’estensione dopo l’approvazione non sono possibili senza passare nuovamente attraverso la gestione della qualità e i processi normativi e amministrativi. I modelli GMAI, con la loro adattabilità e potenziale predittivo anche senza esempi di formazione specifici – il cosiddetto ragionamento zero shot – pongono quindi sfide per la validazione e la valutazione dell’affidabilità. Attualmente sono esclusi da tutti i quadri internazionali. 

Gli autori sottolineano che i quadri normativi esistenti non sono adatti a gestire i modelli GMAI a causa delle loro caratteristiche. “Se queste normative rimangono invariate, una possibile soluzione potrebbe essere rappresentata da approcci ibridi. I GMAI potrebbero essere approvati come dispositivi medici e quindi la gamma di suggerimenti clinici consentiti potrebbe essere limitata”, afferma il prof. Stephen Gilbert, professore di scienza della regolamentazione dei dispositivi medici presso la TU Dresden. “Ma questo approccio consiste nel forzare modelli con potenzialità intelligenti per affrontare nuove domande e dati multimodali su binari ristretti attraverso regole scritte quando queste tecnologie non erano state previste. Dovrebbero essere prese decisioni specifiche su come procedere con queste tecnologie e non escludere la loro capacità di affrontare questioni per le quali non sono state specificamente progettate. Le nuove tecnologie a volte richiedono nuovi paradigmi normativi”, afferma il prof. Gilbert.

I ricercatori sostengono che sarà impossibile impedire ai pazienti e agli esperti medici di utilizzare modelli generici o sistemi di supporto alle decisioni mediche non approvati. Pertanto, sarebbe fondamentale mantenere il ruolo centrale dei medici e renderli interpreti competenti delle informazioni. 

In conclusione, i ricercatori propongono un approccio normativo flessibile che soddisfa le caratteristiche uniche dei modelli GMAI garantendo al tempo stesso la sicurezza dei pazienti e supportando il processo decisionale dei medici. Sottolineano che un quadro normativo rigido potrebbe ostacolare il progresso nell’assistenza sanitaria basata sull’intelligenza artificiale e richiedono un approccio sfumato che bilanci l’innovazione con il benessere dei pazienti. 

Riproduzione Healthcare-in-europe.com

AI medica generalista: gli esperti propongono barriere legali

Lascia un commento