Big Data in Sanità, verso un sistema sanitario data-driven

Lo sviluppo tecnologico che ha portato alla nascita dei Big Data ha generato una significativa mutazione di paradigma in ogni campo scientifico e non. Ogni giorno viene generato, da fonti eterogenee (sanità, social networks, marketing, finanza, ecc.), un gargantuesco volume di dati ad un ritmo senza precedenti. Questo è dovuto allo sviluppo e alla continua evoluzione tecnologica cui ogni giorno assistiamo: Internet of Things, Cloud Computing e dispositivi smart in mano alla quasi totalità dei consumatori. Questi set di dati sono talmente voluminosi da non poter essere gestiti dai software di elaborazione dati tradizionali. Grazie ad un efficiente management, un’attenta analisi e una corretta interpretazione dei Big Data è possibile diventare spettatori di una drastica evoluzione nel mondo della sanità.

Il data overload e la nascita della Data Science

Ogni giorno, da ogni parte del mondo, viene generata una massiva quantità di dati. L’universo digitale è un termine che va a definire come questi dati vengono creati, replicati e utilizzati in un anno.

Le Big Tech come Google, Meta, Amazon, Apple e Microsoft ogni giorno immagazzinano un quantitativo massivo di informazioni come preferenze pubblicitarie, liste di applicazioni utilizzate, cronologie del browser, contatti, email, ecc.; la somma di tutti questi dati prende il nome di “Big Data”.

L’analisi di questi dati è diventata così cospicua da portare alla nascita di una nuova disciplina scientifica: la Data Science. La Data Science si occupa di vari aspetti, tra i quali l’analisi e il management dei dati, favorendo il miglioramento e l’evoluzione di sistemi complessi come quello della sanità.

Definizione di Big Data

I Big Data rappresentano un enorme ammontare di dati impossibili da gestire utilizzando software tradizionali o piattaforme internet-based, in quanto vanno ad utilizzare un quantitativo di energia di immagazzinamento, processo e analisi considerevole.

Grazie all’evoluzione tecnologica è possibile memorizzare e la gestire dataset di dimensioni crescenti in modo continuo, come enunciato dalla Legge di MooreLa complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).

Il termine “Big Data” è stato utilizzato per la prima volta da John Mashey, Chief Scientist in pensione alla Silicon Graphics, a metà degli anni Novanta in riferimento alla gestione e all’analisi di datasets massivi.

Nel 2001, l’analista Douglas B. Laney osservò che i big data crescevano in 3 diverse dimensioni e questo aspetto lo portò a definire un primo modello chiamato delle “3V”, dove le V stanno per:

  • Volume: quantità di dati (strutturati o non strutturati) generati al secondo da sorgenti eterogenee (sensori, log, email, social e database)
  • Variety: la quale si riferisce alla differente tipologia di dati che vengono generati, immagazzinati e utilizzati. Precedentemente alla nascita dei big data venivano presi in considerazione, principalmente, dati strutturati (tabella di un database), i quali venivano manipolati tramite database relazionali. Per rendere più accurata e profonda l’analisi oggi vengono presi in considerazione anche:A. Dati non strutturati (schede di anamnesi, referti, prescrizioni o dimissioni ospedaliere)B. Dati semi strutturati (atto notarile con frasi fisse/variabili)
  • Velocity: in riferimento alla velocità con cui vengono generati i nuovi dati, fondamentale è l’arrivo di queste informazioni in sistema real-time per poterli analizzare.

Ad oggi, i Big Data, possono essere caratterizzati da altre discriminanti, quali:

  • Variabilità: in riferimento all’inconsistenza possibile di dati analizzati
  • Complessità: la quale aumenta in modo proporzionale alla dimensione del dataset
  • Veridicità: relativa all’informazione che è possibile estrapolare dalle informazioni

L’analisi di Big Data in Sanità, un nuovo paradigma per la cura del paziente

Il sistema sanitario rappresenta un insieme che conta un quantitativo enorme di sorgenti dati:

  • Sistemi operazionali/gestionali
  • Fascicolo sanitario elettronico
  • Imaging radiologico
  • Ricerche scientifiche
  • Streaming data di dispositivi wearable e IoT (Internet of Things)

Tutti questi dati sono caratterizzati non solo da un volume enorme, ma anche da una vastissima varietà. Le sfide che il sistema sanitario nazionale dovrà affrontare nell’analisi di questa eterogenea moltitudine di informazioni, quindi, saranno molteplici: adozione di strumentazione biomedica adeguata, sistemi di sicurezza e privacy adeguati e cambiare approccio alla diagnostica.

L’analisi dei big data sanitari, ovvero l’immenso volume di informazioni prodotte per ogni paziente grazie all’evoluzione tecnologica in ambito sanitario, offre un reale beneficio alla totalità dei soggetti coinvolti, dalle industrie farmaceutiche al personale sanitario.

Tra questi:

  • Semplificazione della diagnostica: grazie al FSE (Fascicolo Sanitario Elettronico) è possibile accedere alla totalità dei dati relativi allo stato di salute del paziente (anamnesi, allergie, trattamento di malattie precedenti, vaccini, visite specialistiche ecc.) permettendo, così, al personale medico di consultare con facilità i file dei pazienti e avere un quadro generale quanto più completo sullo stato di salute, migliorando anche l’efficacia delle terapie proposte
  • Migliorare l’assistenza sanitaria tramite l’utilizzo di database sanitari, ricchi di dati utili, attraverso cui i professionisti sanitari possono ampliare la propria conoscenza e migliorare l’approccio clinico
  • Trattamenti personalizzati tramite analisi dei Big Data genomici (insieme di dati riguardanti strutture e funzioni del genoma di tutti gli organismi viventi). L’analisi e la combinazione dei miliardi di dati genomici, transcrittomici con dati proteomici e metabolici, può portare ad una comprensione profonda del profilo individuale di un paziente. La correlazione tra dati -omici, FSE e informazioni relative ai farmaci prescritti possono portare il mondo della medicina ad un approccio sempre più preciso e personalizzato per ogni paziente
  • Riduzione dei costi: potendo accedere a così tante informazioni sanitarie, il personale sanitario può identificare modelli che portano ad una comprensione più approfondita della salute del paziente, questo permette un’ottimizzazione delle risorse, un minor numero di ricoveri, una stima dei costi per il trattamento individuale del paziente migliorando così l’efficienza dell’assistenza sanitaria.
  • Fonte: www.nurse24.it di Silvia Fabbri del 12.01.2024

Lascia un commento