Intelligenza artificiale in ambito diagnostico: aspetti legali ed etici. Atteso l’evento AI4Diag il 27 giugno a Firenze.

In vista del webinar, abbiamo approfondito il tema con Francesco Mazzini, Project Manager del Distretto Toscano Scienze della Vita.

Primo di 5 appuntamenti, il 27 giugno prossimo si terrà a Firenze il webinar “AI applications in healthcare – privacy, legal and ethical aspects overview”, organizzato dal Distretto nell’ambito delle attività del progetto europeo AI4Diag (Strategic Cluster Partnership for increased competitiveness of European Medical Diagnostics SMEs through Artificial Intelligence), nel quale il Distretto è coinvolto insieme ad altri 4 cluster europei.
Dopo il workshop del 29 maggio “Artificial intelligence in health and well-being”, in cui più di 100 partecipanti hanno potuto approfondire le potenzialità applicative dell’intelligenza artificiale (IA) attraverso esempi e attività guidate tenuti da esperti del settore del territorio, si continua a parlare di IA dal punto di vista regolatorio, etico e legale.
Obiettivo del webinar, che sarà trasmesso in streaming e registrato per essere messo poi a disposizione sul sito del progetto AI4Diag, è offrire alle imprese del settore una panoramica su come affrontare correttamente la gestione dei dati, la privacy, le altre questioni legali ed etiche connesse con lo sviluppo di applicazioni basate sull’IA nella diagnostica e nella sanità, consentendo loro di identificare, qualificare e risolvere le potenziali insidie.

Ce ne parla Francesco Mazzini, project manager del Distretto:
Il webinar del 27 giugno è il primo di 5 appuntamenti tematici che i partner del progetto AI4Diag organizzano per supportare le aziende medicali diagnostiche nella comprensione, adozione e sfruttamento delle opportunità offerte dalle tecnologie correlate all’IA.
Le applicazioni di IA si basano su algoritmi di raccolta, elaborazione e analisi dei dati sanitari, fornendo previsioni o raccomandazioni per la diagnosi, la terapia, lo stato di salute, lo stile di vita, la nutrizione, ecc. Tuttavia, la gestione dei dati relativi alla salute solleva questioni normative, di privacy, di sicurezza ed etiche che devono essere conosciute e gestite correttamente per evitare potenziali ostacoli nello sviluppo delle applicazioni di IA. Inoltre, l’intrinseca natura delle tecniche di IA basate su deep learning, il cui meccanismo di funzionamento è di difficile decifrazione, comporta altre questioni legali ed etiche, come la qualità, la sicurezza e la validazione dell’efficienza e della trasparenza operativa, le possibili distorsioni interpretative, la responsabilità dell’eventuale danno, la brevettabilità, l’anonimizzazione dei dati dei pazienti e la privacy.
Con questo webinar cercheremo di fare maggiore chiarezza su questi aspetti, in modo che le imprese europee del settore li abbiano ben presenti e possano affrontarli nel migliore dei modi per garantire il successo dei propri prodotti e servizi.”

Le aspettative che gli operatori del settore salute nutrono rispetto all’applicazione dell’intelligenza artificiale (IA) all’healthcare sono molto alte. Quali sono le applicazioni più facilmente implementabili?
Sì, le aspettative sono molto alte, nel nostro settore come sostanzialmente in tutti gli altri. Il tasso di crescita annuo delle applicazioni basate su IA nell’healthcare viene indicato dai report di settore tra il 43 e il 50% nel periodo 2019-2025, con un mercato che già oggi sfiora i 2 miliardi di dollari.
L’IA è attesa incidere profondamente il sistema sanitario, spinta dalla disponibilità di grandi moli di dati e dalle sempre più potenti tecniche di apprendimento automatico. Le prime applicazioni, alcune già in uso, saranno quelle correlate alla diagnostica per le immagini in tutte le sue declinazioni, in quanto l’analisi delle immagini è oggi già una tecnologia piuttosto matura. Ma non passerà molto perchè gli ambiti di applicazione si estendano, con un sempre più ampio impiego di sistemi di supporto decisionale a vari livelli.

Quali sono aspetti etici, legali e di privacy più critici per una reale innovazione portata dall’intelligenza artificiale in questo ambito? Cosa si sta facendo in questi anni e cosa si prevede in prospettiva?
La Commissione Europea ha avviato ormai da più di un anno un tavolo di lavoro di esperti che ha sviluppato e continua a sviluppare delle linee guida per la progettazione di sistemi di intelligenza artificiale affidabili, nel rispetto della centralità dell’essere umano. La prima bozza pubblicata quest’anno riporta indicazioni utili per un’implementazione pratica dei principi enunciati, riportando anche una procedura di assessment per verificare se l’applicazione sviluppata basata su IA sia concorde con le linee guida.
Sul fronte della privacy, è il Regolamento europeo sulla protezione dei dati (GDPR) a regolamentare strettamente l’accesso e uso dei dati personali, ed è piuttosto recente. Tuttavia, si comincia già a parlare di possibili criticità da dirimere collegate all’accelerazione delle applicazioni di IA. A questo, nel nostro settore si aggiunge anche il regolamento sui clinical trial, con le sue linee guide ancora in sviluppo per una sua definitiva attuazione, con indicazioni per la gestione dei dati acquisiti nel trial.
L’implementazione di queste regolamentazioni non è sempre chiara e di semplice applicazione, ed anche la loro traduzione operativa non è molto standardizzata e omogenea. Questo diventa un ostacolo per lo sviluppo e validazione di applicazioni basate su IA, per le quali l’accesso ai dati sanitari è essenziale: e nel nostro sistema sanitario ci sono molti dati inutilizzati che potrebbero essere sfruttati in tal senso. E’ un limite noto e ormai sotto l’attenzione di tutti gli stakeholder interessati che stanno lavorando per trovare soluzioni che mantengano da un lato la necessità di privacy e dall’altro consentano uno sfruttamento più snello ed efficace di questa miniera di dati.
Dal punto di vista legale, l’automazione decisionale possibile con le tecniche di IA e la sostanziale impossibilità di conoscenza dei meccanismi predittivi utilizzati e sviluppati dalle tecniche di deep learning solleva questioni sulle responsabilità in caso di danno e sulla trasparenza dei processi. A questo riguardo gli enti regolatori (ad es. FDA) si stanno già muovendo per cercare di definire delle linee guida per regolamentare questi aspetti, avendo sempre come obiettivo la salvaguardia del paziente. A mio avviso, su questi temi verosimilmente assisteremo ad un processo continuo di adeguamento della regolamentazione nei prossimi anni, considerata la velocità di evoluzione di questi sistemi.

Come l’intelligenza artificiale può cambiare lo sviluppo e l’innovazione del settore diagnostico?
L’intelligenza artificiale consente un utilizzo più efficace di molti dati diagnostici (ad es. dati di imaging, segnali da strumenti medicali), che si può tradurre in un supporto decisionale al clinico rilevante, sia in termini di risparmio dei tempi di diagnosi sia spesso nell’identificazione precoce di un problema per il paziente. Affiancare ai propri strumenti sistemi di questo tipo farà la differenza sul mercato, in continua e crescente competizione. Occorre però ricordare che sarà la validazione di questi supporti il punto forse più critico e discriminante, in quanto sono stati già evidenziati casi di evidenti distorsioni interpretative di applicazioni basate su IA, che in altri settori sono più sopportabili e gestibili, nel nostro non sono ammissibili.
Ma l’innovazione è anche nello sviluppo dei prodotti, basti pensare alla ricerca di nuovi biomarkers diagnostici, ai sistemi di simulazione e predizione su materiali e componenti, ai sistemi di manutenzione predittiva, per passare poi all’ottimizzazione di processo, distribuzione, logistica, innovazioni comuni ad altri settori che necessiteranno anche di sforzi in termini di formazione professionale per rimanere al passo con i tempi.

 

Scarica il Programma dell’evento

Registrati QUI