30Science.com

USA: per la prima volta dottor IA finisce davanti ai giudici per lesione

(12 Giugno 2025)

Roma – Il caso legale Dickson contro Dexcom Inc., il primo che sostiene la prevalenza della legge federale statunitense sulle cause per lesioni personali in materia di dispositivi medici di Classe II autorizzati tramite il percorso De Novo della FDA potrebbe avere implicazioni sull’uso dell’intelligenza artificiale in campo medico. Lo rivela un’analisi condotta da Sara Gerke, dell’Università dell’Illinois Urbana-Champaign,e David Simon, della Northeastern University, riportata su Science. Questo caso, discusso in un Policy Forum dell’Associazione Americana per il Progresso della Scienza, AAAS, ha importanti implicazioni per la responsabilità legale dei produttori di dispositivi medici che incorporano tecnologie di intelligenza artificiale, IA, e apprendimento automatico, ML. Il percorso De Novo è utilizzato per dispositivi innovativi che non hanno equivalenti sul mercato e che non richiedono l’approvazione pre-market più rigorosa, PMA. Poiché i produttori di dispositivi basati su IA e ML utilizzano il percorso De Novo più di tre volte rispetto ad altri produttori, la decisione Dickson potrebbe influenzare significativamente quali prodotti vengono sviluppati e commercializzati, impattando la ricerca e sviluppo e, di conseguenza, i benefici per i pazienti. In assenza di una giurisprudenza consolidata sulla responsabilità per danni derivanti dall’uso di IA in ambito medico, questo caso fornisce un precedente importante su come i tribunali potrebbero affrontare in futuro le questioni di responsabilità legate a dispositivi medici intelligenti, delineando potenziali rischi e obblighi per i produttori. Parallelamente, a livello europeo, la proposta di Direttiva sulla responsabilità da IA mira a stabilire un quadro normativo chiaro e uniforme per i danni causati da sistemi di IA, introducendo presunzioni di colpevolezza per i fornitori in presenza di violazioni specifiche degli obblighi di diligenza, come la qualità dei dati di addestramento, la trasparenza e la supervisione umana del sistema. Tale normativa prevede inoltre meccanismi per facilitare l’accesso alle prove da parte dei danneggiati, riconoscendo la posizione di debolezza degli utenti rispetto ai fornitori di IA. In ambito medico, la responsabilità civile e penale rimane complessa e in evoluzione, con la necessità di bilanciare l’innovazione tecnologica con la tutela della sicurezza dei pazienti. La formazione adeguata del personale sanitario e il rispetto delle linee guida sono elementi chiave per mitigare i rischi legali derivanti dall’uso di IA. In sintesi, il caso Dickson contro Dexcom Inc. rappresenta un punto di svolta nella regolamentazione della responsabilità per dispositivi medici intelligenti, con ripercussioni significative sulla produzione, l’uso e la supervisione dell’intelligenza artificiale in campo sanitario.(30Science.com)

30Science.com
Agenzia di stampa quotidiana specializzata su temi di scienza, ambiente, natura, salute, società, mobilità e tecnologia. Ogni giorno produciamo una rassegna stampa delle principali riviste scientifiche internazionali e quattro notiziari tematici: Scienza, Clima & Natura, Salute, Nuova Mobilità e Ricerca Italiana contatti: redazione@30science.com + 39 3492419582