Responsabilità medica nell’era dell’IA: le sfide per la medicina generale
L’evoluzione l’introduzione dell’intelligenza artificiale (IA) stanno trasformando profondamente l’assistenza sanitaria primaria, in particolare l’attività dei Medici di Medicina Generale (MMG).
Questo cambiamento, accelerato dalle riforme del PNRR e dal DM 77/2022, solleva importanti questioni sui profili di responsabilità professionale. Il quadro normativo attuale, dalla legge Gelli al recente AI Act europeo, si trova a dover affrontare nuove sfide: dalla validazione degli algoritmi di IA alla trasparenza dei processi decisionali automatizzati, dal consenso informato alla gestione del rischio clinico.
Emerge la necessità di bilanciare l’innovazione tecnologica con la tutela del paziente, ridefinendo i confini della responsabilità tra strutture sanitarie, professionisti e fornitori di tecnologie.
Quattro vie per migliorare la sanità pubblica
Il 3 dicembre scorso il Cergas-Sda Bocconi ha divulgato il Rapporto Oasi 2024, che ha evidenziato come la critica situazione del SSN, a causa di un finanziamento insufficiente a soddisfare tutte le aspettative dei cittadini, necessiti di scelte ponderate e coraggiose.
Il Rapporto evidenzia che, per portare la sanità pubblica italiana ai livelli dei grandi Paesi europei, servirebbero almeno 40 miliardi, che appaiono impossibili da reperire, a causa del grosso peso delle pensioni e del debito pubblico sulla nostra economia, con una società che ha elevati tassi di invecchiamento e una forte denatalità.
In questo quadro, il Rapporto indica quattro vie possibili da percorrere:
- governare le aspettative dei cittadini, dichiarando senza mezzi termini cosa il servizio pubblico è in grado di garantire e cosa no;
- proseguire la strada dell’efficientamento, con interventi percepiti però sempre più pesanti dai cittadini;
- aumentare le risorse per il Ssn attraverso compartecipazioni più ridotte ma più capillari di oggi;
- rivoluzionare i servizi, tenendo però presente che la modifica radicale della geografia e del format dei servizi comporta anche una trasformazione delle competenze professionali necessarie.
Il ruolo dei medici di medicina generale (mmg)
Il Rapporto contiene un focus, originato da una survey su tre aziende indice, sui MMG, centrali nella vision della nuova sanità territoriale, dalla casa come primo luogo di cura alla presa in carico proattiva dei pazienti cronici. Tra il 2009 e il 2022 si sono persi circa 7000 medici di medicina generale, con un notevole aumento dell’età media: nel 2022, il 72% dei MMG ha 27 anni di anzianità di laurea. Il 50% dei MMG in servizio è massimalista (1500 pazienti), con un numero medio di iscritti di 1324 e un aumento dell’incidenza dei pazienti cronici (40,4%).
L’evoluzione del rapporto tra mmg e pazienti
Dopo il Covid, sono proliferati i canali che i pazienti utilizzano per arrivare al MMG. La survey del Cergas evidenzia che i MMG gestiscono 40-50 contatti medi al giorno, ovvero 200-250 la settimana, ovvero 800-1000 al mese. Questo dato ha segnalato le evidenze di seguito descritte:
- gli alti volumi di lavoro e di impegno dei MMG;
- per riuscire a sostenere questo carico di lavoro sono stati privilegiati canali remoti perché il modello di servizio «tradizionale» (visita in studio) non è oggi più sostenibile;
- il problema del reclutamento dei pazienti cronici può essere ricollocato nell’azione diretta dei MMG, se supportati da opportune soluzioni organizzative di sostegno, passando da logiche di medicina di attesa a logiche di medicina di iniziativa, prescrivendo proattivamente i pacchetti di prestazioni evidence-based per ridurre gli accessi randomici.
Utilizzo della tecnologia nella sanità territoriale
E’ emerso, altresì, che i MMG prescrivono già farmaci, esami e visite prevalentemente da remoto su piattaforme digitali, con uno spazio di lavoro promettente per il SSN, qualora si riuscisse a innestare un sistema di supporto alle decisioni cliniche che sia basato su evidenze scientifiche. Il rapporto conclude rilevando che i MMG e pazienti hanno già fatto importanti passi avanti nella strada verso l’innovazione digitale dei servizi, spostando il 70% delle interazioni su canale remoto. Ora bisogna valorizzare l’abitudine agli strumenti da remoto per ulteriori finalità: sostegno ai pazienti, attraverso il monitoraggio dell’aderenza alla terapia e ai corretti stili di vita e piattaforma di lavoro su cui collocare un sistema di supporto alle decisioni cliniche.
Quadro economico del welfare italiano
A conclusioni analoghe perviene il recente Rapporto 2024 di Welfare Italia, con una panoramica completa su spesa per il welfare, invecchiamento della popolazione, denatalità, divari territoriali nella presa in carico dei soggetti fragili. Il rapporto conferma lo sbilanciamento dell’Italia verso la componente previdenziale. I
l nostro Paese risulta il primo tra i Big-4 europei per incidenza della spesa in previdenza rispetto al PIL (16,2% rispetto ad una media del 12,3% dell’Eurozona). L’Italia è invece l’ultima per la spesa delle politiche sociali (5,7% del PIL contro una media dell’Eurozona pari al 7,3%), e per quella della sanità (6,9% del PIL contro una media UE del 7,9%), concludendo che servirebbero 176 mld di euro per garantire la sostenibilità del sistema welfare entro il 2030.
Cambiamenti demografici e tecnologici nella sanità
In ambito sanitario, il rapporto sottolinea che modalità e luoghi di cura sono destinati a mutare velocemente perché demografia, epidemiologia, crisi ambientale e rivoluzione digitale stanno ridefinendo finalità ed impegni dei SSN e anche la rilevanza dei luoghi di cura. Dovrebbe cadere la centralità dell’ospedale a favore di una cura centrata, anche fisicamente, sul paziente, soprattutto grazie alle tecnologie digitali.
Riforma della sanità territoriale e ruolo dei mmg
Nella visione della nuova sanità territoriale disegnata dal DM 77/2022, quale riforma strutturale richiesta dal PNRR, i principali nodi strategici ruotano intorno alla governance delle cure primarie, che ha il perno nel medico di medicina generale: così è per le case di comunità, l’ospedale di comunità, l’assistenza domiciliare integrata in grado di garantire la casa quale primo luogo di cura, ovvero lo slogan della nuova sanità territoriale.
Si sta discutendo da anni di una riforma delle cure primarie, che parta dalla formazione universitaria, in luogo di quella assicurata dalle Regioni, sino ai team multidisciplinari e multiprofessionali, oggi arricchiti dalla figura dell’infermiere di comunità, sancita dal dl 34/2020.
Appare necessario, inoltre, che le cure primarie recuperino la responsabilità di sanità pubblica, con iniziative di educazione sanitaria e promozione della salute per la prevenzione di gruppi di popolazione e per una reale medicina di iniziativa.
Certamente, per mettere i medici di medicina generale in grado di operare in questo senso, occorre una profonda revisione del loro assetto organizzativo, in linea con la riorganizzazione strutturale della sanità territoriale disegnata dal DM 77/2022 e dagli investimenti della Missione 6 del PNRR.
La piattaforma nazionale di telemedicina e l’intelligenza artificiale nella sanità
La Componente 1 “Reti di prossimità, strutture e telemedicina per l’assistenza sanitaria territoriale” della Missione 6 Salute del PNRR nasce con lo scopo di rafforzare i servizi e le prestazioni distribuite sul territorio ed include la piattaforma di intelligenza artificiale a supporto dell’Assistenza sanitaria primaria, con l’obiettivo di facilitare le diagnosi e la cura da parte dei medici impegnati nell’assistenza territoriale, nonché la fruizione dei servizi e delle prestazioni distribuite sul territorio grazie alla nascita di strutture territoriali come Case della Comunità (Investimento 1.1), Casa come primo luogo di cura e telemedicina (investimento 1.2), Ospedali di Comunità (investimento 1.3).
È una piattaforma che punta ad essere integrata con la Piattaforma Nazionale di Telemedicina e con i sistemi informativi regionali, nell’ottica di prevedere l’uso del FSE.
Obiettivi della sperimentazione con i Mmg
La prima sperimentazione coinvolgerà 1500 medici di medicina generale, per essere distribuita agli altri da fine 2026, secondo la rete dei servizi digitali disegnata dai Piani Operativi Regionali. Grazie agli algoritmi della piattaforma, il software pescherà i dati dall’Ecosistema dei Dati Sanitari. Il medico potrà essere avvertito con alert di particolare anomalie, ai fini, per esempio, della prescrizione di ulteriori analisi.
Obiettivo del progetto è un ambiente integrato di monitoraggio degli assistiti di ciascun professionista, attraverso un cruscotto di indicatori che fornirà al professionista sanitario una visione chiara e sintetica sia sull’evoluzione clinica che sull’andamento dei percorsi di cura. Grazie agli algoritmi di IA sarà possibile stratificare i pazienti sulla base delle loro caratteristiche (patologia e fascia d’età) e sulla base dei percorsi di cura, anche nell’ottica di veicolare specifici messaggi e segnalazioni per rivalutare le condizioni al bisogno. La piattaforma aiuterà anche nella gestione della prenotazione delle visite e controlli, oltre che nella prescrizione di terapie farmacologiche ricorrenti. La piattaforma sarà utilizzabile anche dai pazienti, che potranno usufruire meglio dei servizi territoriali previsti dalla Missione 6 del PNRR, verificare, attraverso un cruscotto di facile lettura, il proprio stato di salute e comunicare con il proprio medico con gli strumenti dell’IA.
I nodi privacy
In tema di privacy, AGENAS ha dedicato una sezione alla questione nelle sue Linee guida sulla Piattaforma, per allinearla alla normativa europea in materia. L’implementazione della Piattaforma avrebbe dovuto seguire le scadenze del PNRR relative a due Target del Sub-investimento 1.2.2 Centrali operative territoriali: entro giugno 2023 la stipula del contratto per gli strumenti di intelligenza artificiale a supporto dell’assistenza primaria; entro giugno 2026 il completamento degli strumenti di intelligenza artificiale a supporto dell’assistenza primaria. Lo spostamento temporale del primo target è legato alla decisione di AGENAS di sospendere in via cautelativa e temporanea la procedura di dialogo competitivo per la realizzazione della Piattaforma a seguito di un intervento del Garante che chiedeva maggior chiarezza sulla base giuridica dei trattamenti, sulle valutazioni d’impatto degli stessi e sulle modalità attraverso le quali si intenderebbe dare piena attuazione al Decalogo per la realizzazione di servizi sanitari attraverso sistemi di Intelligenza Artificiale, redatto dal Garante privacy.
Successivamente, anche in conseguenza delle sopravvenute evoluzioni tecnologiche, Agenas ha ritenuto opportuno aggiornare i contenuti del Capitolato descrittivo e prestazionale della Piattaforma, prevedendo che la progettazione, realizzazione ed utilizzo della stessa non comporti l’utilizzo di dati personali dei pazienti, consentendosi di superare le criticità sollevate dal Garante.
IA e profili di responsabilità professionale sanitaria dei MMG
Un problema da indagare riguarda eventuali profili di responsabilità professionale sanitaria dei MMG a fronte dell’utilizzo degli strumenti di IA.
La legge 24/2017 prevede la responsabilità contrattuale della struttura per danni cagionati dal personale a qualunque titolo operante all’interno delle strutture medesime, compreso il personale operante in regime di convenzione con il SSN, che include i MMG, i PLS, i medici di continuità assistenziale. La disposizione della legge Gelli (articolo 7 comma 2), che include i medici in convenzione nell’alveo della responsabilità contrattuale delle aziende sanitarie trae origine da una sentenza della
Corte di Cassazione che aveva affermato, con un’interpretazione del tutto innovativa, la responsabilità dell’ASL ex art. 1218 c.c. per l’errore compiuto dal medico con essa convenzionato (sentenza n. 6243 del 27 marzo 2015).
In quella vertenza, i giudici di primo grado – rimanendo aderenti all’orientamento in quel tempo maggioritario – avevano invece escluso la responsabilità dell’ASL ex art. 1228 c.c., ritenendo che gli obblighi assunti dal Servizio Sanitario Nazionale nei confronti dei cittadini abbiano un contenuto meramente organizzativo, non avente ad oggetto la prestazione professionale gravante invece esclusivamente sul medico.
Neppure era sostenibile, secondo la corte territoriale, l’applicazione del c.d. “contatto sociale” poiché nei rapporti tra il medico di base ed il paziente, l’ASL rimane interamente esclusa non avendo nessun rapporto diretto con il paziente che richiede la prestazione professionale al medico di base, né alcun potere di vigilanza, di controllo o di direzione sull’attività di quest’ultimo; attività che viene esercitata in piena autonomia alla stregua di quella di un libero professionista.
La Corte di Cassazione giunge invece a conclusioni opposte e ribaltate, prendendo le mosse da un’attenta lettura della legge n. 833/78, la quale dando effettività al precetto costituzionale di cui all’art. 32 Cost., mira a garantire i livelli minimi ed uniformi delle prestazioni sanitarie che devono essere assicurate ai cittadini, includendo “l’assistenza medico-generica” (art. 14 comma 3, lett h) tra le prestazioni “curative “ (così espressamente definite dal combinato disposto degli artt. 19 e 25 della legge 833/78) che per il SSN spettano alle Unità sanitarie locali .
Alla luce della normativa in esame, osservano i giudici di legittimità, la scelta del medico convenzionato per l’assistenza medico-generica deve avvenire nei confronti della ASL che cura la tenuta degli elenchi dei medici con i quali ha instaurato lo specifico rapporto di convenzionamento, rapporto che, pur svolgendosi in autonomia e su un piano di parità, è diretto a soddisfare le finalità istituzionali del S.S.N.
Se di responsabilità deve trattarsi, alla Asl dovrà darsi la possibilità di governarne i fattori di rischio. E ribaltando l’angolo visuale, la stessa Asl non potrà essere considerata responsabile ove non posta in condizione di cogestire il processo di prevenzione e cura, in stretta sinergia con i MMG, soprattutto nell’ottica della nuova configurazione del DM 77/2022, che prevede il coinvolgimento, seppure ancora da strutturare a livello sistemico, dei MMG nelle case di comunità, ospedali di comunità, assistenza domiciliare, utilizzo di telemedicina e piattaforma di Intelligenza artificiale. Trattasi di nuovi orizzonti di gestione del rischio, che devono essere accompagnati dalla costruzione di appositi processi di monitoraggio, intervento, programmazione, formazione.
Sfide normative e regolamentari dell’intelligenza artificiale
La gestione del rischio e i profili di responsabilità relativi alle nuove tecnologie di intelligenza artificiale meritano un particolare approfondimento: trattandosi di sistemi basati sull’autoapprendimento, appare difficile per il professionista ripercorrere l’iter della “macchina”, capire se è aderente alle linee guida validate dalle società scientifiche, verificare l’accuratezza delle previsioni sul lungo termine. Prima di poter utilizzare algoritmi di AI nei processi di prevenzione, diagnosi e cura, diventa necessario verificare la validità dell’addestramento e l’affidabilità degli output clinici, in quanto scientificamente riproducibili e validati dalla comunità scientifica. Un primo problema riguarda, quindi, la regolamentazione dei processi di addestramento delle macchine e il loro aggiornamento, che generalmente avviene automaticamente da parte della macchina.
Regolamentazione dell’intelligenza artificiale in ambito sanitario
La regolamentazione della responsabilità da impiego sanitario dell’AI ha trovato attenzione nel diritto comunitario. Nel 2017 il Parlamento europeo ha approvato una risoluzione recante ‘‘Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica’’ richiedendo alla Commissione di presentare una proposta di direttiva relativa a norme di diritto civile sulla robotica e ad indagini su strumenti anche non legislativi, quali linee guida e codici di condotta, che potessero minimizzare i rischi, sottolineando il principio dello ‘‘human in command approach’’, in virtù del quale la programmazione iniziale di cura e la scelta finale sull’esecuzione spettino sempre ad un professionista, per evitare decisioni fondate esclusivamente sul contributo degli strumenti di intelligenza artificiale.
Successivamente, nel Libro bianco sull’AI della Commissione Europea del 2020, con l’obiettivo, tra l’altro, di valutare l’adeguatezza degli esistenti regimi di responsabilità circa i vari ambiti di rischio (diritti individuali, compreso quello alla salute, diritti d’autore sui prodotti dell’AI e sull’addestramento dell’intelligenza artificiale, protezione dei dati personali e privacy), è stata evidenziata l’incertezza normativa in tema di intelligenza artificiale in merito all’attribuzione delle responsabilità tra i diversi operatori economici lungo la catena di approvvigionamento in quanto lo sviluppo e l’assemblaggio di strumenti intelligenti o di software richiede il concorso di più soggetti (sviluppatori, produttori, fornitori) che rende difficile applicare i vigenti principi di responsabilità da prodotto difettoso. Il Libro Bianco ha individuato sette requisiti fondamentali per una AI affidabile: 1) intervento e sorveglianza degli umani 2) robustezza tecnica e sicurezza 3) riservatezza e governance dei dati 4) trasparenza 5) non discriminazione ed equità 6) benessere sociale ed ambientale 7) accountability; di tali requisiti dovranno tenere conto le strutture sanitarie in sede di predisposizione dei capitolati per l’acquisizione delle macchine di AI.
Impatto della normativa europea sull’intelligenza artificiale
Nel settembre 2022 la Commissione europea ha presentato una proposta di Direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale.
La bozza prevede l’armonizzazione di norme in materia di responsabilità civile extracontrattuale per i danni causati dai sistemi di AI. Tale proposta di direttiva ha lo scopo di fornire agli utenti un quadro normativo uniforme per le varie ipotesi di danno scaturite da un difetto della programmazione o istruzione dell’AI o da una violazione dei doveri di diligenza da parte degli utilizzatori finali. Inoltre, individua i soggetti titolari del diritto al risarcimento del danno e stabilisce delle presunzioni relative del nesso di causalità in caso di colpa.
Sono previste specifiche violazioni degli obblighi di diligenza: in primis, il mancato rispetto, da parte del fornitore, della qualità dei dati di addestramento, convalida e test; mancato rispetto degli obblighi di trasparenza del sistema; progettazione del sistema che non consenta una supervisione efficace da parte dell’uomo; mancati livelli di accuratezza e cybersicurezza; mancata adozione delle necessarie azioni correttive in caso di situazioni critiche.
La Direttiva prevede, inoltre, sia obblighi di trasparenza a carico del convenuto nel giudizio promosso dal danneggiato per i sistemi di AI “ad alto rischio”, sia presunzioni riguardo l’onere della prova a carico del danneggiato nel giudizio di risarcimento, in particolare per la prova del nesso di causalità tra condotta colposa e danno prodotto dal sistema di AI e, una volta emanata, avrà un notevole impatto sul regime civilistico e sulla legge Gelli. Altra proposta di Direttiva alla quale sta lavorando l’Unione Europea riguarda la disciplina sulla responsabilità per danno da prodotto difettoso, che dovrebbe sostituire la vigente Direttiva 85/374/CEE anche per adattarla al nuovo contesto digitale, con disposizioni per facilitare l’onere della prova per il danneggiato.
Su proposta del Comitato dei rappresentanti permanenti degli Stati membri presso l’UE, il Parlamento Europeo ha adottato il 13 marzo 2024 un Regolamento (AI Act), successivamente approvato dal Consiglio dell’Unione europea il 21 maggio 2024, che introduce un approccio “basato sul rischio”, prevedendo per fornitori e utenti regole quanto più rigorose tanto maggiore sia il rischio individuato dall’utilizzo dell’AI (inaccettabile, quando costituisca una minaccia per le persone; alto, se influisca sulla sicurezza o sui diritti fondamentali, quale il diritto alla salute; minimo, che debba comunque seguire criteri di trasparenza).
Sfide legali e responsabilità nell’uso dell’IA in sanità
A fronte di uno scenario in continua e repentina evoluzione, il vigente quadro normativo potrebbe essere inadeguato ad individuare i responsabili di un danno tra i soggetti coinvolti in un processo clinico o diagnostico, a partire dai produttori, sviluppatori e manutentori del software, come già rilevato dalla Commissione europea. A questo aggiungasi le eventuali responsabilità della struttura sanitaria e degli operatori, secondo il quadro normativo definito dalla legge 24/2017 che esclude ipotesi di responsabilità oggettiva. Fondamentale, ad esempio, nella valutazione del nesso di causalità tra danno e attività dell’operatore, diventa il grado di autonomia di tali dispositivi.
Il Consiglio di Stato, con sentenza n. 7891 del 4 novembre 2021, ha distinto tra “l’algoritmo automatico”, quale sequenza definita di azioni, collegata al concetto di semplice Automazione, e l’Intelligenza Artificiale, quando l’algoritmo contempla l’utilizzo di meccanismi di machine learning, ossia un sistema “che non si limita solo ad applicare le regole dei software e i parametri preimpostati ma, al contrario, elabora nuovi criteri di interferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”.
I problemi della mancanza di trasparenza degli algoritmi IA
Pertanto, nel caso di macchine che utilizzino l’AI, appare complesso individuare il soggetto al quale sia imputabile il nesso causale e l’elemento soggettivo colposo rispetto all’eventuale danno prodotto, dovendosi indagare i profili di responsabilità della struttura sanitaria, che risponde a titolo di responsabilità contrattuale nei confronti del danneggiato; dell’operatore, che può essere direttamente coinvolto a titolo di responsabilità extracontrattuale o per rivalsa; del produttore del software, del programmatore e degli sviluppatori, dei selezionatori dei dati da inserire, delle società di manutenzione e aggiornamento. Appare evidente come non sia facile individuare le specifiche responsabilità, soprattutto perché le macchine elaborano dati secondo algoritmi predefiniti.
La mancanza di trasparenza della logica neurale, con cui opera la macchina, per motivi di privativa industriale, sfugge inevitabilmente al controllo dell’operatore che, per esempio, può trovarsi a prendere una decisione clinica sulla base di un errore diagnostico prodotto dalla macchina. C’è il rischio che la struttura o il professionista possano rispondere in questi casi, di fatto, a titolo di responsabilità oggettiva.
Presenta un importante profilo critico anche l’indagine circa la portata dell’articolo 5 della legge 24/2017, in relazione all’utilizzo di algoritmi da parte della macchina, relativamente alla loro conformità alle linee guida e buone pratiche clinico-assistenziali richiamate dalla norma in questione. Difatti, la legge 24/2017 prevede che gli esercenti le professioni sanitarie, nell’esecuzione delle prestazioni sanitarie con finalità preventive, diagnostiche, terapeutiche, palliative, riabilitative e di medicina legale, si attengano alle raccomandazioni previste dalle linee guida elaborate da enti e istituzioni pubblici e privati nonché dalle società scientifiche e dalle associazioni tecnico-scientifiche delle professioni sanitarie ovvero, in mancanza delle suddette raccomandazioni, alle buone pratiche clinico-assistenziali.
Chi potrà effettuare questa verifica in presenza di processi di deep learning? Come pure l’esaustività e la tempestività dell’aggiornamento della macchina relativamente a tali elementi? E che tipo di formazione la struttura dovrà garantire all’operatore per metterlo in condizione di operare in sicurezza? E quanto è legittimo chiedere l’intellegibilità del metodo di apprendimento della macchina, coperto da privativa industriale? A questo riguardo l’AI Act di recente approvazione impone ai fornitori di sistemi di AI classificabili ad “alto rischio” di progettare e sviluppare gli algoritmi in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire di interpretare l’output del sistema e utilizzarlo adeguatamente.
Consenso informato e utilizzo dell’intelligenza artificiale
Altra problematica riguarda il rilievo da attribuire alla limitazione della responsabilità ai sensi dell’art. 2236 c.c. La norma prevede che, nel caso di esecuzione di prestazioni di particolare difficoltà, il professionista non risponda dei danni cagionati per colpa lieve. L’implementazione di software nell’attività medica sarà idonea ad escludere la difficoltà di una prestazione oppure aggraverà la difficoltà della stessa per la necessità di verifica da parte dell’operatore dell’intero processo? Sicuramente, in caso di contenzioso medico-legale potrebbe essere opportuno coinvolgere anche consulenti esperti di AI.
Un problema di rilievo riguarda il consenso informato di trattamenti che coinvolgono strumenti di AI. La Cassazione civile, sez. I, 10 ottobre 2023, n. 28358 ha ribadito, in una vicenda che vedeva coinvolta l’AI in ambito extrasanitario, che ad integrare i presupposti del “libero e specifico” consenso, affinché esso sia legittimo e valido, è richiesto che l’interessato sia in grado di conoscere l’algoritmo, inteso come procedimento affidabile per ottenere un certo risultato o risolvere un certo problema, che venga descritto all’utente in modo non ambiguo ed in maniera dettagliata, come capace di condurre al risultato in un tempo finito. Bisogna tenere conto di queste indicazioni rispetto alle rigorose regole poste dalla legge 219/2017 sul consenso ai trattamenti sanitari.
Autore del post: Agenda Digitale Fonte: https://www.agendadigitale.eu/ Continua la lettura su: https://www.agendadigitale.eu/sanita/responsabilita-medica-nellera-dellia-le-sfide-per-la-medicina-generale/
Il Ministero delle Pari Opportunità finanzia il tuo corso digitale Chiedi tutte le informazioni a genitoridigitali@koinokalo.it |