Laici favorevoli all'uso dell'IA in medicina
I ricercatori dell'ETH hanno condotto un esperimento per studiare come le giurie valutano la responsabilità dei medici quando utilizzano l'intelligenza artificiale.
L'intelligenza artificiale (AI) sta già supportando i medici nelle loro decisioni. Questo sviluppo è destinato a diventare sempre più importante, soprattutto nella medicina personalizzata. Tuttavia, se in futuro tali tecnologie forniranno raccomandazioni dirette per l'azione, sorgeranno anche questioni legali: quale impatto avrà l'uso dell'IA sulla responsabilità dei medici in caso di errori e danni alle persone?
Esperimento legale
I ricercatori dell'ETH del gruppo di Alexander Stremitzer, professore di diritto ed economia, hanno analizzato la questione con un esperimento sul caso dei tribunali americani con giuria. Hanno chiesto a un campione rappresentativo di 2000 adulti americani, che teoricamente potrebbero fungere da giurati, come valuterebbero la responsabilità di un medico dopo aver letto uno dei quattro diversi scenari.
Gli scenari si differenziavano per due parametri: a seconda dello scenario, il medico seguiva o meno le raccomandazioni dell'intelligenza artificiale e si discostava o meno dal trattamento standard.
Chi si oppone all'IA non è protetto
I risultati sono particolarmente sorprendenti per uno scenario: un medico non si protegge dalla responsabilità se contraddice l'IA, anche se questa suggerisce un trattamento che si discosta dallo standard. Gli autori dello studio concludono che i laici (che siedono nelle giurie) non sono così critici nei confronti dell'uso dell'IA in medicina come si pensava in precedenza.
Riferimento alla letteratura
Tobia K, Nielsen A, Stremitzer A: Quando l'uso dell'IA da parte dei medici aumenta la responsabilità? Journal of Nuclear Medicine 2021, 62: 17. DOI: pagina esterna10.2967/jnumed.120.256032