AI
Eksperter advarer: Kunstig intelligens kan gjøre det vanskeligere å fastslå skyld i helsesaker
Vanskelig å plassere ansvar
Bruken av kunstig intelligens i helsevesenet vokser raskt, men eksperter advarer om at teknologien kan skape store juridiske utfordringer når det gjelder å fastslå skyld ved medisinske feil. I en ny rapport pekes det på at AI kan komplisere ansvarsfordelingen mellom leger, produsenter og helseforetak dersom et behandlingsforløp går galt.
Professor Derek Angus ved University of Pittsburgh sier at det uunngåelig vil oppstå situasjoner der noe går galt, og hvor det blir uklart hvem som egentlig har ansvaret.
Uklarhet om skyld og rettigheter
Rapporten, skrevet etter en internasjonal konferanse arrangert av det medisinske tidsskriftet JAMA, samler synspunkter fra fagfolk, jurister, forsikringsselskaper og teknologiselskaper. Professor Glenn Cohen fra Harvard Law School påpeker at pasienter kan få store problemer med å bevise feil i design eller bruk av et AI-system. Ofte er teknologien lukket for innsyn, og det kan være umulig å vise hvordan en algoritme kom frem til en beslutning. Det skriver The Guardian.
Les også: Advarsel: Falsk e-post utgir seg for å være fra BankID
Cohen forklarer at det også kan bli vanskelig å finne hvem som skal stilles til ansvar. Sykehus, utviklere og leverandører kan peke på hverandre, og mange har kontrakter som forskyver ansvaret mellom partene.
Domstolene står overfor en ny virkelighet
Professor Michelle Mello fra Stanford Law School mener rettssystemet vil kunne håndtere slike saker, men at det vil ta tid før rettspraksis blir stabil. I mellomtiden vil usikkerheten føre til økte kostnader både for helsevesenet og for selskapene som utvikler teknologien.
Bekymring for manglende testing
Rapporten advarer også mot at mange AI-verktøy i helsevesenet tas i bruk uten tilstrekkelig testing. Flere systemer faller utenfor tilsynet til myndigheter som USAs legemiddeltilsyn FDA. Angus peker på at godkjenningen av slike systemer ofte ikke krever dokumentasjon på reelle helseforbedringer, og at verktøyene i praksis brukes på svært ulike måter i ulike sykehus og pasientgrupper.
Etterlyser bedre evaluering og finansiering
Forskerne bak rapporten mener det må investeres mer i digital infrastruktur og uavhengig evaluering av AI-verktøy før de tas i bruk. De peker på et paradoks: Verktøyene som er best dokumentert, brukes minst, mens de som er mest utbredt, ofte er dårligst testet.
Ekspertene konkluderer med at kunstig intelligens har enormt potensial i medisinsk praksis, men at den juridiske og etiske reguleringen må styrkes dersom teknologien skal bidra til trygg og ansvarlig helsehjelp.