Følg oss her

AI

Eksperter advarer: Kunstig intelligens kan gjøre det vanskeligere å fastslå skyld i helsesaker

Vanskelig å plassere ansvar

Publisert

d.

Foto: Shutterstock.com

Bruken av kunstig intelligens i helsevesenet vokser raskt, men eksperter advarer om at teknologien kan skape store juridiske utfordringer når det gjelder å fastslå skyld ved medisinske feil. I en ny rapport pekes det på at AI kan komplisere ansvarsfordelingen mellom leger, produsenter og helseforetak dersom et behandlingsforløp går galt.

Professor Derek Angus ved University of Pittsburgh sier at det uunngåelig vil oppstå situasjoner der noe går galt, og hvor det blir uklart hvem som egentlig har ansvaret.

Uklarhet om skyld og rettigheter

Rapporten, skrevet etter en internasjonal konferanse arrangert av det medisinske tidsskriftet JAMA, samler synspunkter fra fagfolk, jurister, forsikringsselskaper og teknologiselskaper. Professor Glenn Cohen fra Harvard Law School påpeker at pasienter kan få store problemer med å bevise feil i design eller bruk av et AI-system. Ofte er teknologien lukket for innsyn, og det kan være umulig å vise hvordan en algoritme kom frem til en beslutning. Det skriver The Guardian.

Les også: Advarsel: Falsk e-post utgir seg for å være fra BankID

Cohen forklarer at det også kan bli vanskelig å finne hvem som skal stilles til ansvar. Sykehus, utviklere og leverandører kan peke på hverandre, og mange har kontrakter som forskyver ansvaret mellom partene.

Domstolene står overfor en ny virkelighet

Professor Michelle Mello fra Stanford Law School mener rettssystemet vil kunne håndtere slike saker, men at det vil ta tid før rettspraksis blir stabil. I mellomtiden vil usikkerheten føre til økte kostnader både for helsevesenet og for selskapene som utvikler teknologien.

Bekymring for manglende testing

Rapporten advarer også mot at mange AI-verktøy i helsevesenet tas i bruk uten tilstrekkelig testing. Flere systemer faller utenfor tilsynet til myndigheter som USAs legemiddeltilsyn FDA. Angus peker på at godkjenningen av slike systemer ofte ikke krever dokumentasjon på reelle helseforbedringer, og at verktøyene i praksis brukes på svært ulike måter i ulike sykehus og pasientgrupper.

Etterlyser bedre evaluering og finansiering

Forskerne bak rapporten mener det må investeres mer i digital infrastruktur og uavhengig evaluering av AI-verktøy før de tas i bruk. De peker på et paradoks: Verktøyene som er best dokumentert, brukes minst, mens de som er mest utbredt, ofte er dårligst testet.

Ekspertene konkluderer med at kunstig intelligens har enormt potensial i medisinsk praksis, men at den juridiske og etiske reguleringen må styrkes dersom teknologien skal bidra til trygg og ansvarlig helsehjelp.

Les også: Ny toll fra Trump får bensinprisene til å stige

Hei, jeg heter Amandus. Jeg er skribent i Media Group Denmark, der jeg hovedsakelig jobber med Teksiden.no. Her skriver jeg om nye biler, mobiltelefoner og annen spennende teknologi. Jeg har vært skribent i seks måneder, med et særlig fokus på teknologinyheter.

Annonse