En bruten arm i gips.
Artificeill intelligens, AI, kan användas för att upptäcka benfrakturer på röntgenbilder. Foto: Håkon Mosvold Larsen/TT

AI i vården – får en maskin göra fel?

2:21 min

Artificiell intelligens, AI, kan få stor användning i vården. Men etiken kring tekniken behöver diskuteras, enligt Statens Medicinsk-etiska råd.

Artificiell intelligens och liknande tekniker där datorer kan lära sig att utföra vissa uppgifter kan få stor betydelse inom vård och omsorg i framtiden.

Men nu när det forskas mycket på det här är det också viktigt att diskutera de etiska frågor som kan uppstå. Det menar Statens Medicinsk-etiska råd som därför nyligen ägnade ett seminarium åt att prata om AI och etik inom vården.

En av dem som deltog där var ortopeden André Stark vid Karolinska institutet och Danderyds sjukhus i Stockholm. Han forskar själv på AI och röntgendiagnostik som kan hjälpa framför allt mindre erfarna läkare.

– Det är ont om radiologer. Och på natten är det ofta unga kollegor som är ensamma på sjukhuset. Om man hade någonting som hjälpte dem att tolka bilderna vore det en oerhörd hjälp, säger han.

Det handlar om datorer som hjälper läkare att titta på röntgenbilder för att bestämma om ett ben är brutet, och i så fall vilken typ av fraktur det handlar om.

Det går att lära vissa datorsystem genom att mata dem med en massa olika röntgenbilder tills de har tränat upp sin förmåga att tolka en röntgenbild korrekt.

Men det är också en typisk situation där etiska problem kan uppstå. För hur mycket fel ska man acceptera? Att fela är ju mänskligt, till exempel när vi blir trötta och hungriga. Men en maskin kan vara svårare att förlåta.

– Naturligtvis kommer den också att göra fel. Men där ska man fråga sig vilken felnivå man ska lägga sig på. Vi är väldigt nöjda om vi ligger på 95 procent, och över 90 procent börjar det bli bra.

André Stark säger också att beslutet om felnivå säkert skulle bli strängare om det skulle handla om att upptäcka cancer. Där kan ju konsekvensen av en feltolkning leda till att patienten dör.

En annan sak som togs upp på seminariet, och som vi säkert kommer att höra mer om i framtiden, handlade om hur lagstiftningen ska anpassas till den nya tekniken.

Det finns också en diskussion kring vad som händer med den personliga integriteten när vi ger uppgifter om oss själva till intelligent teknik som ska hjälpa oss med till exempel individanpassade program för att minska stress eller att upptäcka tidiga tecken på ohälsa.

Grunden i vår journalistik är trovärdighet och opartiskhet. Sveriges Radio är oberoende i förhållande till politiska, religiösa, ekonomiska, offentliga och privata särintressen.
Du hittar dina sparade ljud i menyn under Min lista