Artikel

Hur ska vården förhålla sig till den intelligenta tekniken?

Marcus Lingman

Överläkare och expert på artificiell intelligens – genom den unika kombinationen rör han sig i två skilda världar som nyligen har fått upp ögonen för varandra. När vården står i centrum för diskussionen om regleringen av AI, vem vill man hellre prata med om hur sektorn kan förhålla sig till de nya möjligheterna, än Markus Lingman?

När Markus Lingman pratar om AI får han det att låta enkelt, eller åtminstone självklart. På frågan Vad är AI egentligen? svarar han: multidimensionella icke linjära matematiska modeller. Varken mer eller mindre. Vi kommer överens om att begreppet AI är komplicerat i sig och att man antagligen gör bäst i att inte gräva ner sig i definitioner och tekniska specifikationer. Det är mycket som kallas AI idag som inte är AI, men som Markus säger:

Något måste vi ju kalla det, för att kunna prata om ämnet överhuvudtaget.

Kombinerar teknik och medicin

Markus har blivit en förespråkare, eller snarare en översättare, av AI inom vården. Med sin unika kombination av djup förståelse inom både data science och medicin bygger Markus broar mellan områdena, på ett sätt som inte många kan. Vägen till utmärkelsen ”Årets AI-svensk” som Markus fick motta förra året, började med en civilingenjörsutbildning och fortsatte med specialistutbildning i hjärtsjukvård och forskning på Sahlgrenska akademin. Idag arbetar han som strateg i Region Halland och är djupt engagerad i Leap for Life, som är Hallands gemensamma satsning på informationsdriven vård.

Explainable AI är nästa steg

Markus arbetar för ökad förståelse och tillämpning av AI inom vården och en av de saker han intresserar sig för mest just nu är ”explainable AI” – nästa generations AI, där systemet kan förklara för en människa hur det kommit fram till sitt svar. Det är ett ganska stort steg från den ”svarta låda” vi är vana vid, där inte ens utvecklarna kan svara på varför en modell kom fram till ett specifikt beslut.

Bygga tillit för tekniken

Det har blivit tydligt att verktyg baserade på AI-modeller inte utvärderas som vilken medicinteknisk produkt som helst. Det finns en större efterfrågan från inköparna att känna till hur det fungerar. Men Markus tror inte att vägen framåt för AI inom vården är att vårdutövarna och läkarna förstår exakt hur det fungerar (det är också helt omöjligt). Utan att bygga tillit kring tekniken. Vilket just är syftet med ”explainable AI”.

Transparensen kring tekniken behövs, ännu mer av mänskliga skäl än av regulatoriska. De som ska använda tekniken måste lita på verktygen tillräckligt mycket för att använda dem. Inom vården gör vi redan massa saker idag som vi inte förstår hur de fungerar. En magnetkameraundersökning vet vi hur vi ska använda och vilket resultat den ger, men få vet exakt hur den fungerar. När vi godkänner läkemedel har vi inte krav på att kunna beskriva funktionen på molekylärnivå.

Hur skapar man tillit till AI inom vården idag?

Att kunna förklara på en övergripande nivå hur modellerna fungerar är bra och att förstå att vården är fylld av humanister och att läkare är personligt ansvariga för rekommendationerna de ger. Men även att det finns kontrollorgan som går i god för kvaliteten.

Skilda världar

För att förstå AI inom vården, behöver man förstå vården och var den kommer ifrån, menar Markus. Det finns många sanningar inom medicinsk forskning, vårdorganisationer och läkaryrket som helt eller delvis krockar med data science. Mest uppenbart är det humanistiska perspektivet, men även när det gäller synen på forskning och statistik skiljer sig skolorna åt. Där vården utgår från hypoteser i forskningsmetoden utgår data science från annoterade data.

Vården kommer från klassisk statistik som, matematiskt sett, är en förenkling av verkligheten. Väljer man det, bestämmer man sig samtidigt för att inte beskriva verkligheten så komplex som den är. AI däremot, kan beakta fler aspekter, men till priset av mindre begriplighet.

1072 variabler är närmare verkligheten

På Hallands sjukhus byggde Markus och hans team en modell där de tittade på risken för återinläggningar av patienter som varit hos dem. De la då in i princip hela sin databas med tiotusentals variabler och lät sedan modellen koka ner antalet variabler till ett optimum. Men landade ändå i 1072 variabler per patient som tillförde modellens prestanda någonting.

Det viktiga budskapet här tycker jag är att det är så verkligheten ser ut. För lägger man bara in 12 variabler som man tror har betydelse, så gör man det för att det ska bli begripligt, inte för att det liknar verkligheten.

Medan explorativa analyser inte räcker hela vägen inom medicinsk forskning, bygger AI-modellerna ofta på att modellen själv hittar associationerna. Målet är att förstå en mer komplex verklighet och det är här Markus tror att artificiell intelligens kommer att kunna förändra sjukvården i grunden och hjälpa oss att uppnå något riktigt värdefullt på längre sikt: precisionssjukvård.

Möjligheten att hantera det ohanterbara

Artificiell intelligens låter oss ta hänsyn till det som tidigare varit omöjligt att ta hänsyn till i stor skala. Tekniken kan behandla enorma mängder information och sannolikheter och se mönster – för varje enskild individ.

AI kommer att ha en viktig roll i att räkna ut risker och sannolikheter för just dig som individ och inte som dig som del av en grupp. Tidigare har vi resonerat att om du har hjärtsvikt så ska du ha hjärtsviktsmedicinering som vi ger till alla som har hjärtsvikt, för det har vi sett i studier att den gruppen mår bra av. Nu går vi mot: du har hjärtsvikt av precis det här skälet och tillsammans med dina andra förutsättningar så är det precis den här behandlingen som du ska ha för störst chans att må bättre eller leva längre.

Förhoppningen är att maskinerna ska hjälpa oss att uppnå en mer mänsklig vård. För 100 år sen kände doktorn alla sina patienter. Sen gav vi oss in i ”gruppsjukvården”, baserad på randomiserade kontrollerade studier. Framgångsrikt och vällovligt. Men nu har vi blivit ännu fler som vården ska ta hand om. Kanske har vi trots det chansen, med hjälp av AI, att gå tillbaka till en mer individanpassad sjukvård.

Är mänskligt bättre än högpresterande?

Frågan är bara hur bra verktygen baserade på AI måste vara för att vården ska våga utnyttja dess fulla kraft? I väntan på nya regelverk är helt automatiserade medicinska beslut inte lagligt i Sverige och verktyg baserade på AI-modeller används enbart som beslutsstöd för vårdgivaren.

Det finns mängder av studier där man jämför en AI-modell med precisionen hos en kliniker som visar att den är ungefär lika bra eller lite bättre. Räcker det?

Markus låter frågan hänga i luften.

Ibland kan man behöva addera mänsklig kunskap i AI-modeller för att kompensera för vissa svagheter, till exempel nya förutsättningar. Det kallas hybridmodeller och kan göra modellens prestanda sämre. Ibland är fördelarna med att blanda in människan liten och förlusten av prestanda stor. Det öppnar upp för en intressant diskussion om vad som är viktigast; mänskligt eller högpresterande?

Då kan vi hamna i ett läge där det är olagligt att använda automatiserade beslut, men oetiskt att inte göra det.

Riktlinjer idag, märkningar i framtiden?

Samhällsdiskussionen om AI inom vården fortsätter och EUs förslag till förordning om harmoniserade regler för artificiell intelligens[1] är ute på remiss. Under tiden har WHO kommit med sin Ethics and governance of artificial intelligence for health[2] som kan guida inköpare inom vården mot så patientsäkra beslut som möjligt.

En sista fråga Markus; hur tror du vården kommer att förhålla sig till teknik baserad på AI i framtiden?

Om 10 år tror jag inte man kommer tänka på att det är AI-modeller bakom beslutsstödet alls. Det kommer antagligen att finnas en kvalitetsstämpel som berättar hur bra beslutsstödet är och då nöjer man sig med det, som med vilket verktyg som helst.

[1] https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0003.02/DOC_1&format=PDF

[2] https://www.who.int/publications/i/item/9789240029200

Marcus Olivecrona