Hva er kunstig intelligens?
Det er ingen etablert enighet om hvordan man bør definere kunstig intelligens (KI), men de aller fleste er enige om at fenomenet beskriver en form for datasystemer som er «intelligente». Intelligent betyr i denne sammenheng at systemet har egenskaper som gjør dem i stand til problemløsing og å lære av erfaring. For at kunstig intelligens skal brukes effektivt og medisinsk forsvarlig i helsevesenet, kreves det at man stiller strenge krav til åpenhet om algoritmene. De må minst være like strenge som det man krever av vitenskapelig dokumentasjon før man tar i bruk nye medisiner eller endrer medisinsk praksis i helsevesenet.
Algoritmer – oppskrift og DNA
![portrett av ishita barua](/om/aktuelt/blogg/2019/bilete/ishita-barua-portrett300px.png)
Foto: UiO
Algoritmer er utgangspunktet for kunstig intelligens. Vi kan si at algoritmer er for kunstig intelligens det DNA er for mennesker-en oppskrift på oppbygning og virkemåte. Om algoritmene skal bli riktige må de bruke data av høy kvalitet som grunnlag for kommandoer og handlingsmønstre. Allerede i dag brukes kunstig intelligens til selvkjørende biler og til å diagnostisere hudkreft. Resultatene er på høyde med resultatene fra erfarne hudleger. God algoritmeutvikling forutsetter representative data og at man kontrollerer for skjevheter, såkalte «bias» som kan gi upresis medisinsk behandling. Bias kan oppstå som følge av fenomenet «black box», der det ikke er åpenhet om hvem som utviklet algoritmen eller hva slags data den er basert på. Slik kan manglende innsyn og åpenhet om algoritmeutvikling resultere i «uønskede» utfall der for eksempel enkelte pasientgrupper blir oversett, over-/underbehandlet eller diskriminert.
Skjevt datagrunnlag gir dårligere algoritmer
Dårlig kvalitet på datagrunnlaget og uheldig algoritmeutvikling kan altså ramme helsevesenet. Et eksempel på dette er resultatet av manglende kjønnsperspektiv i medisinsk forskning som gjør at kvinnelige pasienter kan få et dårligere behandlingstilbud enn mannlige. Forskere ved Aarhus Universitet publiserte i 2017 forskning som viste at en mer kjønnsbalansert forskergruppe gir mer kjønnsbalanserte funn og dermed bedre kunnskap om sykdommer hos både kvinner og menn (Nature Human Behaviour). Man får altså ikke bedre algoritmer enn kvaliteten på dataene man bruker og her kan leger og forskere bidra med sin fagkunnskap innen helse. Uten kvalitetssikring kan algoritmer dermed resultere i feilbehandling grunnet diskriminering, mindre likestilling eller økt polarisering dersom algoritmene gjentar handlingsmønstre allerede tilstede i datamaterialet. Bevissthet om dette må bane veien for ansvarlig algoritmeutvikling.
Global KI-utvikling innen medisin
Siden 2014 har omtrent 40 algoritme- og kunstig intelligensbaserte medisinske verktøy, blitt godkjent av det amerikanske legemiddelverket, FDA. Det innebærer at de er godkjente for bruk på pasienter. Fagområdene som har flest godkjenninger til klinisk bruk er radiologi, kardiologi og endokrinologi.
Her er noen eksempler på slike algoritmebaserte medisinske verktøy
- AliveCor med algoritme for å oppdage hjerteflimmer, godkjent i 2014
- InPen med algoritme for å anslå insulindosering, godkjent i 2016.
- Aidoc med algoritme for å gjenkjenne hjerneblødning på CT, godkjent i 2018.
Fremtidens helsepersonell
I Norge har helsepersonell ennå ikke begynt å ta i bruk algoritmer som er basert på kunstig intelligens i hverdagen, men flere steder forskes det på området. Det er derfor viktig at også helsepersonell engasjerer seg i den teknologiske utviklingen som pågår innenfor kunstig intelligens. I Teknologirådets rapport om kunstig intelligens og maskinlæring, er det presentert klare anbefalinger om at alle profesjoner og utdanningsløp, både på universitets- og høyskolenivå, bør få en innføring i kunstig intelligens og maskinlæring. For at leger og andre helsepersonell skal kunne bidra med sin unike fagkompetanse innen helse, er det viktig at de får verktøyene til å delta. I nær fremtid vil det være behov for helsepersonell som stiller de riktige spørsmålene om algoritmene, og som kan peke ut utfordringene man møter i skjæringspunktet mellom ny teknologi og pasientsikkerhet.