23. maj 2024
Nu skal AI være sundhedspersonalets ”lane assist” ved ultralydsscanninger af gravide
Efter to års arbejde har et hold af forskere på tværs af de danske universiteter skabt en kunstig intelligens, der kan bedømme kvaliteten af ultralydsscanninger af gravide på baggrund af input fra erfarne læger. Modellen skal agere assistent i sundhedssektoren, så kvaliteten af scanninger kan højnes. Ikke bare i Danmark, men også i udviklingslande.
Ultralydsscanninger af gravide er en svær kunst. Mange læger har viet deres arbejdsliv til at tage de helt rigtige billeder af fostre – blot ved hjælp af en lille sonde og en skærm.
Jagten på fosteranomalier sker under vanskelige vilkår. Ultralydsstråler, fedtlag og organer går ikke altid godt i spænd, og disciplinen bliver ikke nemmere af en ofte uklar billedkvalitet, som kan være svær at tolke på.
I dag er der stor forskel på kvaliteten af ultralydsscanninger af gravide, og der er evidens for, at erfaring hos de klinikere, der udfører scanningerne, korrelerer med, hvorvidt væksthæmning bliver opdaget. Det understreger behovet for at standardisere kvaliteten af ultralydsscanninger på tværs af klinikere og hospitaler. Her kan kunstig intelligens spille en stor rolle som en mentor for de mindre erfarne klinikere.
Læger træner algoritmen
Som en del af projektet EXPLAIN-ME har en gruppe forskere siden 2021 forsøgt at skabe en forklarlig kunstig intelligens (XAI), som er designet til at vejlede sundhedspersonale i at udføre højkvalitetsscanninger selv uden dybdegående ekspertise.
Et markant gennembrud i projektet har været udviklingen af en algoritme, der på baggrund af erfarne lægers kriterier for gode ultralydsscanninger er kommet op på et niveau, hvor den er lige så god som en erfaren kliniker til at udvælge gode scanningsbilleder fra en undersøgelse.
”Ultralydsscanninger kræver meget erfaring og specialiserede evner. Det er ret svært at få et godt billede. Det betyder, at der er stor forskel på kvaliteten af de screeninger, de forskellige hospitaler foretager. Vi håber på, at vores projekt kan udjævne kvalitetsforskellen,” siger Aasa Feragen, projektleder på EXPLAIN-ME-projektet og professor på DTU Compute.
Tæt parløb mellem praktik og teori
Med en effektiv AI-model og halvandet år til færdiggørelsen af projektet bliver næste skridt at finde ud af, hvordan modellen bedst kan kommunikere til sundhedspersonalet. En disciplin, som ofte bliver overset i forskerverden.
”Vi arbejder meget tæt sammen med læger og sonografer. Det er utrolig vigtigt, at vi som tekniske forskere får viden om, hvad det er der skal til, for at vores modeller kan rykke noget ude i samfundet,” siger Aasa Feragen.
Derfor har Ph.D studerende Jakob Ambsdorf fået unik adgang til sundhedspersonalet hos Copenhagen Academy for Medical Education and Simulation (CAMES) på Rigshospitalet for at for at forstå sundhedspersonalets behov.
“Jeg har tilbragt meget tid i klinikken på Rigshospitalet for at finde ud af, hvad personalet finder vanskeligt. Derfor ved vi nu, at sonografer ikke nødvendigvis har brug for hjælp til diagnosticering. De har brug for at forbedre deres billeder. Så i stedet for at forsøge at efterligne menneskelige beslutninger skal vi forbedre de omkringliggende faktorer. For eksempel kan vi anbefale dem at flytte sonden lidt til højre eller ændre nogle indstillinger, som gør, at billedet bliver klarere. Som en slags lane-assist til sonografer og læger,” siger han.
Kan udbredes til tredjeverdenslande
Med afslutningen af projektet i sigte i 2025, er det centrale mål at bygge ovenpå XAI-modellen, så den kan give mindre erfarent sundhedspersonale værktøjerne til selv at udføre avancerede scanninger. Ikke bare i Danmark, men i hele verden. XAI-modellen fra Københavns Universitet er allerede blevet testet med data fra Tanzania og Sierra Leone.
”På sigt kan man bruge modellen i områder, hvor der er begrænset adgang til udstyr af høj kvalitet, og hvor det er svært at finde specialiseret personale,” slutter Jakob Ambsdorf.
DIREC har støttet EXPLAIN-ME-projektet med 7,39 mio. kr. Ud over et fokus på ultralydsscanninger fokuserer projektet på diagnosticering af nyre-tumorer og robot-kirurgi.
Hvad er forklarlig kunstig intelligens (XAI)?
Forklarlig kunstig intelligens handler om at forklare baggrunden for AI-modellers output og styrke tilliden til modellens beslutninger. Maskinlæringsmodeller bliver mere og mere komplekse. Samtidig bliver de i stigende grad brugt til at tage vigtige beslutninger. Med forklarlig kunstig intelligens kan brugeren bl.a. finde frem til, hvilke data modellen er trænet på og vurdere om outputtet er korrekt.