Life Science-industrien er for alvor gået i gang med at samle de muligheder op, som AI baserede systemer byder på. Kunstig intelligens (AI) er ikke længere en fremtidsvision. Den er en realitet, der transformerer måden, vi udvikler, tester og validerer systemer på.
– En udvikling, som skaber enorme muligheder for effektivisering og øgning af kvaliteten, men også komplekse udfordringer med compliance og eksisterende regulatoriske krav, lyder det fra Industry Sales Lead i Twoday, Kasper Goth.
Han har fulgt området i mange år og via sin rolle ind mod Life Science industrien, er han optaget af, hvordan vi får indarbejdet AI logikker i en stærkt reguleret industri.
AI baserede systemer bryder med logikken
I årtier har GxP validering af systemer og processer i Life Science industrien fulgt veletablerede standarder. Udgangspunktet har været, og er fortsat, forudsigelighed som dokumenteres via repeterbare tests, screendumps og omfattende dokumentation. Når et system eller en proces bliver valideret, er det med en klar forventning: Samme input giver samme output – hver gang.
– AI bryder med denne logik” lyder det fra Nicholai Stålung, som er Head of AI i Twoday. ”Algoritmerne er mere dynamiske, og output kan variere afhængigt af kontekst, data og prompts. Man kan sige, at AI leverer svar, der er mindre sort/hvide og i højere grad svar, som er ”de mest rigtige” og ikke nødvendigvis ”de eneste rigtige, tilføjer han.
AI baserede systemer udfordrer den traditionelle tilgang til systemvalidering
Regulatoriske myndigheder som EMA (European Medicines Agency) og FDA (U.S. Food and Drug Administration) stiller fortsat de samme grundlæggende krav til GxP systemer i Life Science: dokumentation, sporbarhed, og forudsigelighed. Disse krav ændrer sig ikke væsentligt, blot fordi teknologien gør. Hvilket rummer en udfordring, som vi først er ved at tage hul på. Vi skal blive i stand til at foretage valideringen på AI teknologiens præmisser og ikke, som det er tilfældet i dag, med udgangspunkt i de traditionelle systemer, hvor et svar enten er helt rigtigt eller helt forkert.
Ifølge Nicholai Stålung er der en række nye ting, som bliver vigtige for at forstå, om systemet giver det ønskede output:
– Hvilke data er modellen trænet på?
– Hvor henter systemet data fra til beslutningstagning?
– Vil ændringer over tid kunne forandre logik og dermed output?
– Systemets logik bliver vigtigere at forstå og er et vigtigt input i den valideringsmæssige vurdering af systemet.
Desuden skal der etableres kontroller, som adresserer kendte AI-risici såsom bias, hallucinationer og datadrift. Det betyder, at validering ikke længere kan ses som en engangsaktivitet ved go-live, men som en kontinuerlig proces, hvor modellen overvåges, revurderes og eventuelt revalideres løbende. Compliance bliver dermed endnu tættere koblet til governance og drift, hvor validering i dag primært er en projektaktivitet.
Et forsigtigt bud på fremtiden
Ser vi fremad, vil AI i Life Science bevæge sig fra eksperiment til etableret praksis. Det vil sandsynligvis ske i takt med, at regulatoriske rammer bliver mere konkrete, og myndighederne tydeliggør deres forventninger til validering af AI-baserede systemer.
En vigtig trend kan blive hybridmodeller, hvor AI assisterer i analyser, dokumentation og beslutningsstøtte, mens det endelige ansvar fortsat ligger hos mennesker. Human-in-the-loop-principper vil være centrale for at sikre både kvalitet, compliance og tillid.
Samtidig vil governance, etik og transparens få øget betydning. Organisationer vil i højere grad skulle kunne dokumentere, hvordan AI anvendes, hvilke data der bruges, og hvordan risici håndteres organisatorisk og ikke kun teknisk. Validering af AI-logik bliver dermed ikke blot et IT- eller kvalitetsanliggende, men et strategisk tema, der involverer ledelse, compliance, jura og forretningen som helhed.
– Kort sagt kan vi sige, at AI er ikke bare en teknologisk opgradering. Det er en ny virkelighed, der kræver, at vi gentænker hele compliance-rammen, siger Kasper Goth
Selv om brugen af AI stadig er på et tidligt stadie, har vi allerede AI logikker tilstede i GxP miljøer, og vi skal forholde os til, hvordan vi kan udføre GxP validering i systemer, hvor AI indgår. Vores råd til kunder, der står foran at skulle validere logik indeholdende AI er, at der udarbejdes en intern guideline, der behandler håndteringen af AI elementer i forbindelse med validering. En guideline, hvor projektfolk, fagspecialister og QA som minimum bør være involverede. Ligeledes bør følgende indgå i denne guideline:
– Hvordan dokumenterer vi prompting, logik og kode?
– Hvordan dokumenterer vi de data, som systemet er trænet på?
– Hvordan dokumenterer vi, at AI indgår og hvilke dele, der understøttes af AI?
– Hvordan sikrer vi særlig grundighed i forbindelse med dokumentation af AI elementerne
En hel branche med tilhørende lovgivere står foran en kæmpe kulturel omvæltning.
Kasper Goth mener, at vi bør skabe nogle umiddelbare retningslinjer, som støtter det forestående arbejde med validering af AI baserede GxP systemer. Senere kommer vi til at skabe en fundamental ændring af arbejdet med systemerne. Vi skal udarbejde helt nye standarder og processer, som imødekommer de fremtidige IT-systemers mere komplekse logik og giver plads til AI’s helt store styrke – systemer der kan forbedre sig selv over tid, og hvor ny funktionalitet kommer til i en helt anden hastighed, end vi har set tidligere.


