Hvem har ansvaret, når en førerløs bil kører galt? Er det OK, at politiet bruger algoritmer til at forudsige, hvem der begår kriminalitet? Eller at kommunen bruger sociale data til at overvåge særlige grupper? Dilemmaerne ved ny teknologi er mange – det samme er mulighederne.
Den 1. februar i år åbnede SCIENCE AI Centre på Datalogisk Institut på Københavns Universitet, som bruger kunstig intelligens til at analysere store mængder data fra andre videnskaber på Det Natur- og Biovidenskabelig Fakultet på Københavns Universitet.
Men sideløbende med det teknologiske arbejde med AI skal to forskere også afdække de etiske faldgruber ved brugen af kunstig intelligens. Det drejer sig om Peter Sandøe, der arbejder som professor i bioetik på både SCIENCE og SUND, og Sune Hannibal Holm, der lige nu er lektor i filosofi på HUM, men fra 1. januar skifter til en stilling på SCIENCE.
– Det er vigtigt, at vi som universitet får manifesteret, at når vi involverer os i ny teknologi som AI, så sker det på en ansvarlig måde, og det bliver diskuteret indgående, hvad vi vil med den, siger Sune Holm og Peter Sandøe, som de næste to års tid skal undersøge de etiske AI-krinkelkroge til bunds.
Som eksempel på et af de etiske dilemmaer, der tidligere har fyldt meget i offentligheden, nævner de forskere tidligere årtiers diskussioner om genmodificering af bl.a. planter og fødevarer. Her har skeptikernes stemme og frygten for ny teknologi ført til, at nye teknologiske muligheder er blevet valgt fra på et spinkelt videnskabeligt grundlag.
Deres pointe med den sammenligning er, at debatten skal være balanceret, oplyst og nuanceret, så man i fællesskab kan drage nytte af nye teknologier på en måde, hvor ikke alene videnskaben og virksomhederne, men også befolkningen føler sig hørt.
– Vi har ikke løsningen på, om kunstig intelligens og brugen af algoritmer er rigtig eller forkert, men vi skal forsøge at forstå de overvejelser, der ligger hos både skeptikerne og dem, der gerne vil skubbe bag på udviklingen, siger Peter Sandøe.
Hvad kan konsekvensen være, hvis vi som samfund ikke får skabt en nuanceret debat om emnet?
– Det kan koste samfundet både velstand og velfærd, hvis ikke man gør det. Hvis de produkter, som vores forskere er med til at udvikle til fx sundhedsvæsnet, skal gøre en forskel, så skal de kunne afsættes. Og det kan de kun, hvis vi har haft en diskussion om, hvordan produkterne kan anvendes både til gavn og med respekt for borgerne, siger Sune Hannibal Holm.
I løbet af projektet skal de to etikere følge forskere på SCIENCE AI Centre (Datalogisk Institut) og andre relevante danske og internationale forskningsmiljøer for at få førstehåndsviden om de mest presserende problematikker i forhold til etik og normer for god praksis på området.
De skal også arrangere debatter og workshops og bidrage til at designe et etisk kodeks, som beskriver ansvarlig forsknings- og innovationspraksis inden for kunstig intelligens. Samtidig skal de implementere den etiske dimension i undervisningen, så de studerende tager den med sig ud i virkeligheden.
Kontaktinformation
Peter Sandøe
Tlf.: 35 33 30 59