Siden ChatGPT blev lanceret i 2022 har kunstig intelligens gjort sit massive indtog – ofte til gavn og glæde, men ikke altid uden omkostninger. En analyse fra Dansk Erhverv viste i efteråret, at mere end halvdelen af danskerne bruger ChatGPT eller andre sprogmodeller, og blandt de 18-29-årige gælder det hele 84 procent. Samtidig tegner et studie fra Aarhus Universitet et billede af, hvor dybt AI kan trænge ind i børns og unges liv. Det viser, at cirka hver syvende gymnasieelev har haft venne-lignende samtaler med en chatbot,

Mens børn og unge i stigende grad bruger AI-chatbots til alt fra lektier og underholdning til personlige samtaler, er det ifølge Jens Myrup Pedersen, der er professor i cybersikkerhed ved Aalborg Universitet, forbundet med en reel risiko for især børns privatliv og sikkerhed, fordi de oplysninger, man deler, kan blive lagret og genbrugt i årevis.
– Generelt deler vi – børn og voksne – ukritisk alt for mange oplysninger, og der er ikke rigtig nogen, der forstår præcist, hvor meget data der indsamles. Det akkumulerer gennem et langt liv, og det bliver ikke slettet, og det kan misbruges, siger Jens Myrup Pedersen og pointerer:
– Børn deler ofte personlige oplysninger uden at forstå konsekvenserne, og især over for børn har vi en forpligtelse til at passe på. Selv tilsyneladende uskyldige oplysninger om for eksempel skole, familie og følelser kan bruges til at opbygge detaljerede profiler over tid, som kan få konsekvenser senere i livet. Det man har delt med en AI, kan eksempelvis i princippet bruges til afpresning i de forkerte hænder.
Manglende gennemsigtighed
De mest anvendte AI-chatbots drives af internationale techgiganter uden for EU. Det gør det både vanskeligt at gennemskue, hvem der reelt har adgang til de data, der indsamles, og hvordan de kan bruges. Og selv om det står i GDPR, at børn har særligt krav på beskyttelse af deres data, er det ifølge Jens Myrup Pedersen lettere sagt end gjort.
– Der er svært at håndhæve GDPR-kravene, når data behandles uden for EU, hvor der er meget begrænset gennemsigtighed. Samtidig er data en central del af forretningen, og det rejser spørgsmål om, hvorvidt børns privatliv og sikkerhed reelt prioriteres højest, siger han.
Dansk alternativ med data i Danmark
For nylig lancerede Ordbogen A/S chatbotten chat.dk, der er bygget og trænet på en dansk sprogmodel og hostet i Danmark. Her forbliver data på danske servere og er derfor omfattet af GDPR. Løsningen giver et alternativ til de internationale techgiganters AI-assistenter, som præger markedet.
– Formålet med chat.dk er at tilbyde en 100 procent dansk AI-platform bygget på vores egen sprogmodel og infrastruktur med egne servere, egen supercomputer og drift i danske datacentre, siger Peter Revsbech, partner og CEO i Ordbogen A/S, som står bag chat.dk, og understreger:
– Valget af AI-løsning har betydning for børns digitale dannelse, privatliv og sikkerhed, og derfor er det ikke ligegyldigt, hvor teknologien befinder sig, hvem der ejer den, eller hvor data ender.
Også ifølge Jens Myrup Pedersen spiller geografien en essentiel rolle.
– Når data bliver i Danmark, er det langt nemmere at føre kontrol med, hvordan de bruges, og det giver en helt anden tryghed, som bestemt er væsentlig, når det handler om børns brug af AI, siger Jens Myrup Pedersen.

