Check Point Research, som er en del af Check Point Software Technologies, har netop udgivet sin AI Threat Landscape-rapport. Den bygger på data fra januar og februar 2026 og indeholder tal fra virksomheder i 41 lande, herunder Danmark. Analysen viser, at hver sjette prompt indeholder potentielt følsomme oplysninger – og at brugen af AI dermed kan medføre en markant risiko for datalæk.
Det peger på, at medarbejdere i stigende grad deler interne data med AI-tjenester som led i deres daglige arbejde – ofte uden at være klar over konsekvenserne.
– Når medarbejdere deler indhold med AI-værktøjer, tror mange, at de har en fortrolig samtale, der lige kan spare dem lidt tid, men de risikerer at give konkurrenter indirekte adgang til virksomhedens mest værdifulde viden. Når man uploader kundedata, budgetter eller produktplaner til en åben AI-tjeneste, mister man kontrollen. Den type data er i høj kurs, og har de først forladt matriklen, er de videregivet for altid, siger Balder Borup, Security Engineer Team Leader hos Check Point Software Technologies i Danmark.
Manglende kontrol skaber blinde vinkler
Rapporten viser desuden, at én ud af 31 prompts udgør en høj risiko for datalæk, samt at hele 90 pct. af organisationer, der anvender AI-værktøjer regelmæssigt, er påvirket af problemstillingen.
Risikoen opstår typisk i helt almindelige arbejdssituationer, hvor medarbejdere bruger AI til at effektivisere opgaver. Samtidig bruger organisationer i gennemsnit 10 forskellige AI-værktøjer, hvilket peger på en fragmenteret anvendelse på tværs af organisationen.
”Vi ser en form for ‘shadow AI’, hvor medarbejdere tager nye AI-værktøjer i brug uden it-afdelingens viden. Når virksomheder mister overblikket over deres AI-brug, mister de også kontrollen med deres data. Det kan føre til datalæk, som både kræver omfattende oprydning, kan udløse bøder og i sidste ende få voldsomme økonomiske konsekvenser – både i form af tabt forretning og øgede omkostninger til håndtering af hændelser,” siger Balder Borup.
Sådan kan virksomheder reducere risikoen
For at imødegå den stigende risiko for datalæk via AI anbefaler Check Point tre centrale indsatsområder:
- Skab synlighed og overblik: Få indsigt i, hvilke AI-værktøjer der anvendes i organisationen, hvordan de bruges, og hvilke data der deles, så potentielle risici kan identificeres tidligt.
- Indfør klare rammer og governance: Fastlæg tydelige retningslinjer for brugen af AI, herunder hvilke data der må deles, og hvordan brugen overholder interne politikker og gældende lovgivning.
- Styrk adgangskontrol og overvågning: Begræns adgangen til AI-værktøjer efter behov og implementér løsninger, der kan overvåge brugen og opdage eller blokere deling af følsomme oplysninger.
Den fulde rapport kan læses her.


