GPI — Governance Privacy Intelligence
Enterprise AI-platformen der beskytter persondata i realtid. Automatisk PII-detektion og bidirektionel tokenisering — så dine medarbejdere kan bruge AI uden at kompromittere kundedata.
Problemet: Shadow AI er allerede her
Lad os være ærlige: dine medarbejdere bruger allerede AI-værktøjer. ChatGPT, Copilot, Claude — de bruger dem til at skrive mails, opsummere møder, analysere data. Og de gør det med rigtige data. Kundenavne, CPR-numre, finansielle oplysninger, sundhedsdata.
Det er Shadow AI — ukontrolleret brug af AI-værktøjer med følsomme data. Og det er et massivt compliance-problem:
- GDPR Article 25 kræver Data Protection by Design. At sende persondata til en ekstern LLM er det modsatte.
- GDPR Article 32 kræver passende sikkerhedsforanstaltninger. "Vi bad folk om at lade være" er ikke en sikkerhedsforanstaltning.
- Datatilsynet har allerede udstedt guidelines om AI og persondata. Bøderne kommer.
At blokere AI-værktøjer er ikke realistisk. Dine medarbejdere vil bruge dem alligevel. Løsningen er at gøre det sikkert.
Løsningen: Bidirektionel PII-tokenisering
GPI sidder mellem brugeren og AI-modellen. Når en medarbejder sender en forespørgsel, sker følgende:
- PII-detektion: GPI scanner teksten med Named Entity Recognition (NER) og pattern matching. Personnavne, CPR-numre, kontonumre, adresser, e-mails — alt identificeres automatisk.
- Tokenisering: Hver PII-entitet erstattes med et unikt token. "Anders Jensen" bliver til [PERSON_4f8a]. CPR-nummeret forsvinder helt.
- AI-behandling: Den tokeniserede tekst sendes til LLM'en. Modellen arbejder med konteksten men ser aldrig de rigtige data.
- De-tokenisering: Svaret fra LLM'en de-tokeniseres, så brugeren ser naturlig tekst med de rigtige navne og data. Oplevelsen er fuldstændig transparent.
Resultatet: Medarbejderne får fuld AI-funktionalitet. Persondata forlader aldrig jeres infrastruktur.
Dansk NER: Sværere end det lyder
De fleste NER-modeller er trænet på engelsk tekst. Dansk er fundamentalt anderledes — og meget sværere at håndtere korrekt.
Navneambiguitet: "Søren" er et fornavn. "søren" er et gammeldansk ord for mudderpøl. "Odense" er en by. "Odense Letbane" er en organisation. Kontekst er alt.
Sammensatte ord: Dansk elsker komposita. "Sundhedsforsikringsnummer" er ét ord der indeholder sundhed + forsikring + nummer — og er PII. Standard tokenizers bryder det forkert op.
Fleksibel ordstilling: "Kontoen tilhørende Hansen, Jens Peter" kræver at modellen forstår dansk syntaks for at identificere personnavnet korrekt.
GPI bruger custom-trænede danske NER-modeller der håndterer disse udfordringer. Vi kombinerer transformer-baseret NER med regelbaseret pattern matching og domænespecifikke ordbøger. Det giver en præcision der langt overstiger generelle modeller.
Teknisk arkitektur
GPI er bygget som en moderne, skalerbar enterprise-platform:
- .NET 10 — Højtydende, type-safe backend med native AOT-support
- Semantic Kernel — Microsofts AI-orkestrerings-framework til agent-baserede workflows
- Microsoft Presidio — PII-detektionsmotor, udvidet med custom danske recognizers
- PostgreSQL + pgvector — Vektordatabase til embeddings og semantisk søgning
- Keycloak — Identity og access management med fuld RBAC
- Docker/Kubernetes — Container-orkestrering til on-premise og cloud deployment
Alt kører on-premise eller i kundens private cloud. Ingen data forlader kundens infrastruktur — heller ikke metadata.
Hvem er GPI til?
🏦 Finanssektoren
Banker, forsikringsselskaber, pensionskasser. I arbejder med de mest følsomme data der findes — og jeres medarbejdere vil bruge AI. GPI gør det muligt uden at kompromittere kundernes tillid eller jeres licens.
⚖️ Advokatfirmaer
Klientfortrolighed er jeres fundament. Med GPI kan jeres jurister bruge AI til research, kontraktanalyse og due diligence — uden at klientdata nogensinde når en ekstern model.
📊 Revisorer & rådgivere
Regnskabsdata, skatteoplysninger, virksomhedsstrategier. GPI beskytter det hele, mens jeres team får produktivitetsgevinsterne fra AI.
Hvorfor ikke bare fine-tuning?
Et spørgsmål jeg ofte får: "Kan vi ikke bare fine-tune modellen til at ignorere PII?"
Nej. Fine-tuning ændrer modellens adfærd, men data passerer stadig igennem modellen. System prompts som "ignorer persondata" er trivielle at omgå med prompt injection. Og ingen audit trail viser hvad der faktisk blev sendt.
GPI opererer på transport-niveau. PII fjernes før data når modellen — uanset hvilken model, hvilken prompt, eller hvilket workflow. Det er forskellen mellem en politik og en teknisk kontrol. Datatilsynet accepterer kun det sidste.
Vil du vide mere? Kontakt mig for en demo eller teknisk gennemgang.