Fremsat den 8. november 2023 af Lisbeth Bech-Nielsen (SF),
Sigurd Agersnap (SF) og Karina Lorentzen Dehnhardt (SF)
Forslag til folketingsbeslutning
om retningslinjer og risikovurderinger for brug
af kunstig intelligens
Folketinget pålægger regeringen
straks at iværksætte et arbejde vedrørende
kunstig intelligens, der medfører, at der udarbejdes
retningslinjer, risikovurderinger og en
retfærdighedsprinciperklæring for udviklingen og brugen
af kunstig intelligens.
Bemærkninger til forslaget
Generativ kunstig intelligens og sprogmodeller
såsom ChatGPT (OpenAI), Bard (Google) og lignende
AI-chatbotter kan bruges som et effektivt og kreativt
værktøj, men skal håndteres med forsigtighed,
omhyggelighed og transparens. Forslagsstillerne mener derfor, at
der bør anlægges et udvidet forsigtighedsprincip,
indtil den europæiske AI-forordning er på plads i
2024.
Selv om kunstig intelligens (AI) ikke er nyt,
har der været en rivende udvikling inden for området i
de seneste år. Med ChatGPT, Midjourney, DALL-E og lignende
produkter er denne udvikling blevet bredt ud til et enormt
publikum, og det er blevet muligt for enhver at benytte
redskaberne. I september 2023 kom det derudover frem, at Googles
Bard nu kunne integreres i øvrige tjenester såsom
Gmail, Docs, Google Drive, Google Flights, YouTube og Google Maps
(»Googles AI Bard er lige blevet meget smartere: Fungerer nu
også med Gmail og Docs«, Computerworld, den 19.
september 2023). Udviklingen er et afgørende nybrud, som
kalder på handling.
Der er stor forskel på, hvordan kunstig
intelligens ser ud, og hvordan det bruges. Anvendelsesmulighederne
er mange: Det kan potentielt spille en vigtig rolle i den
offentlige forvaltning, det kan bruges derhjemme for sjov, eller
det kan bidrage til at kurere kræft.
Kunstig intelligens er ligesom anden teknologi
hverken godt eller ondt i sig selv. Det afhænger af, hvordan
det bruges. Men med kunstig intelligens er udviklingen voldsommere
og accelererende på en måde, vi ikke tidligere har
oplevet. Forslagsstillerne mener derfor, at der er behov for, at
Folketinget som lovgivende magt gør sig en række
overvejelser og sætter nogle hegnspæle for anvendelsen
af kunstig intelligens. Disse hegnspæle bør
indledningsvis bestå af retningslinjer for myndigheders
anvendelse, risikovurderinger af kendt anvendelse og principper om
retfærdig anvendelse af den nye teknologi.
Retningslinjer
Det foreslås, at de relevante ministre
straks formulerer retningslinjer til forskellige dele af samfundet.
Erhvervsministeren bør eksempelvis udarbejde retningslinjer
til landets virksomheder. Både ingeniørrforeningen
IDA, Djøf og flere eksperter har siden foråret 2023
efterspurgt retningslinjer for brugen af AI-modeller på
arbejdspladsen (se f.eks. »ChatGPT udgør
sikkerhedsrisiko for virksomheder«, ida.dk, den 3. maj 2023,
»Fagforeninger: Virksomheder bør have regler for
medarbejdernes brug af AI«, Version2, den 21. august 2023, og
»Eksperter advarer: Chefer skal sørge for
retningslinjer for brug af AI på arbejdspladsen«,
dr.dk, den 19. juni 2023). Et eksempel på, at udviklingen
går hurtigere, end virksomhederne får tilpasset sig,
er, at virksomheden Samsung i maj 2023 måtte forbyde deres
ansatte at bruge ChatGPT, da en medarbejder uforvarende sendte
forretningshemmeligheder ind i AI'en (»Milliardkoncern
forbyder Chat GPT efter medarbejderes bommerter«, borsen.dk,
den 3. maj 2023).
Indenrigsministeren, justitsministeren eller
digitaliseringsministeren bør ligeledes formulere
retningslinjer til kommunerne om kommunale myndigheders og
medarbejderes brug af AI-modeller. Det er nødvendigt, for en
nylig kortlægning fra Datatilsynet peger på, at danske
myndigheder har svært ved at håndtere borgernes
databeskyttelse, når de udvikler og bruger kunstig
intelligens, og således ikke lever op til GDPR
(»Datatilsynet dumper myndigheders AI-modenhed i ny
kortlægning«, ING/Compliance, pro.ing.dk, den 5.
oktober 2023). Datatilsynet har endvidere netop udgivet en ny
vejledning om offentlige myndigheders brug af AI (»Offentlige
myndigheders brug af kunstig intelligens - Inden I går i
gang«, Datatilsynet, oktober 2023). Det foreslås
derfor, at den relevante minister i retningslinjerne henviser til
Datatilsynets vejledning og indskærper, at myndighederne
straks skal begynde at arbejde med vejledningen og sikre sig, at
brug af eller planer om brug af kunstig intelligens følger
vejledningen, samt at myndighederne skal anvende et
forsigtighedsprincip, indtil det er sikret, at deres eventuelle
brug af kunstig intelligens er i overensstemmelse med dataetiske
principper. Forslagsstillerne ønsker at tydeliggøre,
at der bør tages særlige forholdsregler for at
beskytte personlige oplysninger, der indsamles og behandles af
AI-systemer. Dette kan omfatte krav om samtykke,
begrænsninger i brugen af personlige oplysninger og
sikkerhedsforanstaltninger for at beskytte personlige oplysninger
mod misbrug og hacking. Det bør i den forbindelse
indskærpes over for kommunerne, at brug af AI-modeller i
offentlig sagsbehandling, der involverer personhenførbare
oplysninger, ikke er tilladt.
Risikovurderinger
Kunstig intelligens medfører mange
muligheder, men indebærer ligeledes risici for både
trivsel, kritisk infrastruktur og demokratiske processer. Der
bør derfor udarbejdes risikovurderinger for de enkelte
områder. Det foreslås således, at Center for
Cybersikkerhed skal udarbejde en risikovurdering, der
undersøger risikoen for angreb på kritisk
infrastruktur, spredning af mis- og disinformation,
påvirkning af demokratiske valg og processer m.v.
Dataetisk Råd skal udarbejde et katalog
med risikoprofilering af forskellige typer sagsbehandling inden for
det offentlige med udgangspunkt i AI-forordningen ud fra et udvidet
forsigtighedsprincip.
Børnerådet eller lignende
relevant aktør skal udarbejde en risikovurdering for
børn og unge, eksempelvis i forhold til
»AI-venner« i børnerettede sociale medier
såsom Snapchat.
Fairnessprinciperklæring
Det bør være udgangspunktet for
al dansk brug af kunstig intelligens, at det skal bruges på
retfærdig vis og med foranstaltninger for at modvirke bias. I
USA har man i den amerikanske AI-lov, »Algorithmic
Accountability Act (AAA)«, indført en erklæring
med krav om, at virksomheder løbende skal evaluere, hvorvidt
de udøver nogen form for forskelsbehandling i forbindelse
med databehandling, når det kommer til hudfarve, køn,
alder, handicap, religion, social baggrund m.v. (»Algorithmic
Accountability Act: What tech leaders need to know and do
now«, techrepublic.com, den 28. juli 2022). Dette bør
vi også kræve herhjemme, og det foreslås derfor
at skrive fairnessprincipper for kunstig intelligens ind i
produktansvarsloven og forvaltningsloven.
Kunstig intelligens er et spændende nyt
værktøj, men vi skal sikre, at risici ved anvendelsen
af den nye teknologi minimeres. Retningslinjer, risikovurderinger
og fairnessprincipper for anvendelse er nødvendige
første skridt, som Danmark som samfund kan og bør
tage med det samme.
Skriftlig fremsættelse
Lisbeth
Bech-Nielsen (SF):
Som ordfører for forslagsstillerne
tillader jeg mig herved at fremsætte:
Forslag til folketingsbeslutning om
retningslinjer og risikovurderinger for brug af kunstig
intelligens
(Beslutningsforslag nr. B 42)
Jeg henviser i øvrigt til de
bemærkninger, der ledsager forslaget, og anbefaler det til
Tingets velvillige behandling.