B 42 Forslag til folketingsbeslutning om retningslinjer og risikovurderinger for brug af kunstig intelligens.

Udvalg: Udvalget for Digitalisering og It
Samling: 2023-24
Status: 2. beh./Forkastet

Beslutningsforslag som fremsat

Fremsat: 08-11-2023

Fremsat: 08-11-2023

Fremsat den 8. november 2023 af Lisbeth Bech-Nielsen (SF), Sigurd Agersnap (SF) og Karina Lorentzen Dehnhardt (SF)

20231_b42_som_fremsat.pdf
Html-version

Fremsat den 8. november 2023 af Lisbeth Bech-Nielsen (SF), Sigurd Agersnap (SF) og Karina Lorentzen Dehnhardt (SF)

Forslag til folketingsbeslutning

om retningslinjer og risikovurderinger for brug af kunstig intelligens

Folketinget pålægger regeringen straks at iværksætte et arbejde vedrørende kunstig intelligens, der medfører, at der udarbejdes retningslinjer, risikovurderinger og en retfærdighedsprinciperklæring for udviklingen og brugen af kunstig intelligens.

Bemærkninger til forslaget

Generativ kunstig intelligens og sprogmodeller såsom ChatGPT (OpenAI), Bard (Google) og lignende AI-chatbotter kan bruges som et effektivt og kreativt værktøj, men skal håndteres med forsigtighed, omhyggelighed og transparens. Forslagsstillerne mener derfor, at der bør anlægges et udvidet forsigtighedsprincip, indtil den europæiske AI-forordning er på plads i 2024.

Selv om kunstig intelligens (AI) ikke er nyt, har der været en rivende udvikling inden for området i de seneste år. Med ChatGPT, Midjourney, DALL-E og lignende produkter er denne udvikling blevet bredt ud til et enormt publikum, og det er blevet muligt for enhver at benytte redskaberne. I september 2023 kom det derudover frem, at Googles Bard nu kunne integreres i øvrige tjenester såsom Gmail, Docs, Google Drive, Google Flights, YouTube og Google Maps (»Googles AI Bard er lige blevet meget smartere: Fungerer nu også med Gmail og Docs«, Computerworld, den 19. september 2023). Udviklingen er et afgørende nybrud, som kalder på handling.

Der er stor forskel på, hvordan kunstig intelligens ser ud, og hvordan det bruges. Anvendelsesmulighederne er mange: Det kan potentielt spille en vigtig rolle i den offentlige forvaltning, det kan bruges derhjemme for sjov, eller det kan bidrage til at kurere kræft.

Kunstig intelligens er ligesom anden teknologi hverken godt eller ondt i sig selv. Det afhænger af, hvordan det bruges. Men med kunstig intelligens er udviklingen voldsommere og accelererende på en måde, vi ikke tidligere har oplevet. Forslagsstillerne mener derfor, at der er behov for, at Folketinget som lovgivende magt gør sig en række overvejelser og sætter nogle hegnspæle for anvendelsen af kunstig intelligens. Disse hegnspæle bør indledningsvis bestå af retningslinjer for myndigheders anvendelse, risikovurderinger af kendt anvendelse og principper om retfærdig anvendelse af den nye teknologi.

Retningslinjer

Det foreslås, at de relevante ministre straks formulerer retningslinjer til forskellige dele af samfundet. Erhvervsministeren bør eksempelvis udarbejde retningslinjer til landets virksomheder. Både ingeniørrforeningen IDA, Djøf og flere eksperter har siden foråret 2023 efterspurgt retningslinjer for brugen af AI-modeller på arbejdspladsen (se f.eks. »ChatGPT udgør sikkerhedsrisiko for virksomheder«, ida.dk, den 3. maj 2023, »Fagforeninger: Virksomheder bør have regler for medarbejdernes brug af AI«, Version2, den 21. august 2023, og »Eksperter advarer: Chefer skal sørge for retningslinjer for brug af AI på arbejdspladsen«, dr.dk, den 19. juni 2023). Et eksempel på, at udviklingen går hurtigere, end virksomhederne får tilpasset sig, er, at virksomheden Samsung i maj 2023 måtte forbyde deres ansatte at bruge ChatGPT, da en medarbejder uforvarende sendte forretningshemmeligheder ind i AI'en (»Milliard­koncern forbyder Chat GPT efter medarbejderes bommerter«, borsen.dk, den 3. maj 2023).

Indenrigsministeren, justitsministeren eller digitaliseringsministeren bør ligeledes formulere retningslinjer til kommunerne om kommunale myndigheders og medarbejderes brug af AI-modeller. Det er nødvendigt, for en nylig kortlægning fra Datatilsynet peger på, at danske myndigheder har svært ved at håndtere borgernes databeskyttelse, når de udvikler og bruger kunstig intelligens, og således ikke lever op til GDPR (»Datatilsynet dumper myndigheders AI-modenhed i ny kortlægning«, ING/Compliance, pro.ing.dk, den 5. oktober 2023). Datatilsynet har endvidere netop udgivet en ny vejledning om offentlige myndigheders brug af AI (»Offentlige myndigheders brug af kunstig intelligens - Inden I går i gang«, Datatilsynet, oktober 2023). Det foreslås derfor, at den relevante minister i retningslinjerne henviser til Datatilsynets vejledning og indskærper, at myndighederne straks skal begynde at arbejde med vejledningen og sikre sig, at brug af eller planer om brug af kunstig intelligens følger vejledningen, samt at myndighederne skal anvende et forsigtighedsprincip, indtil det er sikret, at deres eventuelle brug af kunstig intelligens er i overensstemmelse med dataetiske principper. Forslagsstillerne ønsker at tydeliggøre, at der bør tages særlige forholdsregler for at beskytte personlige oplysninger, der indsamles og behandles af AI-systemer. Dette kan omfatte krav om samtykke, begrænsninger i brugen af personlige oplysninger og sikkerhedsforanstaltninger for at beskytte personlige oplysninger mod misbrug og hacking. Det bør i den forbindelse indskærpes over for kommunerne, at brug af AI-modeller i offentlig sagsbehandling, der involverer personhenførbare oplysninger, ikke er tilladt.

Risikovurderinger

Kunstig intelligens medfører mange muligheder, men indebærer ligeledes risici for både trivsel, kritisk infrastruktur og demokratiske processer. Der bør derfor udarbejdes risikovurderinger for de enkelte områder. Det foreslås således, at Center for Cybersikkerhed skal udarbejde en risikovurdering, der undersøger risikoen for angreb på kritisk infrastruktur, spredning af mis- og disinformation, påvirkning af demokratiske valg og processer m.v.

Dataetisk Råd skal udarbejde et katalog med risikoprofilering af forskellige typer sagsbehandling inden for det offentlige med udgangspunkt i AI-forordningen ud fra et udvidet forsigtighedsprincip.

Børnerådet eller lignende relevant aktør skal udarbejde en risikovurdering for børn og unge, eksempelvis i forhold til »AI-venner« i børnerettede sociale medier såsom Snapchat.

Fairnessprinciperklæring

Det bør være udgangspunktet for al dansk brug af kunstig intelligens, at det skal bruges på retfærdig vis og med foranstaltninger for at modvirke bias. I USA har man i den amerikanske AI-lov, »Algorithmic Accountability Act (AAA)«, indført en erklæring med krav om, at virksomheder løbende skal evaluere, hvorvidt de udøver nogen form for forskelsbehandling i forbindelse med databehandling, når det kommer til hudfarve, køn, alder, handicap, religion, social baggrund m.v. (»Algorithmic Accountability Act: What tech leaders need to know and do now«, techrepublic.com, den 28. juli 2022). Dette bør vi også kræve herhjemme, og det foreslås derfor at skrive fairnessprincipper for kunstig intelligens ind i produktansvarsloven og forvaltningsloven.

Kunstig intelligens er et spændende nyt værktøj, men vi skal sikre, at risici ved anvendelsen af den nye teknologi minimeres. Retningslinjer, risikovurderinger og fairnessprincipper for anvendelse er nødvendige første skridt, som Danmark som samfund kan og bør tage med det samme.

Skriftlig fremsættelse

Lisbeth Bech-Nielsen (SF):

Som ordfører for forslagsstillerne tillader jeg mig herved at fremsætte:

Forslag til folketingsbeslutning om retningslinjer og risikovurderinger for brug af kunstig intelligens

(Beslutningsforslag nr. B 42)

Jeg henviser i øvrigt til de bemærkninger, der ledsager forslaget, og anbefaler det til Tingets velvillige behandling.