Europaudvalget 2024-25
KOM (2022) 0496 Bilag 2
Offentligt
2940391_0001.png
Samlenotat
20. november 2024
Europa-Kommissionens forslag til Europa-Parlamentet og Rådets direk-
tiv om tilpasning af reglerne om civilretligt ansvar uden for kontraktfor-
hold til kunstig intelligens (KOM (2022) 496)
Revideret notat. Ændringer ift. grund- og nærhedsnotat af 1. november 2022 er marke-
ret med streg i venstre margin.
1. Resumé
Europa-Kommissionen fremsatte d. 28. september 2022 et forslag til et direktiv om til-
pasning af reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
(KOM (2022) 496). Direktivet har til formål at sikre, at ofre for skader forårsaget af kun-
stig intelligens-baserede produkter og tjenester opnår samme beskyttelsesniveau som
ofre for skader forårsaget af almindelige produkter. Samtidig skal harmoniserede foran-
staltninger på EU-niveau forhindre fragmentering af det indre marked samt øge retssik-
kerheden for de virksomheder, der udvikler eller anvender kunstig intelligens. Dette skal
bidrage til udbredelsen af pålidelig kunstig intelligens på det indre marked.
Direktivet fastlægger fælles regler for fremlæggelse af dokumentation for højrisiko kun-
stig intelligens-systemer. Dette skal gøre det muligt for sagsøgere at løfte bevisbyrden
i erstatningssager. Direktivet fastsætter derudover fælles regler for bevisbyrden ved ci-
vilretlige erstatningskrav baseret på culpa
dvs. hvor skadevolder har forvoldt skaden
ved en forsætlig eller uagtsom handling eller undladelse - for så vidt angår skader for-
årsaget af kunstig intelligens-systemer. Der etableres en afkræftelig formodning om
manglende overholdelse, i tilfælde, hvor en sagsøgt ikke imødekommer en national
domstols anmodning om fremlæggelse af dokumentation. Ligeledes etableres en af-
kræftelig formodning om forbindelse mellem sagsøgtes fejl og det output eller mang-
lende output fra et kunstig intelligens-system, som fører til den pågældende skade. For-
modningen finder anvendelse under visse betingelser.
Det indgår endvidere i forslaget, at Kommissionen efter fem år fra forslagets vedtagelse
skal revurdere direktivet, herunder navnlig behovet for også at harmonisere regler om
objektivt ansvar samt obligatorisk forsikring. Til dette formål skal medlemslandene ind-
rapportere data til Kommissionen årligt.
Overordnet støtter regeringen hensigten om at fastlægge regler om erstatningsansvar
for skader forårsaget af kunstig intelligens-systemer, herunder forslagets tilgang til
håndtering af sådanne krav. Regeringen forholder sig imidlertid skeptisk over for forsla-
get i sin nuværende udformning, da det risikerer at skabe barrierer for udviklingen og
anvendelsen af kunstig intelligens i Danmark og Europa. Regeringen finder det derfor
vigtigt, at forslaget kun bør gælde for ansvar i forbindelse med brug af højrisiko-kunstig
intelligens-systemer og fungere som et supplement til de eksisterende erstatningsregler
samt at effekterne af direktivet står på mål med de administrative og økonomiske kon-
sekvenser forbundet hermed. Regeringen finder det samtidig vigtigt, at sikre bedst mu-
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0002.png
ligt samspil med de generelle produktansvarsregler til gavn for myndigheder, virksom-
heder og forbrugere. Regeringen finder det vigtigt, at forslaget bidrager til en ansvarlig
og etisk anvendelse af kunstig intelligens-løsninger og dataene bag disse.
Ligeledes finder regeringen det nødvendigt at forslaget afspejler kunstig intelligensfor-
forordningens undtagelsesbestemmelse, hvad angår EU medlemsstaternes enekom-
petence på området inden for national sikkerhed og forsvar.
2. Baggrund
Europa-Kommissionen (Kommissionen) har den 28. september 2022 fremsat et forslag
til et direktiv om tilpasning af reglerne om civilretligt ansvar uden for kontraktforhold
(KOM (2022) 496) og en dertilhørende konsekvensanalyse. Forslaget blev oversendt
til Rådet i dansk sprogversion den 30. september 2022. Forslaget har retsgrundlag i
artikel 114 TFEU, som indeholder bestemmelser om vedtagelse af foranstaltninger med
henblik på at sikre det indre markeds oprettelse og funktion. Forslaget behandles efter
den almindelige beslutningsprocedure og vedtages med kvalificeret flertal i Rådet.
Forslaget udgør en del af en række af foranstaltninger på kunstig intelligens-området,
der yderligere består af den allerede vedtagne forordning om kunstig intelligens (EU
2024/1689 af 13.06.24) samt den pågående revision af sektorspecifikke og horisontale
produktsikkerhedsregler. Desuden blev forslaget fremsat sammen med forslag til et nyt
produktansvarsdirektiv i en pakke, der søger at tilpasse ansvarsreglerne til den digitale
tidsalder, herunder til kunstig intelligens. Initiativerne er tæt forbundne og supplerer hin-
anden for at udgøre en overordnet effektiv ordning for civilretligt ansvar. Forslaget til et
nyt produktansvarsdirektiv blev vedtaget i oktober 2024.
Det bemærkes, at kunstig intelligens-forordningen i sig selv også fastlægger regler, der
skal mindske sikkerhedsrisici og beskytte grundlæggende rettigheder. Sådanne regler
eliminerer imidlertid ikke sådanne risici fuldt ud, hvorfor der stadig kan opstå skader.
Dette forslag vil finde anvendelse i disse tilfælde. Desuden vurderer Kommissionen, at
effektive ansvarsregler giver økonomisk incitament til at overholde sikkerhedsreglerne
som fastlagt i kunstig intelligens-forordningen. Ydermere skal forslaget bidrage til effek-
tiv håndhævelse af kravene fremsat i kunstig intelligens-forordningen. Forslaget er end
videre i overensstemmelse med de foreslåede generelle og sektorspecifikke produkt-
sikkerhedsregler for kunstig intelligens-baserede maskinprodukter og radioudstyr.
Forslaget supplerer ydermere en række af Kommissionens forebyggende lovgivnings-
mæssige og tilsynsmæssige krav, der skal forhindre krænkelser af grundlæggende ret-
tigheder, navnlig, forordningen om databeskyttelse, forordningen om digitale tjenester
samt EU-lovgivning om ikke-forskelsbehandling og ligebehandling. Dog skaber forsla-
get ikke nye erstatningskrav eller påvirker ansvarsfritagelserne i henhold til ovenstå-
ende retsakter.
Af forslagets begrundelse fremgår det, at eksisterende nationale regler om erstatnings-
ansvar, der ofte er baseret på culpa, ikke egner sig til behandling af erstatningskrav for
skader forårsaget af kunstig intelligens- produkter og tjenester, idet det kan være svært
for skadelidte at løfte bevisbyrden. Erstatningsansvar uden for kontraktforhold omfatter
erstatningskrav der ikke kan føres tilbage til en aftale mellem skadevolder og skadelidte.
Forslaget fremsættes således blandt andet for at tage højde for de særlige karakteri-
stika ved kunstig intelligens, herunder kompleksitet, autonomi og uigennemsigtighed
2
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0003.png
(’sorte boks’-effekten),
der kan gøre det vanskeligt eller uoverkommeligt dyrt for skade-
lidte at identificere den ansvarlige person eller løfte bevisbyrden for et erstatningskrav.
Med forslaget følger en konsekvensanalyse, der er udarbejdet på baggrund af en of-
fentlig høring og målrettede høringer i form af webinarer og bilaterale drøftelser med
virksomheder og organisationer. Høringerne bekræftede ifølge Kommissionen,
at ’sorte
boks’-effekten
medvirker til, at skadelidte har sværere ved at bevise skyld og årsags-
sammenhæng, ligesom der kan være usikkerhed om, hvordan nationale domstole vil
fortolke og anvende de eksisterende regler i sager om kunstig intelligens. Samtidig
fremgik en bekymring i forhold til konsekvenserne af enkelte medlemsstaters lovgiv-
ningsmæssige foranstaltninger til tilpasning af ansvarsregler, herunder hvordan den føl-
gende fragmentering vil påvirke virksomhedernes omkostninger og hæmme udbredel-
sen af kunstig intelligens i EU.
3. Formål og indhold
Forslaget har til overordnet formål at styrke funktionen af det indre marked gennem
fastlæggelsen af harmoniserede krav til visse aspekter af civilretligt ansvar uden for
kontraktforhold for skader, der er forårsaget af kunstig intelligens-baserede produkter
og tjenester. Kommissionen vurderer, at manglende harmonisering af regler for erstat-
ning for sådanne skader vil resultere i at såvel udbydere og brugere af kunstig intelli-
gens-systemer som skadelidte risikerer at stå overfor 27 forskellige ansvarsordninger.
De afledte konsekvenser af dette vil være forskellige beskyttelsesniveauer samt forvre-
det konkurrence blandt virksomheder fra forskellige medlemslande.
Forslaget har til formål at sikre, at skadelidte (fysiske personer, virksomheder og andre
offentlige eller private enheder) har adgang til samme beskyttelsesniveau som ofre for
skader forvoldt uden inddragelse af kunstig intelligens for derved at sikre tillid til og
fremme udbredelsen af kunstig intelligens. Således skal forslaget bidrage til beskyttel-
sen af retten til effektive retsmidler og til en upartisk domstol (artikel 47, EU’s charter
om grundlæggende rettigheder) og giver incitament til, at forebygger skader.
Direktivforslaget indeholder fælles regler om fremlæggelse af beviser og afkræftelig for
modning om manglende overholdelse, og har til formål at sikre, at personer der søger
erstatning for skader forårsaget af kunstig intelligens systemer, har de rette midler til at
identificere potentielt ansvarlige personer og relevante beviser til at understøtte deres
krav. Således får nationale domstole ret til at kræve, at der fremlægges relevante bevi-
ser for højrisiko kunstig intelligenssystemer, der er mistænkt for at have forvoldt en
skade. En sådan anmodning kan udelukkende rettes til sagsøgte med forpligtelser un-
der kapitel 2 i kunstig intelligens-forordningen. Disse forpligtelser henviser til de krav,
som højrisiko-AI-systemer skal opfylde, navnlig krav til træning af modeller og data,
gennemsigtighedskrav, krav om menneskeligt tilsyn, krav til nøjagtighed, robusthed og
cybersikkerhed.
Samtidig fastlægger direktivet regler om en såkaldt afkræftelig formodning om årsags-
forbindelse i tilfælde af fejl. Fejl kan f.eks. fastslås ved sagsøgtes manglende overhol-
delse af en pligt til at udvise rettidig omhu efter EU-retten eller national ret, dvs. mang-
lende overholdelse af en krævet standard for adfærd, der skal forhindre skade på an-
erkendte retlige interesser såsom liv, integritet, ejendom og grundlæggende rettighe-
der. Årsagsforbindelsen etableres mellem sagsøgtes fejl og det output, det skadefor-
3
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0004.png
voldende kunstig intelligens-system genererer, eller dets manglende output. Formod-
ningen om årsagsforbindelse gælder for alle kunstig intelligens systemer, men kun for
højrisiko kunstig intelligens systemer når sagsøger kan påvise, at udbyderen eller bru-
geren ikke har opfyldt visse udvalgte krav i kunstig intelligens-forordningen.
Dertil indeholder forslaget en målrettet revisionsmekanisme, der skal revurdere beho-
vet for at harmonisere det objektive ansvar for kunstig intelligens-brugssager med en
særlig risikoprofil, potentielt kombineret med en obligatorisk forsikring.
Desuden indbygges et overvågningsprogram i forslaget, der skal give Kommissionen
oplysninger om hændelser relateret til kunstig intelligens-systemer, og som skal bidrage
til at fastslå om yderligere foranstaltninger, herunder harmoniserede regler om objektivt
ansvar, er nødvendige.
Forslaget er bygget op omkring otte artikler:
Artikel 1: Genstand og anvendelsesområde
Forslaget finder anvendelse på civilretlige erstatningskrav uden for kontraktforhold -
dvs. når et erstatningskrav ikke kan føres tilbage til en aftale mellem skadevolder og
skadelidte - der forårsages af et kunstig intelligens-system. Således fastsættes fælles
regler for følgende:
Fremlæggelsen af dokumentation for højrisiko kunstig intelligens-systemer for
at muliggøre for sagsøgere at underbygge et civilretligt erstatningskrav uden
for kontraktforhold.
Bevisbyrden af tilfælde af civilretlige erstatningskrav uden for kontraktforhold,
der er baseret på culpa og indbringes for nationale domstole for kunstig intelli-
gens-forvoldte skader.
Den valgte løsningsmodel har til hensigt at sikre, at skadelidte (fysiske personer, virk-
somheder og andre offentlige eller private enheder) har adgang til samme beskyttel-
sesniveau som ofre for skader forvoldt uden inddragelse af kunstig intelligens for der-
ved at sikre tillid til og fremme udbredelsen af kunstig intelligens. Således skal forslaget
bidrage til beskyttelsen af adgangen til effektive retsmidler og til en upartisk domstol
(artikel 47, EU’s charter om grundlæggende rettigheder) og give incitament til at fore-
bygger skader.
Mens forslagets første fase søger at nå forslagets mål med en minimalt invasiv tilgang,
omfatter anden fase en fornyet vurdering af behovet for strengere og/eller mere omfat-
tende foranstaltninger. Desuden indbygges et overvågningsprogram i forslaget, der
skal give Kommissionen oplysninger om hændelser relateret til kunstig intelligens-sy-
stemer, og som skal bidrage til at fastslå, om yderligere foranstaltninger, herunder har-
moniserede regler om objektivt ansvar, er nødvendige.
Det fremgår blandt andet af forslaget, at direktivet ikke berører EU-retlige regler om
betingelserne for erstatningsansvar på transportområdet, ej heller de fastsatte regler i
retsakten om digitale tjenester.
Artikel 2: Definitioner
4
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0005.png
Definitionerne indeholdt i forslaget følger definitionerne i kunstig intelligens-forordnin-
gen for således at sikre
konsistens mellem de to. Dette gælder definitionerne af ”AI-
system”, ”højrisiko-AI-system”, ”udbyder” og ”bruger”.
Desuden følger det af definitionen af ”sagsøger”, at erstatningssøgsmål ikke blot kan
anlægges af skadelidte, men også af personer der er indtrådt i skadelidtes rettigheder,
fx et forsikringsselskab eller arvinger efter en afdød skadelidt (artikel 2(b)). Med henblik
på at sikre skadelidte flere muligheder for at få deres krav vurderet af en domstol, kan
erstatningssøgsmål efter forslaget desuden anlægges som et gruppesøgsmål af en
person, der handler på vegne af en eller flere skadelidte i overensstemmelse med EU-
retten eller national ret. ”Pligt til rettidig omhu” defineres ligeledes.
Artikel 3: Fremlæggelse og sikring af beviser og afkræftelig formodning om manglende
overholdelse af rettidig omhu
Artikel 3 fastsætter en række midler, der er tiltænkt at gøre personer, der søger erstat-
ning på baggrund af skader forårsaget af højrisiko-kunstig intelligens-systemer, i stand
til at identificere
dels
potentielt ansvarlige personer,
dels
relevante beviser for et krav
samt at udelukke uretmæssigt identificerede potentielt sagsøgte for at spare tid og om-
kostninger for parterne og reducere sagsbyrden for domstolene.
Forslaget skal sikre, at de nationale domstole før eller under en retssag kan træffe af-
gørelse om, at udbydere af høj risiko-kunstig intelligens-systemer, personer, der er un-
derlagt forpligtelser i henhold til artikel 24 eller 28, stk. 1, i kunstig intelligens-forordnin-
gen, eller brugere i henhold til kunstig intelligens-forordningen skal fremlægge relevant
dokumentation om højrisiko-kunstig intelligens-systemer, der er mistænkt for at have
forvoldt skade.
Efter forslaget skal det sikres, at en sådan afgørelse om fremlæggelse af dokumenta-
tion kan træffes efter anmodning fra enten en potentiel sagsøger, der tidligere har an-
modet de nævnte adressater om at udlevere dokumentation, og som er blevet afvist,
eller en sagsøger.
Forslaget skal sikre, at den nationale ret kun kan kræve, at adressater, der ikke er sag-
søgte, skal fremlægge dokumentation, hvis sagsøger har gjort alle forholdsmæssige
forsøg på at indsamle de relevante beviser fra sagsøgte.
Forslaget skal desuden sikre, at nationale domstole efter anmodning fra en sagsøger
har beføjelse til at træffe afgørelse om bevissikring af dokumentationen.
Endvidere skal forslaget sikre, at de nationale domstole begrænser fremlæggelsen af
beviser til det, der er nødvendigt og forholdsmæssigt for at understøtte et potentielt krav
eller et erstatningskrav, herunder at der i relevante tilfælde træffes afgørelse om speci-
fikke foranstaltninger med henblik på at beskytte parternes legitime interesser, herun-
der forretningshemmeligheder og fortrolige oplysninger.
Forslaget skal sikre, at den person, der pålægges at fremlægge eller sikre beviser, skal
have adgang til passende proceduremæssige retsmidler som svar på sådanne pålæg.
5
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0006.png
Endelig skal forslaget sikre, at der indføres en formodning om manglende overholdelse
af pligten til at udvise rettidig omhu, såfremt sagsøgte ikke efterkommer et pålæg om
at fremlægge eller sikre beviser, idet sagsøgte skal have adgang til at afkræfte denne
formodning.
Artikel 4: Afkræftelig formodning om årsagsforbindelse i tilfælde af fejl
Artikel 4 fastlægger, at nationale domstole skal antage, at der er årsagsforbindelse mel-
lem en sagsøgts fejl, der kan bestå i manglende overholdelse af en pligt til at udvise
rettidig omhu i henhold til EU-retten eller national ret, og det output eller manglende
output, som det pågældende system genererer eller ikke genererer. Dette gør sig gæl-
dende, såfremt følgende tre betingelser er opfyldt:
Sagsøger har godtgjort, eller domstolen har lagt til grund, at sagsøgte eller
en person, hvis adfærd sagsøgte er ansvarlig for, ikke har overholdt en
pligt til at udvise rettidig omhu, der har til direkte formål at beskytte mod
den pågældende skade.
Det kan på baggrund af sagens omstændigheder anses for rimelig sand-
synligt, at sagsøgtes fejl har påvirket enten det output, som kunstig intelli-
gens-systemet genererer, eller dets manglende output.
Sagsøger har godtgjort, at enten det output, kunstig intelligens-systemet
genererer, eller dets manglende output har givet anledning til skaden.
Denne formodning om årsagssammenhæng finder anvendelse, når en national dom-
stol finder det uforholdsmæssigt vanskeligt for sagsøger selv at bevise årsagssammen-
hængen. Det foreslås derudover, at i tilfælde af et erstatningskrav mod en sagsøgt, der
har anvendt kunstig intelligens-systemet i forbindelse med en personlig, ikke-erhvervs-
mæssig aktivitet, finder formodningen kun anvendelse, hvis sagsøgte væsentligt har
grebet ind i betingelserne for kunstig intelligens-systemets drift, eller hvis sagsøgte var
forpligtet til og i stand til at fastlægge betingelserne for kunstig intelligens-systemets drift
og undlod at gøre dette.
Såfremt erstatningskravet omhandler en udbyder af et højrisiko kunstig intelligens-sy-
stem eller en person, der er underlagt dennes forpligtelser i henhold til kunstig intelli-
gens-forordningen, gør antagelsen om årsagsforbindelse sig udelukkende gældende,
hvis sagsøger har påvist manglende opfyldelse af visse krav i kunstig intelligens-forord-
ningen. Det drejer sig navnlig om krav til træning af modeller og data, gennemsigtig-
hedskrav, krav om menneskeligt tilsyn, krav til nøjagtighed, robusthed og cybersikker-
hed samt krav om at foretage korrigerende foranstaltninger eller tilbagekalde et system.
Desuden skal sagsøgtes overholdelse af relevante forpligtelser ses i lyset af risikosty-
ringssystemet og dets resultater.
Det foreslås, at direktivet skal indeholde en undtagelse fra formodningen om årsags-
sammenhængen, hvis der er tale om et højrisiko kunstig intelligens-system og sagsøgte
påviser, at der foreligger tilstrækkelig dokumentation og ekspertise til rådighed for sag-
søger til at bevise årssammenhængen.
Det foreslås, at sagsøgte skal have adgang til at afkræfte formodningen om årsags-
sammenhæng.
Artikel 5: Evaluering og målrettet revision
6
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0007.png
Kommissionen forpligtes til senest fem år efter udløbet af gennemførelsesperioden for
dette direktiv at tage dets anvendelse op til revision og forelægge en rapport for Europa-
Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg. Rapporten
kan ledsages af et lovforslag hvis relevant. Rapporten skal navnlig tage højde for om
artikel 3 og 4 har haft den ønskede effekt. Desuden bør det evalueres, hvorvidt regler
om objektivt ansvar er hensigtsmæssige samt hvorvidt der er behov for obligatorisk
forsikringsdækning.
Udarbejdelsen af ovenstående rapport understøttes af et overvågningsprogram udar-
bejdet af Kommissionen. Overvågningsprogrammet skal præcisere hvordan og hvor
ofte data og anden dokumentation skal indsamles, og ligeledes hvilke foranstaltninger
medlemslandene og Kommissionen selv skal træffe for at muliggøre dataindsamling-
og analyse. I den henseende skal medlemslandene senest ved udgangen af det andet
år efter gennemførelsesperiodens udløb meddele Kommissionen relevant data og do-
kumentation, og derefter ved udgangen af hvert efterfølgende år.
Artikel 6: Ændring af direktiv (EU) 2020/1828
Artikel 6 indeholder bestemmelser om at indsætte en reference til direktivet om kunstig
intelligens-ansvar som punkt 67 i bilaget til Europa-Parlamentet og Rådets direktiv (EU)
2020/1828 af 25. november 2020 om adgang til anlæggelse om gruppesøgsmål til be-
skyttelse af forbrugernes kollektive interesser om ophævelse af direktiv 2009/22/EF.
Dermed gør forslaget det muligt at rejse kollektive søgsmål angående AI-ansvar.
Artikel 7: Gennemførelse
Det fremgår, at medlemslandene, når de vedtager de nødvendige love og administra-
tive bestemmelser for at leve op til kravene i dette direktiv, forpligtes til straks at meddele
Kommissionen teksten til disse love og bestemmelser. Lovene og bestemmelserne skal
indeholde en reference til dette direktiv eller alternativt ledsages af en sådan reference
ved offentliggørelse. Dette skal finde sted senest to år efter direktivets ikrafttrædelse.
Artikel 8: Ikrafttræden
Direktivet træder i kraft tyve dage efter dets offentliggørelse i
Den Europæiske Unions
Tidende.
4. Europa-Parlamentets udtalelser
Europa-Parlamentets retsudvalg (JURI) har endnu ikke afgivet en officiel udtalelse om
forslaget, men Europa-Parlamentet opfordrede i 2020 (2020/2014) Kommissionen om
at etablere en ansvarsordning for kunstig intelligens i henhold til artikel 114 TFEUF.
I maj 2022 udtrykte Europa-Parlamentet hertil i dets beslutning om
”kunstig
intelligens i
en digital tidsalder” bekymring for udfordringer med at bevise skyld og årsagssammen-
hæng for ofre for skader forårsaget af kunstig intelligens, grundet modstridende fortolk-
ninger af eksisterende ansvarsregler i medlemslandene samt forskelle i nationale lov-
givninger på området.
7
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0008.png
Europa-Parlamentets Forskningstjeneste offentliggjorde i september 2024 en supple-
rende konsekvensanalyse til forslaget, der anbefaler at udvide forslaget til også at om-
fatte generelle AI-systemer (f.eks. ChatGPT), og
”andre højpåvirkningssystemer”,
udenfor højrisikokategorien i kunstig intelligensforordningen, såsom selvkørende biler .
Forskningstjenesten foreslår også at inkludere software generelt, da det kan være ud-
fordrende at bevise fejl og skadessammenhæng i andre typer software end kunstig
intelligens. De anbefaler desuden en balance mellem fejlbaseret ansvar og objektivt
ansvar for forbudte AI-løsninger på forbudslisten i kunstig intelligensforordningens. Der-
udover foreslår forskningstjenesten, at direktivforslaget ændres til en forordning for at
undgå markedsfragmentering.
Det Økonomiske og Sociale Udvalg (EØSU) vedtog d. 25. januar 2023 sin udtalelse om
forslaget. EØSU bifalder og støtter Kommissionens forslag, og mener at minimumshar-
monisering afgørende, men understreget behovet for klare juridiske definitioner og styr-
ket juridisk ekspertise hos dem, der skal anvende denne nye lovgivning i EU, inklusiv
de nødvendige digitale færdigheder. EØSU opfordrer til etablering af et netværk af al-
ternative tvistbilæggelsesorganer, så skadelidte nemmere kan at udøve deres rettighe-
der. og at indsamle mere dokumentation om resultaterne af direktivet.
EØSU anerkender at direktivet balancerer skadelidtes rettigheder med AI-udvikleres
interesser, hvilket kan sætte en standard for tredjelande.
5. Nærhedsprincippet
Kommissionen vurderer, at forslagets mål ikke i tilstrækkelig grad kan opfyldes på na-
tionalt plan. Uden foranstaltninger på EU-plan er der risiko for, at enkelte medlemslande
udvikler egne regler, som potentielt kan være divergerende eller modstridende.
Nationale strategier for kunstig intelligens viser ifølge Kommissionen, at samtlige med
lemslande enten overvejer eller konkret planlægger lovgivning om civilretligt ansvar for
kunstig intelligens. En sådan tilpasning af nationale ansvarsreglerne vil føre til yderli-
gere fragmentering og øgede omkostninger for virksomheder på tværs af EU.
Ovenstående vil særligt påvirke de virksomheder, der opererer på tværs af EU-lande,
idet disse vil pålægges yderligere juridiske oplysninger, risikostyringsomkostninger
samt opleve mistede indtægter. Derudover vil virksomhederne i kraft af forskellige na-
tionale regler om erstatningskrav for skader forårsaget af kunstig intelligens opleve
øgede transaktionsomkostninger. Det bemærkes desuden, at retsusikkerhed og frag-
mentering i uforholdsmæssig høj grad
vil påvirke nystartede virksomheder og SMV’er.
På baggrund af ovenstående er det Kommissionens vurdering, at harmoniserede tiltag
på EU-plan vil afhjælpe fragmentering og øge retssikkerhed i forhold til eksponering for
erstatningsansvar og derved forbedre betingelserne for udrulning og udvikling af kun-
stig intelligens-teknologier i EU markant. Desuden fremgår det af forslaget, at udeluk-
kende en indsats på EU-niveau kan tilvejebringe det ønskede resultat om at fremme
forbrugernes tillid til kunstig intelligens-produkter og tjenester, idet en sådan indsats vil
sikre et konsekvent mindste beskyttelsesniveau for alle ofre, enkeltpersoner såvel som
virksomheder, samt konkrete incitamenter til at forebygge skader og sikre ansvarlighed.
Regeringen er enig i Kommissionens vurdering af, at nærhedsprincippet er overholdt,
idet formålet bedst opnås ved regulering på EU-niveau.
8
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0009.png
6. Gældende dansk ret
Dansk rets almindelige erstatningsregler
Der findes ikke i dansk ret særlige regler for erstatningsansvar for skader forvoldt af
kunstig intelligens, og spørgsmålet om erstatningsansvar afgøres derfor efter reglerne
om produktansvar, og alternativt de almindelige erstatningsretlige regler.
Produktansvarsloven og det ulovbestemte produktansvar finder anvendelse, når ska-
den forvoldes af et defekt produkt. Det er uafklaret, hvorvidt kunstig intelligens i sig selv
kan anses for at være et produkt efter produktansvarsreglerne. Hvis kunstig intelligens
indgår som en del af et produkt, f.eks. en robot, kan skader, som forvoldes, dog være
omfattet af reglerne.
Hvis skaden ikke er forvoldt af et defekt produkt, vil erstatningsspørgsmålet i stedet
skulle afgøres efter de almindelige erstatningsretlige regler.
Efter dansk rets almindelige erstatningsregler er det en betingelse for at få tilkendt er-
statning, at der foreligger et ansvarsgrundlag. Det er således hovedreglen, at en person
kun kan ifalde erstatningsansvar, hvis den pågældende har handlet culpøst, dvs. per-
sonen har forvoldt skaden ved en forsætlig eller uagtsom handling eller undladelse.
Dansk erstatningsret bygger endvidere på det princip, at der som hovedregel kun kan
kræves erstatning, når skadelidte har lidt et tab, dvs. er blevet påført en økonomisk
skade. Herudover er der på visse helt særlige områder fastsat regler om godtgørelse
for ikke-økonomisk skade, f.eks. godtgørelse for svie og smerte, godtgørelse for varigt
mén og godtgørelse for tort.
Det er endvidere en betingelse for at ifalde erstatningsansvar, at der foreligger den nød-
vendige forbindelse mellem den indtrådte skade og det ansvarspådragende forhold.
Erstatningsansvar forudsætter således, at der er årsagssammenhæng mellem den
skadevoldende adfærd og den pågældende skade.
Herudover forudsætter et erstatningsansvar, at der foreligger såkaldt adækvans (på-
regnelighed). Herved forstås, at den ansvarspådragende adfærd skal kunne have for-
øget risikoen for, at den pågældende skade indtræder. Skader, der er helt atypiske eller
tilfældige i forhold til den risiko, som skadevolders adfærd har fremkaldt, falder dermed
uden for erstatningspligten.
Erstatning opgøres på baggrund af det tab, som skadelidte bevisligt har lidt. I overens-
stemmelse med dansk rets almindelige regler om bevisbyrde ved skader forvoldt uden
for kontrakter, bærer skadelidte som udgangspunkt bevisbyrden for, dels at der er lidt
et tab, dels størrelsen heraf.
7. Konsekvenser
Lovgivningsmæssige konsekvenser
Forslaget indebærer lovgivningsmæssige konsekvenser. Det vurderes på det forelig-
gende grundlag, at der bl.a. vil være behov for at indføre særlige regler om parters og
tredjepersoners fremlæggelse af oplysninger (edition) i sager omfattet af direktivet samt
om bevisbyrden i sådanne sager, som udgangspunkt i særlovgivningen.
Økonomiske konsekvenser
9
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0010.png
Statsfinansielle konsekvenser
Forslaget forventes at kunne medføre statsfinansielle konsekvenser, som fortsat er un-
der afklaring. Det forventes, at de foreslåede regler vil kunne føre til, at der rejses flere
sager ved domstolene, samt at behandlingen af sagerne kan blive mere tidskrævende,
herunder hvis der er behov sagkyndig bevisførelse. Forslagets forventes at føre til af-
ledte udgifter i den offentlige sektor, da de potentielle omkostninger ved at implemen-
tere og overholde de foreslåede regler kan føre til dyrere udvikling og drift af kunstig
intelligens-løsninger, hvilket kan påvirke offentlige udgifter på længere sigt.
Derudover forventes forslaget at medføre administrative omkostninger for offentlige
myndigheder i forbindelse med udarbejdelsen af Kommissionens overvågningspro-
gram, hvor medlemslandene forpligtes til at indsende relevante data og dokumentation
til brug for Kommissionens rapport. Det bemærkes, at afledte nationale udgifter som
følge af EU-retsakter afholdes inden for de berørte ministeriers eksisterende bevillings-
ramme, jf. budgetvejledningens bestemmelser herom.
Samfundsøkonomiske konsekvenser
Forslaget sigter mod at skabe tillid blandt borgere ved at sikre, at ofre for skader forvoldt
af kunstig intelligens-systemer får adgang til effektiv erstatning på niveau med ofre for
skader forvoldt af almindelige produkter, og hermed have positive samfundsøkonomi-
aske konsekvenser. Trods denne hensigt, er det vurderingen at forslaget med nye krav
til bevisbyrde og dokumentation kan føre til flere retssager og højere efterlevelsesom-
kostninger. Dette kan udgøre en barriere for investering i og anvendelse af kunstig in-
telligens, som er en vigtig drivkraft for innovation, produktivitet, vækst og effektivisering
af den offentlige sektor. Forslaget kan således medføre uønskede samfundsmæssige
konsekvenser, da det potentielt kan hæmme udviklingen og udbredelsen af kunstig in-
telligens uden at opnå tilsvarende fordele.
Erhvervsøkonomiske konsekvenser
Forslaget forventes at medføre erhvervsøkonomiske konsekvenser.
Kommissionens konsekvensanalyse, der ledsager forslaget, skønner at målrettet har-
monisering på det civilretlige område for kunstig intelligens vil øge produktionsværdien
af grænseoverskridende handel med 5-7 procent. Samtidig skønnes det på grundlag
af den samlede værdi
af EU’s marked for kunstig intelligens, der berøres af ansvarsre-
laterede problemer, at de fremsatte regler vil generere en yderligere markedsværdi på
mellem ca. 500 mio. og 1,1 mia. euro.
Ved erstatningskrav omhandlende ikke-højrisikosystemer forventes sagsøgte virksom-
heder at opleve administrative omkostninger og øgede omkostninger forbundet med at
bevise de nødvendige kendsgerninger i en sag om erstatningskrav, idet ansvaret for
dette i henhold til direktivet ligger hos den, der har forvoldt skaden fremfor hos offeret.
Dette vil navnlig komme i form af omkostninger forbundet med opbevaring af og frem-
læggelse af dokumentation til de nationale domstole. Derudover må der forventes at
være omkostninger til sagsanlæg og muligvis en kommende form for frivillig AI-ansvars-
forsikring. De egentlige omkostninger er fortsat under afdækning.
10
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0011.png
Såfremt et erstatningskrav omhandler en skade forvoldt af et højrisiko kunstig intelli-
gens-system, må man antage, at de potentielle omkostninger forbundet med at frem-
skaffe dokumentation og dermed løfte bevisbyrden under henholdsvist artikel 3 og 4 i
en vis udtrækning allerede er medregnet i omkostningerne forbundet med kunstig intel-
ligens-forordningen. Det skyldes, at disse aktører i kunstig intelligens-forordningen på-
lægges at udarbejde og opbevare teknisk dokumentation, samt have et risikostyrings-
system og opbevare logfiler om AI-systemets ageren. Derudover, må det formodes, at
der kan være omkostninger forbundet med at afkræfte formodningen om årsagssam-
menhæng i artikel 4.1, herunder sagsomkostninger.
Andre konsekvenser og beskyttelsesniveauet
Forslaget forventes at kunne forbedre beskyttelsesniveauet for borgere og virksomhe-
der, idet de foreslåede regler vil sikre et konsekvent mindste beskyttelsesniveau samt
konkrete incitamenter for udbydere til at forebygge skader og sikre ansvarlighed. Der-
udover skal forslaget bidrage til opretholdelsen af en række grundlæggende rettigheder
som fastlagt i EU’s charter om grundlæggende rettigheder, herunder særligt retten til
effektive retsmidler og en upartisk domstol (artikel 47).
8. Høring
Forslaget har været sendt i høring i EU-specialudvalget for konkurrenceevne, vækst og
forbrugerspørgsmål samt i specialudvalget for politimæssigt og retligt samarbejde med
frist for bemærkninger d. 14. oktober 2022. Der er indkommet høringssvar fra Dansk
Metal, Forbrugerrådet Tænk, Forsikring & Pension, Dansk Erhverv og Dansk Industri.
Generelle bemærkninger
Akademikerne
hilser de to ansvarsdirektiver om hhv. AI-ansvar og ansvar for defekte
produkter velkomne. I takt med udbredelsen af anvendelse af AI-software og systemer,
vil en bedre beskyttelse af brugere kunne bidrage til yderligt at fremme anvendelsen af
AI, hvor der både opnås tryghed ved anvendelse af AI-systemer og software, som er
produceret i og uden for EU.
Akademikerne bemærker, at formålet med direktivforslaget er at fremme tilliden til AI
ved at tage hånd om de risici, der knytter sig til brugen af AI. EU-Kommissionen fastslår,
at de eksisterende ansvarsregler ikke i tilstrækkeligt omfang håndterer skader forårsa-
get af AI-produkter og tjenester. Desuden er det ofte dyrt og vanskeligt at bevise for de
personer, som har lidt skade. Endelig er den eksisterende nationale regulering frag-
menteret, hvilket fører til øgede omkostninger for AI-producenter og brugervirksomhe-
der.
Akademikerne støtter målet om at indføre fælles EU-regulering, der skal gøre det lettere
for personer at få erstatning for skader forårsaget af AI produkter og tjenester.
Dansk Erhverv (DE)
er grundlæggende af den holdning, at man i videst muligt omfang
bør arbejde med kongruens i lovgivningsarbejdet, at regulering som udgangspunkt bør
være teknologineutralt, og at der bør være taget stilling til, om myndighederne har mu-
lighed for effektivt at håndhæve loven. Som erhvervsorganisation er DE ikke bekendt
med sager ved domstolene, der udviser de udfordringer ift. påvisning af kausalitet, som
forslagets artikel 4 sigter mod at løse.
11
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0012.png
DE
finder, at den teknologiske udvikling sker i meget højt tempo, og mener derfor, at
regulering bør være teknologineutral.
Dansk Industri (DI)
er generelt positive over for hensigten bag Kommissionens forslag
til AI Liability Act. Det er positivt, at forslaget søger at lette bevisbyrden for brugere, som
er forvoldt skade af defekte produkter, der involverer AI-systemer. DI ønsker, at brugere
føler sig trygge ved brug af produkter og tjenester, der involverer AI-systemer, hvad
enten det er forbrugere eller virksomheder. Samtidig er DI dog meget bekymret over
forslagets tilgang til at sikre brugerne og mener, at forslagets nuværende form kan have
negativ indflydelse på producenternes innovations- og konkurrenceevne. Det er afgø-
rende at sikre balance mellem brugernes rettigheder og producenternes rettigheder.
Dansk Metal
bemærker, at Kommissionen ønsker, at forbrugere af AI-produkter i frem-
tiden skal have det samme beskyttelsesniveau som forbrugere af traditionelle teknolo-
gier. Dette skal blandt andet opnås ved at gøre det nemmere for ofre for AI-relaterede
skader at få erstatning. Dansk Metal er positive over for Kommissionens fokus på at
håndtere udfordringen med hvem der er ansvarlige ved AI-relaterede skader. Ligeledes
er Dansk Metal glade for, at Kommissionen søger at skabe en balance mellem beskyt-
telse af forbrugere og fremme af innovation. Kommissionen fremhæver selv, at euro-
pæiske virksomheder anser udfordringen med retligt ansvar relateret til brugen af AI
som en af de tre største barrierer for at gøre brug af teknologien. Direktiver søger at
fjerne den barriere, hvilket i ens optik er positivt, idet brugen af ny teknologi er afgørende
for at skabe øget produktivitet.
Ydermere noterer Dansk Metal sig, at Kommissionen med direktivet ønsker yderligere
at harmonisere reglerne i medlemslandene og dermed skabe lige konkurrence på det
indre marked. Dette bakker Dansk Metal op om.
Forbrugerrådet Tænk
har i forbindelse med selve AI-forordningen, som direktivet om
AI-ansvar udspringer fra, at man i forordningen savner specifikke regler om forbruger-
nes rettigheder, herunder om indsigt, klageadgang og erstatning. Forbrugerrådet Tænk
er derfor positive over for Kommissionens forslag om at supplere AI-forordningen med
specifikke ansvarsregler for AI. Samtidig er det positivt, at forslaget lægger op til at
gælde alle former for AI-produkter og ikke kun højrisiko produkter, som forordningen
særligt regulerer.
Forsikring & Pension (F&P)
har forståelse for, at Kommissionen ønsker at implemen-
tere regler, som regulerer nogle af de mere centrale elementer omkring brugen af AI,
og har forstået, at motivationen bag har været et behov for at skabe sikkerhed og tryg-
hed hos forbrugerne i forhold til virksomheders brug af AI, hvilket sikres af den kom-
mende AI-forordning. Generelt er F&P dog af den opfattelse, at de nuværende regler
omkring produktansvar ganske fint regulerer området. De planlagte ændringer af pro-
duktansvarsloven (PLD) vil også inkludere ny teknologi som AI. Styrken ved PLD er, at
rammeværket er teknologi-neutralt, og dermed sikrer en level playing field, uanset hvor-
dan et produkt fungerer.
Specifikke bemærkninger
Relation til anden lovgivning og sideløbende forslag om revisionen af produktansvars-
loven
12
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
DI
er som nævnt optaget af at den danske tilgang til rækken af ny regulering fra EU,
herunder AI Act, AI Liability Directive, produktansvarsloven og Data Act, er koordineret
og samtænkt med et stærkt fokus på balance, innovation, udvikling og rettigheder. Det
gælder i særdeleshed ift. AI Act og AI Liability Directive, hvor der naturligt er en tæt
sammenhæng. Forslagene skal afstemmes på tværs. I den forbindelse er det særligt
relevant, at den kommende kompetente myndighed netop er samtænkt og afstemt på
tværs af forslagene og vil have et stærkt fokus på netop mulighederne og innovationen
i lige så høj grad som på tilsyn og rettigheder.
Forbrugerrådet Tænk
bemærker, at forslaget kommer samtidig med, at revisionen af
produktansvarsdirektivet (PLD) er i gang, og foreslår, at det nøje overvejes hvorvidt det
vil være mere hensigtsmæssigt at lade AI-ansvarsreglerne indgå i PLD, fremfor at etab-
lere to selvstændige regelsæt som vedrører produktansvar.
Uanset om de to regelsæt opretholdes eller bliver til ét, finder Forbrugerrådet Tænk, at
ansvaret efter AI-ansvarsdirektivet sidestilles med det strengere producentansvar efter
PLD. Produkter, hvori AI indgår og som kan forårsage skader kan på samme måde
være farlige, som de produkter, der i dag er omfattet af PLD. Det er netop det objektive
ansvar, der giver virksomhederne et incitament til at producere sikre produkter. Forbru-
gerrådet Tænk eftersender et endeligt politikpapir, når man har haft lejlighed til at drøfte
forslaget med søsterorganisationen BEUC i Bruxelles.
F&P
ser ikke noget behov for at lave særlige regler i forhold til udvalgte produkter. F&P’s
anbefaling er derfor, at der arbejdes for, at man ikke indfører speciallovgivning i forhold
til AI, men i stedet via ændringer i PLD sikrer, at
alle
(software)produkter behandles
ens. F&P er bekymrede for, at et separat regime for AI vil have den utilsigtede konse-
kvens, at innovation og udvikling på software-og dataområdet reelt kommer til at be-
grænse europæiske virksomheder i udviklingsmuligheder i forhold til andre lande. Sam-
tidig risikerer man et bevist fravalg af AI-løsninger
selvom de vil være den teknisk
optimale løsning i et givent tilfælde
fordi særreglerne pålægger teknologien unødige
byrder. Det vil føre til færre nye virksomhedssatsninger og mindre innovation på områ-
det, og potentielt også højere priser på AI-baserede produkter og tjenester.
Højrisiko og ikke-højrisiko AI
DI
noterer sig, at forslaget behandler både højrisiko og ikke-højrisiko AI. DI finder det
svært at forstå argumentet for at have en bredere håndhævelse under dette direktiv
end under AI Act og vil argumentere for, at der bør afstemmes med AI Act. Samtidig er
det fortsat under forhandling, hvad højrisiko anvendelse af AI er under AI Act. DI under-
streger, at vi er nødt til at have fuld klarhed over definitioner i AI Act, før vi kan tage
stilling til sammenhængen med AI Liability Act.
Definition af kunstig intelligens (artikel 2)
DE
mener, at god regulering bør hænge sammen, og dette kræver bl.a. ensartet brug
af nøglebegreber. Ift. dette forslag er definitionen på kunstig intelligens (AI) afgørende.
Forslagets artikel 2(1) og (2) henviser til AI Act og den her gældende definition. Det
bemærkes, at der er igangværende forhandlinger i både EU Parlamentet og Rådet, og
at netop definitionen på AI fortsat diskuteres. Dertil kommer trilogforhandlingerne, og
dermed er den endelige definition på AI i forordningen på nuværende tidspunkt ukendt.
13
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
DE mener, at det vil være hensigtsmæssigt at afvente AI-forordningens endelige ved-
tagelsestekst, før der indføres ny regulering, der som nærværende forslag i så høj grad
gør brug af centrale definitioner fra forordningen.
DI
finder det positivt, at AI Liability Act følger AI Act definitionen af AI til trods for, at
denne definition endnu ikke er fastlagt. Det er vigtigt, at AI Liability Act generelt følger
andre forordninger og direktiver.
Fremlæggelse af beviser og afkræftelig formodning om manglende overholdelse (arti-
kel 3) samt afkræftelig formodning om årsagsforbindelse i tilfælde af fejl (artikel 4)
DE
støtter, at forslagets artikel 3(4) pålægger domstolene at begrænse omfanget af
beviser til det nødvendige for sagen, og at domstolene specifikt pålægges at tage skridt
til at sikre fortroligheden af forretningshemmeligheder.
DI
finder forslagets artikel 3 og artikel 4 meget problematiske og ikke afbalancerede i
forhold til producenterne. Hele præmissen for forslaget er, at det skal være nemmere
at få erstatning hvis et system indeholder fejl i relation til manglende compliance. DI
mener, at dette er for snævert og kan have store konsekvenser for producenten. For-
slaget bør have til formål at sikre både bruger og producent. Artikel 3(5) og artikel 4(1)
fremsætter ifølge DI svært afkræftelige formodninger om fejl og kausalitet. Her bør der
introduceres en strammere ramme for bevis. En fejl skal kunne dokumenteres, ikke
sandsynliggøres.
DI
finder det stærkt problematisk at brugeren kan bede producenten fremføre al infor-
mation omkring AI-systemet. Det er vigtigt for både producent og bruger at information
ikke skal fremvises unødvendigt. Virksomheders forretningshemmeligheder må ikke af-
sløres ved fremvisning af potentielt bevismateriale, hvilket er positivt at artikel 3 (4) sæt-
ter fokus på. Det er dog stadig uklart hvorfor forslaget fremsætter tidsfrister, der giver
sagsøger mulighed for alligevel at få fremført information, og hvis materialet ikke er
tilstrækkeligt, kan en national ret formode fejl i AI-systemet. Dette vil være stærkt pro-
blematisk for producenten.
F&P
ser en udfordring i forhold til forslagets disclosure-regler (bevisbyrde samt krav om
at fremlægge dokumentation alene ved en formodning). Kravet om at en virksomhed i
tilfælde af et krav skal fremlægge
relevant
dokumentation kan få den uheldige konse-
kvens, at virksomheder, som ser AI som en konkurrenceparameter og dermed deres
løsninger som forretningshemmeligheder, eller anvender andres AI-programmer (fx le-
verandører fra tredjelande), ikke nødvendigvis er i stand til at leve op til dette krav. Kan
eller vil man ikke fremlægge dokumentation, betyder loven endvidere, at den ikke frem-
lagte dokumentation skal tolkes således, at den understøtter et erstatningskrav. Grund-
læggende ser F&P dette som meget uhensigtsmæssigt.
I forsikringsregi mener F&P endvidere, at ovenstående samtidig har den effekt, at virk-
somheder, som ikke kan eller vil fremlægge dokumentation, vil stå uden forsikrings-
dækning, da de ikke har levet op til kravene om at begrænse erstatningskrav. Det be-
tyder, at virksomheder, som anvender AI som en kritisk del af sin forretning, kan have
svært ved at beskytte og forsvare sig i forhold til at afklare et erstatningskravs relevans
og de økonomiske konsekvenser af sådanne erstatningskrav.
9. Generelle forventninger til andre landes holdninger
14
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0015.png
De seneste formandskaber har ikke prioriteret forslaget, og har kun haft få drøftelser af
forslaget i Rådet.
Der forventes en overordnet opbakning blandt medlemslandene til formålet at sikre, at
ofre for skader forårsaget af kunstig intelligens-systemer har adgang til samme beskyt-
telsesniveau som ofre for andre produkter og teknologier.
Forslaget har dog generelt ikke ført til store udvekslinger mellem medlemsstaterne, da
man har afventet afslutningen af forhandlingerne af kunstig intelligens-forordningen og
det reviderede produktansvarsdirektiv, som indebærer potentielle overlap med forsla-
get. Her har det været fremhævet af en mindre gruppe lande, at sådanne overlap bør
undgås.
En større gruppe lande har udtrykt skepsis over for forslaget og herunder fremført be-
kymringer om, hvordan forslaget kommer til at spille sammen med eksisterende erstat-
ningsregler og produktansvarsdirektivet, og over, at forslaget ikke følger den risiko-ba-
serede tilgang fra forordningen om kunstig intelligens.
10. Regeringens generelle holdning
Regeringen anser kunstig intelligens som en af de afgørende teknologier til at under-
støtte EU’s konkurrenceevne, velstand, grønne omstilling samt
en mere effektiv offent-
lige forvaltning. Regeringen anerkender imidlertid, at anvendelsen af kunstig intelligens
kan indebære en række risici, der kan underminere en etisk, ansvarlig og sikker anven-
delse af kunstig intelligens. Regeringen hilser på denne baggrund formålet velkom-
ment, men regeringen forholder sig grundlæggende skeptisk overfor forslaget i sin kon-
krete udformning, idet det risikerer at skabe barrierer for udvikling og anvendelse af
kunstig intelligens i Danmark og Europa. Samtidig hæfter regeringen sig ved, at områ-
det allerede er reguleret af blandt andet kunstig intelligens-forordningen og de generelle
produktansvarsregler. Regeringen mener derfor, at forslaget bør fokuseres på de ele-
menter der vil skabe reel og proportionel merværdi, og har et anvendelsesområde der
alene omfatter høj-risiko kunstig intelligens i kunstig intelligens-forordningen.
Regeringen finder det vigtigt at opnå en klar, principbaseret og operationel lovgivnings-
ramme, der skaber reel merværdi og sikrer borgernes og forbrugernes tillid og øger
beskyttelsen i samfundet, uden at dette unødigt hæmmer innovationsevnen eller forrin-
ger konkurrenceevnen.
Regeringen finder det således vigtigt, at forslaget bevarer den risikobaserede tilgang
fra kunstig intelligensforordningen, og at der findes den rette balance, hvor risici adres-
seres, samtidig med at teknologien kan udvikles og anvendes. Regeringen er således
bekymret for, at forslaget vil tilskynde til at udbydere af kunstig intelligens anvendelser
der i kunstig intelligens-forordningen ikke er kategoriset som høj-risiko grundet forslaget
vil finde det nødvendigt at efterleve høj-risiko kravene deri, hvorved der brydes med
den risikobaserede tilgang og skabes unødige barrierer for udvikling og anvendelse af
kunstig intelligens.
Regeringen finder det centralt at sikre det bedst mulige samspil med produktansvars-
reglerne samt de nationale erstatningsansvarsmæssige rammer, herunder konkurren-
ceerstatningsloven, til gavn for myndigheder, virksomheder og forbrugere. Af den årsag
15
kom (2022) 0496 - Bilag 2: Samlenotat vedr. kontraktforhold til kunstig intelligens
2940391_0016.png
er det centralt, at målrette direktivforslagets anvendelsesområde til kun at gælde for
højrisikoanvendelser under forordningen for kunstig intelligens.
Regeringen finder det vigtigt, at forslaget bidrager til en ansvarlig og etisk anvendelse
af kunstig intelligens-løsninger og dataene bag disse og ser positivt på forslagets bidrag
til et minimumbeskyttelsesniveau for borgere og virksomheder i EU og en mere propor-
tional adgang til erstatning i forbindelse med skader forårsaget af kunstig intelligens-
systemer.
I den anledning bakker regeringen op om, at domstole får mulighed for at pålægge
udviklere, udbydere mv. en pligt til at fremlægge relevant dokumentation om højrisiko
kunstig intelligens-systemer, der er mistænkt for at have forvoldt skade mod brugeren.
Regeringen finder det i denne sammenhæng vigtigt, at kravene udformes proportionelt,
så bevisbyrdekrav ikke udgør en væsentlig administrativ byrde for virksomheder.
Regeringen finder det derudover vigtigt, at myndigheder og virksomheder ikke pålæg-
ges unødige omkostninger i forbindelse med i håndhævelsen og efterlevelsen af direk-
tivet, herunder ved den årlige rapportering til Kommissionen.
Regeringen finder det vigtigt, at forslaget tager højde for kompetencefordelingen mel-
lem medlemsstaterne og EU, herunder medlemsstaternes kompetencer inden for nati-
onal sikkerhed samt udenrigs-, forsvars- og sikkerhedspolitik.
Regeringen finder det slutteligt vigtigt, at effekterne af direktivet står mål med de admi-
nistrative og økonomiske konsekvenser forbundet hermed.
11. Tidligere forelæggelse for Folketingets Europaudvalg
Forslaget har været forelagt Folketingets Europaudvalg til orientering i forbindelse med
forelæggelsen af telerådsmøde den 5-6. december 2022, som fandt sted den 25. no-
vember 2022. Der blev oversendt grund- og nærhedsnotat for forslaget den 16. novem-
ber 2022.
16