Kontakt med oss

Kunstig intelligens

Artificial Intelligence Act: Rådet og parlamentet inngår en avtale om de første reglene for AI i verden

DELE:

Publisert

on

Vi bruker registreringen din for å levere innhold på måter du har samtykket i og for å forbedre vår forståelse av deg. Du kan når som helst melde deg av.

Etter tre dager lange «maraton»-samtaler har rådsformannskapet og Europaparlamentets forhandlere kommet til en foreløpig enighet om forslaget om harmoniserte regler for kunstig intelligens (AI), den såkalte kunstig intelligensloven. Utkastet til forordning tar sikte på å sikre at AI-systemer som plasseres på det europeiske markedet og brukes i EU, er trygge og respekterer grunnleggende rettigheter og EU-verdier. Dette landemerkeforslaget har også som mål å stimulere til investeringer og innovasjon på AI i Europa.

Carme Artigas, spansk statssekretær for digitalisering og kunstig intelligens

Dette er en historisk prestasjon, og en stor milepæl mot fremtiden! Dagens avtale tar effektivt opp en global utfordring i et raskt utviklende teknologisk miljø på et nøkkelområde for fremtiden til våre samfunn og økonomier. Og i denne bestrebelsen klarte vi å holde en ekstremt delikat balanse: øke innovasjonen og bruken av kunstig intelligens over hele Europa, samtidig som vi fullt ut respekterte innbyggernes grunnleggende rettigheter.Carme Artigas, spansk statssekretær for digitalisering og kunstig intelligens

AI-loven er en flaggskip lovgivningsinitiativ med potensial til å fremme utvikling og bruk av sikker og pålitelig kunstig intelligens i hele EUs indre marked av både private og offentlige aktører. Hovedideen er å regulere AI basert på sistnevntes evne til å forårsake skade på samfunnet etter en "risikobasert" nærme seg: jo høyere risiko, desto strengere er reglene. Som det første lovforslaget av sitt slag i verden, kan det sette en global standard for AI-regulering i andre jurisdiksjoner, akkurat som GDPR har gjort, og fremmer dermed den europeiske tilnærmingen til teknisk regulering på verdensscenen.

Hovedelementene i den foreløpige avtalen

Sammenlignet med det opprinnelige kommisjonens forslag, kan de viktigste nye elementene i den foreløpige avtalen oppsummeres som følger:

  • regler om høyeffektive AI-modeller for generell bruk som kan forårsake systemisk risiko i fremtiden, så vel som høyrisiko AI-systemer
  • et revidert system av styresett med noen håndhevingsmyndigheter på EU-nivå
  • utvidelse av listen over forbud men med mulighet for bruk ekstern biometrisk identifikasjon av rettshåndhevende myndigheter i det offentlige rom, med forbehold om sikkerhetstiltak
  • bedre beskyttelse av rettigheter gjennom plikten for utplasserere av høyrisiko AI-systemer til å gjennomføre en konsekvensvurdering av grunnleggende rettigheter før du tar et AI-system i bruk.

Mer konkret dekker den foreløpige avtalen følgende aspekter:

Definisjoner og omfang

For å sikre at definisjon av et AI-system gir tilstrekkelig klare kriterier for å skille AI fra enklere programvaresystemer, tilpasser kompromissavtalen definisjonen med tilnærmingen foreslått av OECD.

Den foreløpige avtalen klargjør også at forordningen ikke gjelder områder utenfor EU-rettens virkeområde og i alle fall ikke bør påvirke medlemslandenes kompetanse i nasjonal sikkerhet eller enhver enhet som er betrodd med oppgaver på dette området. Videre vil AI-loven ikke gjelde for systemer som utelukkende brukes til militær or forsvar formål. Tilsvarende bestemmer avtalen at forskriften ikke vil gjelde for AI-systemer som brukes utelukkende til formålet forskning og innovasjon, eller for personer som bruker AI av ikke-profesjonelle årsaker.

Annonse

Klassifisering av AI-systemer som høyrisiko og forbudt AI-praksis

Kompromissavtalen gir en horisontalt beskyttelseslag, inkludert en høyrisikoklassifisering, for å sikre at AI-systemer som sannsynligvis ikke vil forårsake alvorlige brudd på grunnleggende rettigheter eller andre betydelige risikoer, ikke fanges opp. Kun AI-systemer presenterer begrenset risiko ville være utsatt for veldig lys åpenhetsforpliktelser, for eksempel å avsløre at innholdet var AI-generert slik at brukere kan ta informerte beslutninger om videre bruk.

Et vidt utvalg av høy risiko AI-systemer vil være autorisert, men underlagt et sett med krav og forpliktelser for å få tilgang til EU-markedet. Disse kravene er tydeliggjort og justert av medlovgiverne på en slik måte at de er flere teknisk mulig og mindre belastende for interessenter å forholde seg til, for eksempel når det gjelder kvaliteten på data, eller i forhold til den tekniske dokumentasjonen som bør utarbeides av SMBer for å vise at deres høyrisiko AI-systemer overholder kravene.

Siden AI-systemer utvikles og distribueres gjennom komplekse verdikjeder, inkluderer kompromissavtalen endringer som tydeliggjør fordeling av ansvar og rollene til de ulike aktørene i disse kjedene, spesielt leverandører og brukere av AI-systemer. Den klargjør også forholdet mellom ansvar i henhold til AI-loven og ansvar som allerede eksisterer under annen lovgivning, for eksempel relevant EU-databeskyttelse eller sektorlovgivning.

For noen bruk av AI anses risiko uakseptabelt og derfor vil disse systemene bli utestengt fra EU. Den foreløpige avtalen forbyr for eksempel kognitiv atferdsmanipulasjon, den umålrettede scrapping av ansiktsbilder fra internett eller CCTV-opptak, følelsesgjenkjenning på arbeidsplassen og utdanningsinstitusjoner, sosial poengsum, biometrisk kategorisering å utlede sensitive data, for eksempel seksuell legning eller religiøs tro, og noen tilfeller av prediktiv politisering for enkeltpersoner.

Unntak fra rettshåndhevelse

Med tanke på spesifisitetene til rettshåndhevende myndigheter og behovet for å bevare deres evne til å bruke AI i deres viktige arbeid, ble det vedtatt flere endringer i kommisjonens forslag knyttet til bruken av AI-systemer for rettshåndhevelsesformål. Med forbehold om passende sikringstiltak, er disse endringene ment å reflektere behovet for å respektere konfidensialiteten til sensitive operasjonelle data i forhold til deres aktiviteter. For eksempel ble det innført en nødprosedyre som tillater rettshåndhevelsesbyråer å distribuere et høyrisiko AI-verktøy som ikke har bestått Overensstemmelsesvurdering prosedyren i tilfelle det haster. Det er imidlertid også innført en spesifikk mekanisme for å sikre dette grunnleggende rettigheter vil være tilstrekkelig beskyttet mot potensiell misbruk av AI-systemer.

Dessuten når det gjelder bruk av sanntid ekstern biometrisk identifikasjon systemer i offentlig tilgjengelige rom, klargjør den foreløpige avtalen målene der slik bruk er strengt nødvendig for rettshåndhevelsesformål og for hvilke rettshåndhevende myndigheter derfor unntaksvis bør ha tillatelse til å bruke slike systemer. Kompromissavtalen legger opp til ytterligere sikringstiltak og begrenser disse unntakene til tilfeller av ofre for visse forbrytelser, forebygging av ekte, tilstedeværende eller forutsigbare trusler, slik som terrorangrep, og søk etter personer som er mistenkt for de alvorligste forbrytelsene.

Generelle AI-systemer og fundamentmodeller

Nye bestemmelser er lagt til for å ta hensyn til situasjoner der AI-systemer kan brukes til mange forskjellige formål (generell AI), og hvor generell AI-teknologi deretter integreres i et annet høyrisikosystem. Den foreløpige avtalen tar også for seg de spesifikke tilfellene av generelle AI-systemer (GPAI).

Det er også avtalt spesifikke regler grunnmodeller, store systemer som er i stand til kompetent å utføre et bredt spekter av særegne oppgaver, som å generere video, tekst, bilder, samtale på sidespråk, databehandling eller generere datakode. Den foreløpige avtalen bestemmer at fundamentmodeller skal være i samsvar med spesifikke åpenhetsforpliktelser før de settes ut på markedet. Det ble innført et strengere regime for "høy effekt" grunnmodeller. Dette er grunnmodeller trent med store mengder data og med avansert kompleksitet, kapasiteter og ytelse godt over gjennomsnittet, som kan spre systemrisiko langs verdikjeden.

En ny styringsarkitektur

Etter de nye reglene for GPAI-modeller og det åpenbare behovet for håndhevelse på EU-nivå, an AI Office i kommisjonen er satt opp med oppgave å føre tilsyn med disse mest avanserte AI-modellene, bidra til å fremme standarder og testpraksis, og håndheve de felles reglene i alle medlemsland. EN vitenskapelig panel av uavhengige eksperter vil gi råd til AI-kontoret om GPAI-modeller, ved å bidra til utvikling av metodikk for å evaluere mulighetene til fundamentmodeller, gi råd om utpeking og fremveksten av fundamentmodeller med høy innvirkning, og overvåke mulige materialsikkerhetsrisikoer knyttet til fundamentmodeller.

De AI Board, som vil omfatte medlemslandenes representanter, vil forbli som en koordineringsplattform og et rådgivende organ for Kommisjonen og vil gi en viktig rolle til medlemsstatene i implementeringen av forordningen, inkludert utforming av retningslinjer for stiftelsesmodeller. Til slutt en rådgivende forum for interessenter, som bransjerepresentanter, SMB, oppstartsbedrifter, sivilsamfunn og akademia, vil bli satt opp for å gi teknisk ekspertise til AI-styret.

Straff

Bøtene for brudd på AI-loven ble satt som en prosentandel av det krenkende selskapets globale årlige omsetning i forrige regnskapsår eller et forhåndsbestemt beløp, avhengig av hva som er høyest. Dette vil være 35 millioner euro eller 7 % for brudd på de forbudte AI-applikasjonene, 15 millioner euro eller 3 % for brudd på AI-lovens forpliktelser og 7,5 millioner euro eller 1,5 % for levering av feil informasjon. Den foreløpige avtalen legger imidlertid opp til mer forholdsmessige tak om administrative bøter for SMB og nystartede bedrifter ved brudd på bestemmelsene i AI-loven.

Kompromissavtalen gjør det også klart at en fysisk eller juridisk person kan klage til vedkommende markedstilsynsmyndighet angående manglende overholdelse av AI-loven og kan forvente at en slik klage vil bli behandlet i tråd med de dedikerte prosedyrene til denne myndigheten.

Åpenhet og beskyttelse av grunnleggende rettigheter

Den foreløpige avtalen gir en konsekvensvurdering av grunnleggende rettigheter før et høyrisiko AI-system blir satt på markedet av sine distribusjonspartnere. Den foreløpige avtalen legger også opp til økt åpenhet angående bruk av høyrisiko AI-systemer. Spesielt er noen bestemmelser i kommisjonens forslag endret for å indikere at visse brukere av et høyrisiko AI-system som er offentlige enheter også vil være forpliktet til å registrere seg i EU-database for høyrisiko AI-systemer. Dessuten legger nytilføyde bestemmelser vekt på en plikt for brukere av en følelsesgjenkjenningssystem å informere fysiske personer når de blir utsatt for et slikt system.

Tiltak til støtte for innovasjon

Med sikte på å skape et juridisk rammeverk som er mer innovasjonsvennlig og å fremme evidensbasert regulatorisk læring, er bestemmelsene mht. tiltak for å støtte innovasjon har blitt vesentlig endret i forhold til kommisjonens forslag.

Spesielt er det avklart at AI regulatoriske sandkasser, som er ment å etablere et kontrollert miljø for utvikling, testing og validering av innovative AI-systemer, bør også tillate testing av innovative AI-systemer under virkelige forhold. Videre er det lagt til nye bestemmelser som tillater testing av AI-systemer i virkelige forhold, under spesifikke forhold og sikkerhetstiltak. For å lette den administrative byrden for mindre selskaper, inneholder den foreløpige avtalen en liste over tiltak som skal iverksettes for å støtte slike operatører og gir noen begrensede og klart spesifiserte unntak.

Ikrafttredelse

Den foreløpige avtalen bestemmer at AI-loven skal gjelde to år etter ikrafttredelsen, med noen unntak for spesifikke bestemmelser.

Neste trinn

Etter dagens foreløpige avtale vil det arbeides videre på teknisk nivå de neste ukene med å ferdigstille detaljene i den nye forskriften. Presidentskapet vil oversende kompromissteksten til medlemslandenes representanter (Coreper) for godkjenning når dette arbeidet er avsluttet.

Hele teksten må bekreftes av begge institusjoner og gjennomgå juridisk-lingvistisk revisjon før formell vedtakelse av medlovgiverne.

Bakgrunnsinformasjon

Kommisjonens forslag, som ble presentert i april 2021, er et sentralt element i EUs politikk for å fremme utviklingen og opptaket på tvers av det indre markedet av sikker og lovlig kunstig intelligens som respekterer grunnleggende rettigheter.

Forslaget følger en risikobasert tilnærming og legger et enhetlig, horisontalt rettslig rammeverk for AI som har som mål å sikre rettssikkerhet. Utkastet til forordning tar sikte på å fremme investeringer og innovasjon i AI, forbedre styring og effektiv håndhevelse av eksisterende lov om grunnleggende rettigheter og sikkerhet, og lette utviklingen av et indre marked for AI-applikasjoner. Det går hånd i hånd med andre initiativer, inkludert den koordinerte planen for kunstig intelligens som har som mål å akselerere investeringer i AI i Europa. 6. desember 2022 nådde Rådet en enighet om en generell tilnærming (forhandlingsmandat) om denne filen og inngikk interinstitusjonelle samtaler med Europaparlamentet («triloger») i midten av juni 2023.

Del denne artikkelen:

EU Reporter publiserer artikler fra en rekke eksterne kilder som uttrykker et bredt spekter av synspunkter. Standpunktene i disse artiklene er ikke nødvendigvis EU Reporters.

Trender