EU kan mangle finansiering til å håndheve KI-reguleringer

PYMNTS rapporterer at flere EU-land står overfor økonomiske utfordringer når de skal håndheve den nye loven som skal regulere kunstig intelligens. Som en av de mest omfattende KI-lovene i verden, har implementeringen startet i år, men ressursmangel i medlemslandene skaper bekymring.

Kai Zenner, digitalpolitisk rådgiver og kontorleder for EU-parlamentsmedlem Axel Voss, uttrykte nylig sin bekymring under en konferanse arrangert av George Washington University, ifølge Bloomberg Law. Zenner påpekte at mange EU-land nærmest er blakke, og at de også sliter med å beholde ekspertise på kunstig intelligens. Mange spesialister forlater offentlige stillinger til fordel for høyere lønn i privat sektor.

Mangelen på både økonomisk støtte og fagkompetanse vil ifølge Zenner være en av de største utfordringene med å håndheve AI-loven. For å forstå hvordan selskaper faktisk bruker kunstig intelligens, er det nødvendig med høyt kvalifiserte eksperter.

Medlemslandene i EU har frist til 2. august for å fastsette regler for bøter og straffereaksjoner i tråd med KI-loven. Også selskaper utenfor Europa kan bli påvirket dersom de har kunder eller driver virksomhet innen EU.

Hva handler EUs reguleringer om?

EU sin KI-lov, som ble vedtatt i juli 2024, har som mål å beskytte sikkerheten og rettighetene til mennesker, forhindre diskriminering og skade forårsaket av kunstig intelligens, samt bygge tillit til teknologien. Loven legger vekt på personvern og sikkerhet, og fungerer som en mulig mal for andre lands AI-reguleringer, på samme måte som GDPR ble en global standard for personvern.

Loven benytter et risikobasert system som klassifiserer kunstig intelligens i tre hovedkategorier:

  1. Uakseptabel risiko: Forbudt Dette omfatter blant annet systemer for sosial poenggiving, KI som manipulerer mennesker ved hjelp av subliminale teknikker, samt sanntids ansiktsgjenkjenning på offentlige steder (med visse unntak for rettshåndhevelse).
  2. Høy risiko: Streng regulering Dette gjelder KI som brukes i sensitive områder som ansettelser, utdanning, helsevesen og rettshåndhevelse. Slike systemer må være transparente, nøyaktige og underlagt jevnlige tester og overvåking. For eksempel må AI brukt i helsetjenester oppfylle strenge krav og være tilgjengelig for inspeksjon.
  3. Begrenset risiko: Noe åpenhet Dette gjelder lavrisikosystemer som chatbotter, inkludert ChatGPT. De er ikke underlagt omfattende regulering, men må informere brukere om at innholdet er generert av kunstig intelligens. For eksempel må KI-genererte bilder merkes som sådan.

USA har også tatt noen skritt mot lignende reguleringer, som i delstaten Colorado. Imidlertid vurderer de nå en revisjon for å fremme vekstvennlige reguleringer.

Har du innspill til denne saken, eller andre saker?
Kontakt [email protected]