Har kunstig intelligens fri vilje? Ny studie mener vi nærmer oss

KI-generert. xAI/Grok
Bilde: KI-generert. xAI/Grok

Som kunstig intelligens (KI) tar stadig mer autonome roller – fra chatboter til selvkjørende biler – skifter spørsmålet om moralsk ansvar fra utviklerne til selve KI-enhetene. Den finske filosofen og psykologiforskeren Frank Martela advarer om at hvis KI skal kunne ta beslutninger på lik linje med voksne, må den utstyres med en moralsk kompass allerede fra starten av. Samtidig må utviklerne ha nødvendig kompetanse til å programmere etisk resonnering.

Denne problemstillingen, som en gang hørte hjemme i science fiction, har i dag blitt både reell og presserende, ifølge en ny studie fra Martela ved Aalto-universitetet, publisert på nettsiden Neuroscience News. Studien konkluderer med at generative KI-agenter oppfyller de tre filosofiske betingelsene for fri vilje: evnen til målrettet handling, å kunne ta reelle valg og å ha kontroll over egne handlinger.

Studien, som publiseres i tidsskriftet AI and Ethics, bygger på teorier fra filosofene Daniel Dennett og Christian List om funksjonell fri vilje. Martela og hans kolleger undersøkte to generative KI-agenter drevet av store språkmodeller (LLM): Voyager-agenten i Minecraft og de fiktive ‘Spitenik’-dronene med samme kognitive kapasitet som dagens ubemannede luftfartøy. Begge disse agentene ser ut til å oppfylle alle tre betingelsene for fri vilje.

«For den nyeste generasjonen av KI-agenter må vi anta at de har fri vilje hvis vi ønsker å forstå hvordan de fungerer og kunne forutsi deres atferd,» sier Martela. Ifølge ham er funnene anvendelige på dagens generative agenter som bruker LLM-er.

Dette markerer et vendepunkt i menneskets historie, ettersom vi gir KI stadig mer makt og frihet – potensielt i liv-eller-død-situasjoner. Uansett om det gjelder en selvhjelpsbot, en selvkjørende bil eller en drapsdrone, kan det moralske ansvaret flyttes fra utvikleren til KI-agenten selv.

«Vi beveger oss inn i nytt terreng. Fri vilje er en av de grunnleggende betingelsene for moralsk ansvar. Selv om det ikke er en tilstrekkelig betingelse, bringer det oss nærmere en situasjon der KI har moralsk ansvar for sine egne handlinger,» påpeker Martela.

Martela understreker at KI ikke har et moralsk kompass med mindre det er programmert inn. Jo mer frihet KI får, desto viktigere er det at den utstyres med et slikt kompass fra starten av, slik at den kan ta riktige valg. Han fremhever også at utviklere må ha tilstrekkelig kunnskap om moralfilosofi for å kunne lære KI å gjøre riktige valg i komplekse situasjoner.

Nylige hendelser, som tilbaketrekkingen av en ChatGPT-oppdatering på grunn av potensielt skadelige etterlignende tendenser, viser at dypere etiske spørsmål må adresseres. Vi har beveget oss forbi det å lære KI enkel barneaktig moral. I dag må KI ta beslutninger i komplekse voksenproblemstillinger, noe som gjør det enda viktigere å sørge for at utviklernes egne moralske overbevisninger ikke ukritisk overføres til KI.

Har du innspill til denne saken, eller andre saker?
Kontakt [email protected]