OpenAI styrker cybersikkerhet før nye AI-lanseringer


OpenAI utvider sitt cybersikkerhetsprogram i forkant av lanseringen av nye og mer avanserte kunstig intelligens-modeller. Selskapet opplyser at programmet, som gir utvalgte aktører innen cybersikkerhet tilgang til avanserte AI-verktøy, nå bygges ut med flere nivåer for tilgang og strengere verifiseringsmekanismer.

Tiltaket skjer samtidig som nye generasjoner AI-modeller nærmer seg lansering.

Utvider eksisterende program

Cybersikkerhetsprogrammet ble etablert tidligere for å gi sikkerhetsforskere og virksomheter kontrollert tilgang til avanserte modeller. Nå utvides ordningen med flere tilgangsnivåer, der brukere klassifiseres basert på identitet, kompetanse og bruksområde.

Ifølge OpenAI skal dette gjøre det mulig å inkludere flere aktører, samtidig som bruken fortsatt holdes under kontroll. Programmet retter seg mot organisasjoner og fagmiljøer som arbeider med å identifisere og håndtere digitale sårbarheter.

Tilgang basert på verifisering

Tilgangen til de mest avanserte funksjonene vil fortsatt være begrenset. OpenAI opplyser at brukere må gjennom verifiseringsprosesser for å få tilgang til høyere nivåer i programmet. Dette innebærer blant annet vurdering av organisasjonens rolle, kompetanse og behov for tilgang til avanserte AI-verktøy. Selskapet legger opp til at ulike nivåer av tilgang gir forskjellige rettigheter og kapasiteter i modellene.

Nye modeller med utvidet kapasitet

Bakgrunnen for utvidelsen er kommende AI-modeller med økt kapasitet innen blant annet programvareanalyse og sikkerhet. OpenAI har utviklet egne varianter av sine modeller til bruk i cybersikkerhet, med funksjoner som kan analysere kode, identifisere sårbarheter og bistå i sikkerhetsarbeid. Disse modellene er rettet mot defensive formål, og skal brukes i arbeid med å avdekke og håndtere sikkerhetsrisiko i digitale systemer.

Kontrollert utrulling

OpenAI opplyser at utrullingen av nye modeller vil skje gradvis og under kontrollerte former. Gjennom cybersikkerhetsprogrammet ønsker selskapet å teste og evaluere modellene i samarbeid med utvalgte brukere før bredere tilgjengelighet. Dette skal bidra til å avdekke potensielle svakheter og sikre at modellene brukes i tråd med definerte rammer.

Økende fokus på sikkerhet

Utvidelsen av programmet skjer i en periode der flere teknologiselskaper utvikler AI-løsninger med særlig vekt på sikkerhet og kontrollert bruk. Bruken av kunstig intelligens i sikkerhetsarbeid øker, samtidig som det stilles strengere krav til hvordan avanserte modeller gjøres tilgjengelige. OpenAI opplyser at videre utvikling av programmet vil skje i takt med nye modellanseringer og erfaringer fra samarbeid med sikkerhetsmiljøer.

Har du innspill til denne saken, eller andre saker?
Kontakt [email protected]