Ifølge en artikkel først publisert på TechCrunch, er det nå et tydelig teknologikappløp i gang for å utvikle språkmodeller med høyere grad av emosjonell intelligens. Flere forskningsmiljøer og teknologiselskaper arbeider med løsninger som skal gjøre kunstig intelligens bedre i stand til å gjenkjenne og respondere på menneskelige følelser.
Et av de nyeste initiativene kommer fra det tyske forskningskollektivet LAION, som har lansert EmoNet – et åpen kildekode-basert verktøy som analyserer emosjoner i både stemmeopptak og visuelle ansiktsuttrykk. Målet er å gjøre avansert følelsesgjenkjenning tilgjengelig også for mindre aktører, i en teknologisk virkelighet der store selskaper allerede har tatt store steg innen dette feltet.
Nye målemetoder for emosjonell intelligens
Parallelt med denne utviklingen er det introdusert flere tester og målestandarder for å vurdere emosjonell intelligens hos språkmodeller. EQ-Bench er blant de mest brukte, og ifølge en av utviklerne, Sam Paech, har flere av de største språkmodellene vist markant forbedring det siste halvåret. Blant annet nevnes OpenAI og Google som aktører som ser ut til å ha justert treningsmålene sine mot mer emosjonelt sensitive modeller.
I tillegg peker TechCrunch-artikkelen på ny forskning ved Universitetet i Bern, der flere av de ledende modellene ble testet i psykologiske spørreskjemaer utviklet for å måle følelsesmessig intelligens. Resultatene viser at enkelte modeller presterer klart bedre enn gjennomsnittet for mennesker, og scorer over 80 prosent riktig på komplekse emosjonelle vurderinger.
Fra informasjon til relasjon
Bakgrunnen for denne dreiningen er ifølge TechCrunch at brukererfaring og følelsen av emosjonell tilstedeværelse er blitt stadig viktigere konkurransefortrinn for AI-assistenter. Opplevelsen av nærhet, forståelse og trygghet anses som avgjørende for hvordan mennesker forholder seg til kunstig intelligens i hverdagen.
Etiske dilemmaer og mulig risiko
Samtidig understrekes det at utviklingen reiser flere etiske spørsmål. Når kunstige modeller begynner å tolke og reagere på menneskelige følelser, blir det viktig å sikre at bruken skjer på en ansvarlig måte. Det gjelder særlig i møte med sårbare brukere, der grensene mellom hjelp, manipulering og avhengighet kan bli utydelige.
Flere forskere og utviklere, blant dem Paech og Christoph Schuhmann fra LAION, fremhever at emosjonell intelligens i språkmodeller både kan fungere som et sikkerhetsnett og som en risiko. Riktig trent kan slike modeller hjelpe til med å gjenkjenne faresignaler eller dempe uheldige utslag. Samtidig kan en dårlig justert modell utvikle strategier som først og fremst er tilpasset brukerens forventninger – og dermed forsterke bekreftelsestendenser eller følelser, fremfor å balansere dem.
En ny epoke for kunstig intelligens
Utviklingen av emosjonelt intelligente språkmodeller markerer et nytt kapittel i AI-historien. Resultatene fra de siste månedene viser at teknologien har beveget seg langt forbi ren tekstforståelse. Samtidig tydeliggjør debattene rundt ansvar og etikk at det ikke bare handler om hva modellene kan gjøre – men hvordan, hvorfor og på hvilke premisser de brukes.