De ska lära AI koda dina känslouttryck

AI När mänsklig kommunikation sker allt mer på distans förlorar vi möjligheten att läsa av kroppsspråk och andra subtila signaler. I ett nytt forskningsprojekt utvecklar forskare vid Stockholms universitet ett AI-system som kan läsa av användarens känslor.

De ska lära AI koda dina känslouttryck
AI med hög EQ, det vill ett team på Stockholms universitet skapa. Foto: Stockadobe

Det digitala verktyget kan till exempel komma att användas som en rådgivare till terapeuter som erbjuder digitala samtalssessioner. 96 av alla terapeuter idag erbjuder internetterapi i USA, jämfört med drygt 20 procent 2019. Siffrorna i Sverige uppskattas vara ungefär lika höga. Andra föreslagna användningsområden är utbildningssituationer och rekrytering.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

Samstämmighet avgörande

Forskarteamet vid Stockholms universitet tittar under studien på verbal och alla sorters icke-verbal kommunikation. Däribland ansiktsmimik, kroppsrörelser, till exempel om man rör sig närmare eller bortåt, röstläge, med mera.

– Ansiktet förmedlar ju väldigt mycket information, vi har minst 40 muskler i ansiktet som gör att vi kan kommunicera med varandra på ett väldigt rikt sätt och som ger oss möjligheter att lösa saker effektivt i grupp. Att ha en samstämmighet i kommunikationen – att vi hela tiden läser av om vi blir speglade är väldigt betydelsefullt för oss, kommenterar Lennart Högman, en av forskarna vid Psykologiska institutionen på Stockholms universitet som står bakom projektet ”Låt oss prata om icke-verbal kommunikation”.

Motstridighet synliggörs

Verktyget gör det möjligt att följa en klients emotionella utveckling över tid. Man kan även se när terapeuten och klienten samtidigt uppvisar en viss sorts känslor eller när det uppstår skillnader i synkningen.

Verktyget ska också kunna visa när en person förmedlar motstridiga signaler, exempelvis när det en person säger inte stämmer överens med kroppsspråket.

Möjliggör kvalitetshöjning

Genom systemet ska användaren kunna få sammanfattningar av samtal, och framöver även kunna ställa specifika frågor som i Chat GPT.

– Till exempel ”kan du sammanfatta allt som den här personen har sagt kring sin mor, sin far, en plats eller vad som helst”, samtidigt som man kan få fram vilka positiva och negativa känslor som visats i olika sammanhang, kommenterar Lennart Högman. 

Systemet blir alltså som en assistent som minns vad som försiggått under hela terapin och kan därför fungera som ett verktyg för att mäta kvalitet och att förbättra behandlingen över tid. 

Fakta

Mer om studien

Projektet, som fått anslag från Marcus och Amalia Wallenbergs minnesfond, är ett samarbete mellan Psykologiska institutionen och Institutionen för data- och systemvetenskap samt ett mer informellt samarbete med Institutionen för mediestudier och internationella forskare.

Verktyget är utvecklat i samarbete med företaget Empatik som stöds ekonomiskt av Stockholms universitet. Det innehåller flera olika lager av AI-system som bland annat analyserar emotionella reaktioner via video och ljud.

En första nivå analyserar motorisk aktivitet, rörelsemönster för ansikte och kropp, parallellt med ljud – så kallad emotionell prosodi (det vi uttrycker med rösten). Därefter transkriberas hela samtalet automatiskt. Slutligen slås de olika dataflödena samman med hjälp av AI.

Kvalitetsprofilen

Kunskapsmaterial

Utbildnings-tv

Hämtar fler artiklar
Till startsidan
Kvalitetsmagasinet

Kvalitetsmagasinet Premium

Full tillgång till strategiska artiklar och smarta verktyg för bland annat verksamhetsutveckling, kvalitetssystem och ledarskap.