Det digitala verktyget kan till exempel komma att användas som en rådgivare till terapeuter som erbjuder digitala samtalssessioner. 96 av alla terapeuter idag erbjuder internetterapi i USA, jämfört med drygt 20 procent 2019. Siffrorna i Sverige uppskattas vara ungefär lika höga. Andra föreslagna användningsområden är utbildningssituationer och rekrytering.
De ska lära AI koda dina känslouttryck
AI
När mänsklig kommunikation sker allt mer på distans förlorar vi möjligheten att läsa av kroppsspråk och andra subtila signaler. I ett nytt forskningsprojekt utvecklar forskare vid Stockholms universitet ett AI-system som kan läsa av användarens känslor.
Någonting är fel
Läs vidare – starta din prenumeration
Samstämmighet avgörande
Forskarteamet vid Stockholms universitet tittar under studien på verbal och alla sorters icke-verbal kommunikation. Däribland ansiktsmimik, kroppsrörelser, till exempel om man rör sig närmare eller bortåt, röstläge, med mera.
– Ansiktet förmedlar ju väldigt mycket information, vi har minst 40 muskler i ansiktet som gör att vi kan kommunicera med varandra på ett väldigt rikt sätt och som ger oss möjligheter att lösa saker effektivt i grupp. Att ha en samstämmighet i kommunikationen – att vi hela tiden läser av om vi blir speglade är väldigt betydelsefullt för oss, kommenterar Lennart Högman, en av forskarna vid Psykologiska institutionen på Stockholms universitet som står bakom projektet ”Låt oss prata om icke-verbal kommunikation”.
Motstridighet synliggörs
Verktyget gör det möjligt att följa en klients emotionella utveckling över tid. Man kan även se när terapeuten och klienten samtidigt uppvisar en viss sorts känslor eller när det uppstår skillnader i synkningen.
Verktyget ska också kunna visa när en person förmedlar motstridiga signaler, exempelvis när det en person säger inte stämmer överens med kroppsspråket.
Möjliggör kvalitetshöjning
Genom systemet ska användaren kunna få sammanfattningar av samtal, och framöver även kunna ställa specifika frågor som i Chat GPT.
– Till exempel ”kan du sammanfatta allt som den här personen har sagt kring sin mor, sin far, en plats eller vad som helst”, samtidigt som man kan få fram vilka positiva och negativa känslor som visats i olika sammanhang, kommenterar Lennart Högman.
Systemet blir alltså som en assistent som minns vad som försiggått under hela terapin och kan därför fungera som ett verktyg för att mäta kvalitet och att förbättra behandlingen över tid.
Fakta
Mer om studien
Projektet, som fått anslag från Marcus och Amalia Wallenbergs minnesfond, är ett samarbete mellan Psykologiska institutionen och Institutionen för data- och systemvetenskap samt ett mer informellt samarbete med Institutionen för mediestudier och internationella forskare.
Verktyget är utvecklat i samarbete med företaget Empatik som stöds ekonomiskt av Stockholms universitet. Det innehåller flera olika lager av AI-system som bland annat analyserar emotionella reaktioner via video och ljud.
En första nivå analyserar motorisk aktivitet, rörelsemönster för ansikte och kropp, parallellt med ljud – så kallad emotionell prosodi (det vi uttrycker med rösten). Därefter transkriberas hela samtalet automatiskt. Slutligen slås de olika dataflödena samman med hjälp av AI.