Etik och moral viktigt för tillförlitlig AI

Förbättringsarbete Med implementering av AI följer också flera etiska frågeställningar. Vilken kvalitet har till exempel resultatet om det baseras på historiska data som inte har korrigerats för bias? Karin Danielsson, forskare på Umeå universitet betonar vikten av transparens för att undvika snedvridningar.

Etik och moral viktigt för tillförlitlig AI

När e-handelsföretaget Amazon under mitten av 2010-talet använde ett AI-verktyg för rekrytering blev resultatet att majoriteten av de utvalda toppkandidaterna var män. Kvinnliga sökande sållades automatiskt bort på grund av att AI tränats på historiska data och att man tidigare alltid haft flest män på de aktuella posterna.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

– Det visar hur viktigt det är med transparens så att man förstår hur systemet kommit fram till resultatet. Tack vare uppmärksamheten kring Amazons rekryteringsprocess är man i dag medveten om hur man bättre kan använda och inte använda AI-system, att det behövs människor som gör sista urvalet, säger Karin Danielsson, som är docent i informatik samt föreståndare för Humlab som verkar i gränslandet mellan informationsteknik och humaniora.

Trots att AI i ett slag kommit på allas läppar är det ingalunda någon ny företeelse, konstaterar hon. Olika AI-verktyg har använts sedan lång tid tillbaka, utan att vi riktigt varit medvetna om det. Men det som hänt med genombrottet för generativ AI är att betydligt fler fått upp ögonen för AI och möjlighet att prova på vad det innebär i praktiken.

– Dessutom har EU inlett ett arbete med att sätta upp ett regelverk kring utveckling, implementering och användning av AI-system, vilket också skapat mycket diskussion och medvetenhet kring AI, säger hon.


Större risker än annan digitalisering

I sin forskning har Karin Danielsson bland annat tittat på hur AI-verktyg implementeras i samhället och vilka konsekvenser det får för medborgarna. Hon menar att de etiska riskerna med AI är större än med annan digitalisering.

– Med andra former av digitalisering visste man vilken data som användes och hur man kommit fram till resultatet. Men med en del AI-system tappar vi kontrollen. Om vi sätter för stor tilltro till resultaten och inte förstår vad de baseras på så kan det få stora konsekvenser i samhället för vilka beslut vi fattar i olika frågor, konstaterar hon.

Problemet är just att många AI-system tränas på historiska data och den typ av information som vi har om samhället i dag. Den informationen är i många fall viktad och inte tillräcklig för att ge ett rättvist och representativt resultat.

– Ett exempel är att textbaserade AI-system saknas på många minoritetsspråk eftersom det inte finns tillräckligt med publicerat material att träna på. Det gör att man utesluter flera språk och sätt att uttrycka sig på, säger hon.


Viktigt med transparens

Karin Danielsson ger rådet till utvecklare och användare av AI-verktyg att noga analysera den data som systemen grundar sig på för att åstadkomma högre kvalitet i resultaten.

Fakta

3 sätt att höja kvaliteten på AI-resultaten

1. Analysera den data som systemen grundar sig på.

Vikta befintliga data och komplettera, om möjligt, med färskare data.

2. Skapa transparenta system.

Se till systemet visar hur man kommit fram till resultatet.

3. Överlåt inte beslutet till systemet.

Låt systemet komma med förslag och överlåt beslutet till en människa.

– Historiska data är en fallgrop. Försök att vikta befintliga data annorlunda eller komplettera med färskare uppgifter om det är möjligt. Ge också tydliga instruktioner om hur systemen ska tränas och förhålla sig till den data som finns, förklarar hon.

Ett annat nyckelord för att höja tillförlitligheten är transparens. EU:s ”Ethics guidelines for trustworthy AI” lyfter just fram vikten av att kunna se hur se hur systemen är uppbyggda, men också hur de kommit fram till sitt resultat.

En tredje väg som Karin Danielsson rekommenderar är att inte överlåta hela beslutsprocessen till AI.

– Systemet kan visserligen komma med förslag, men en människa bör fatta det slutliga beslutet. Med alltför autonoma och självständiga AI-system ökar riskerna för snedvridning av resultaten. Vi behöver vara medvetna om varför och på vilka grunder vi fattar beslut, konstaterar hon.


EU-förordningen bra första steg

Karin Danielsson välkomnar den EU-förordning – AI Act – som är på väg, men är inte säker på att den kommer att ge tillräckligt stöd för att säkra upp att AI-systemen är rättvisa och etiska.

– Förordningen är ett bra första steg. Men regelverk och utveckling går inte alltid hand i hand. Regelverken följer ofta av att man sett att en viss utveckling redan skett. Och när regelverken är på plats har utvecklingen gått vidare, säger hon.

Det går heller inte att överlämna hela ansvaret för etik och moral till utvecklare och användare av AI-systemen. Alla intressenter i samhället måste vara med i diskussionen om ansvarsfrågorna.

– Här har universiteten en viktig roll för att lyfta in utvecklaransvar och etiska frågor som en viktig del i utbildningen av framtidens beslutsfattare, konstaterar hon.

Men även om Karin Danielsson lyfter fram riskerna med AI ser hon också många fördelar med systemen. Inte minst inom sjukvården som får ännu bättre verktyg för att till exempel analysera röntgenbilder och diagnostisera sjukdomar.

– Men för att utvecklingen ska gå i rätt riktning krävs kompetens som kan hjälpa till att värdera frågor om etik, moral, representativitet och transparens. Det får inte bara vara ekonomiska vinstintressen som driver utvecklingen inom AI framåt, sammanfattar Karin Danielsson.

Kvalitetsprofilen

Kunskapsmaterial

Utbildnings-tv

Hämtar fler artiklar
Till startsidan
Kvalitetsmagasinet

Kvalitetsmagasinet Premium

Full tillgång till strategiska artiklar och smarta verktyg för bland annat verksamhetsutveckling, kvalitetssystem och ledarskap.