Besluten som AI inte får ta enligt EU

AI AI kan effektivisera myndigheters arbete. Samtidigt kan fel typ av användning gå i strid med EU-regler såväl som mänskliga rättigheter.

Besluten som AI inte får ta enligt EU
Vladislava Stoyanova, docent i folkrätt på Lunds universitet. Foto: privat, Adobe stock.

Europa anses generellt vara mer regleringsdrivet när det gäller AI än andra delar av världen. EU:s ”AI Act” har blivit en symbol för en lagstiftning som uppfattas som krånglig och innovationshämmande. Nu har EU därför föreslagit ett digitalt omnibuspaket med mer flexibla regler och förenklingar i syfte att öka innovationen och minska administrationen.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

– Jag tror att en stor anledning till den stämpel som EU fått är ”AI Act”. Samtidigt är det inte en särskilt kraftfull reglering då det finns många undantag, säger Vladislava Stoyanova.

Vladislava Stoyanova är docent i folkrätt vid juridiska fakulteten på Lunds universitet. Hon har nyligen skrivit en rapport om hur AI kan och inte kan användas i asylprocesser, på uppdrag av Delegationen för migrationsstudier, Delmi.

– Asylprocesser räknas som ett högriskområde inom EU. Därför måste vi vara extra försiktiga när vi inför AI i sådana processer, säger hon.

”AI Act” listar vilka typer av AI-användning som anses innebära hög risk. Det gäller bland annat områden som brottsbekämpning, utbildning, migration och gränskontroll. Samtidigt gäller klassificeringen bara vissa specifika tillämpningar inom dessa områden. Ett exempel är:

AI-lösningar som används i utbildningsinstitutioner och som kan påverka tillgången till utbildning och en persons yrkesliv (till exempel betygssättning av prov)” – AI Act, EU.

Stoyanovas rapport bygger främst på en juridisk analys av lagstiftning och mänskliga rättigheter.

Därför kan fel användning av AI bryta mot mänskliga rättigheter

Inom de mänskliga rättigheterna finns tydliga principer för hur processer mellan individ och myndighet ska gå till.

Det handlar bland annat om kvalitet, transparens, effektivitet, oberoende, mänsklig involvering och tydliga beslutsmotiveringar. Om användningen av AI allvarligt inskränker dessa principer kan det strida mot de mänskliga rättigheterna.

– Migrationsverket är en offentlig myndighet. Om de till exempel skulle använda AI för beslutsfattande i asylprocesser utan att en människa granskar besluten, skulle man kunna argumentera för att de brutit mot de mänskliga rättigheterna.

De största riskerna med AI i asylprocesser är enligt Stoyanova felaktiga beslut och intrång i individens integritet.

”Historiska data som inte speglar dagens verklighet eller framtida förhållanden”

– En viktig insikt är att AI alltid tränas på befintlig data. I asylprocesser kan det innebära att beslut om framtiden baseras på historiska data som inte speglar dagens verklighet eller framtida förhållanden.

Enligt en rapport från EU-kommissionen använde sex OECD-länder AI i någon form i migrationsprocesser under 2022. Det handlade bland annat om språkigenkänning, identifiering av falska dokument och stöd i ärendehantering.

– Det finns fortfarande väldigt lite empirisk forskning på området. Vi vet därför ganska lite om hur AI faktiskt används i offentlig sektor, både i EU och i Sverige, säger Vladislava Stoyanova.

Samtidigt, vidhåller Vladislava Stoyanova, finns det vinster att få med hjälp av AI.

– Effektivitet är såklart en stor fördel med AI. Just asylprocessen har också mycket att tjäna på det då det kan vara en långsam process som individer får vänta på. Det finns också argument för att AI skulle kunna leda till mer objektiva beslut.

Kunskapsmaterial

Utbildnings-tv

Hämtar fler artiklar
Till startsidan
Kvalitetsmagasinet

Kvalitetsmagasinet Premium

Full tillgång till strategiska artiklar och smarta verktyg för bland annat verksamhetsutveckling, kvalitetssystem och ledarskap.

Det senaste