– Det vi rekommenderar våra kunder att göra påverkar ju människors liv, säger Robin Nariman, ansvarig för regelefterlevnad på Alva Labs.
Alva Labs visar vägen till trygg AI-användning med certifiering
Standarder Alva Labs är ett av de största svenska bolagen på marknaden för logik- och personlighetstester inom rekrytering. AI genomsyrar hela deras verksamhet, och bolaget har valt att certifiera sig för sin AI-användning.

Någonting är fel
Läs vidare – starta din prenumeration
Det nya EU-direktivet AI Act trädde i kraft sommaren 2024 och bygger på ett riskbaserat ramverk där kraven skärps ju högre risk ett AI-system anses utgöra för människor och samhälle.
Fakta
Lagstiftningens fyra risknivåer:
Oacceptabel risk – AI-system som anses utgöra ett hot mot grundläggande rättigheter eller mänsklig värdighet förbjuds helt.
Hög risk – AI-system som används i samhällskritiska funktioner är tillåtna men omfattas av hårda krav på riskhantering, datakvalitet, transparens och mänsklig kontroll.
Begränsad risk – System som inte bedöms som högrisk men ändå kräver viss transparens, exempelvis krav på att användare informeras om att de interagerar med AI.
Minimal risk – System som innebär låg eller ingen risk och därmed inte omfattas av några särskilda krav.
Källa: AI Act
Från och med februari 2025 har all AI med oacceptabel risk blivit helt förbjuden. Nästa år börjar även reglerna för högrisk-AI, där bland annat AI i rekryteringssyften börjar gälla.
Alva Labs omfattas av de nya reglerna som ställer höga krav på bland annat riskhantering, datakvalitet, dokumentation, transparens och mänsklig övervakning. De har valt att certifiera sig för Iso/Iec 42001, en ny standard för AI-användning.
– Rent konkret omfattar det hela Alvas arbete med att utveckla, drifta och använda AI-system. Från hur vi strategiskt planerar användningen till hur vi leder den och tillämpar den i våra produkter, förklarar Robin Nariman.
Komplement till övriga standarder
Revisionen inför den nya standarden har gjorts av oberoende externa granskare som bland annat har kontrollerat hur företaget identifierar risker, dokumenterar beslut och säkerställer mänsklig kontroll i varje steg av AI-processen. Alva Labs är även certifierade i Iso 27001 för informationssäkerhet och Iso 10667-2 för rekryteringsprocesser.
– Iso gäller främst hur man organiserar fysiskt arbete, men man kan också ställa krav på sig själva att vilja leva upp till AI-förordningen. Vi har själva sagt att vi vill uppfylla alla krav i AI-högrisksystem även i de system som inte är högrisk. Det är ett sorts ”hängsel och livrem”-tänk.
Alva Labs har ingenjörer som manuellt kontrollerar det AI-modellen rekommenderar.
– Ta en fråga om personlighet, extraverson eller introversion. Då tittar vi på hur väl det överensstämmer med andra svar”. Det är tungt arbete, säger Robin Nariman.
Tanken är att företagets tjänster enbart ska fungera som beslutsstöd. Det är ändå centralt att kunden tar beslut på rätt sätt.
Får det konsekvenser för er om rekryterare använder ert underlag på fel sätt?
– Det kan det få, absolut. När högriskreglerna väl träder i kraft så kommer vi i huvudsak att vara, för psykometriska tester både användare och tillhandahållare eller provider and deployer av AI-system. Men när det kommer till de andra AI-systemen i själva plattformen, som exempelvis rekryterare kan använda för att ta fram intervjufrågor, då är vi endast tillhandahållare.
Den nya certifieringen för Iso/Iec 42001 är inte ett mål i sig, menar Robin Nariman.
– Det är ett ramverk för ständiga förbättringar och gör att produktutveckling och riskhantering är en integrerad del av vår verksamhet. Nu har vi byggt in uppföljning och förbättring i vår dagliga verksamhetsplanering och hela verksamheten utbildas löpande i vad ansvarsfull AI är i praktiken för oss på Alva.


