Den ökade användningen av AI kan innebära stora vinster inom många olika områden – men också risker. EU-kommissionen har därför tagit initiativ till att som först i världen reglera utveckling och användning av AI utifrån ett riskbaserat angreppssätt. Syftet är att regleringen ska bidra till att vi får säkra och transparenta system som inte är farliga eller diskriminerande.
Så ger standarder stöd till ny EU-lagstiftning för AI
Standardisering
EU blir först i världen med att införa lagstiftning som reglerar utveckling och användning av artificiell intelligens. Inom standardiseringen pågår nu arbetet för fullt med att ta fram harmoniserade standarder som ska ge stöd för att uppfylla kraven i lagstiftningen.
Någonting är fel
Läs vidare – starta din prenumeration
Ett första förslag till förordning, som alltså är en direkt bindande rättsakt, presenterades redan i april 2021. Arbetet har sedan dragit ut på tiden, men har nu gått in i slutfasen och förordningen AI Act förväntas träda i kraft vid halvårsskiftet i år för att därefter implementeras i medlemsstaternas lagstiftning.
Enligt förslaget ska AI-system analyseras och klassificeras utifrån den risk de utgör för användarna. De olika risknivåerna kommer att innebära mer eller mindre omfattande reglering.
– Det är ingen tvekan om att det behövs reglering inom området. AI-användningen ökar snabbt samtidigt som insikten växer om att inte alla AI-system gör samhället bättre, säger Elisabet Spross, som är sektionschef för Informationsteknik och Ledningssystem på Svenska Institutet för Standarder, Sis.
Fyra olika riskklasser
I förordningen sorteras AI-systemen in i fyra olika riskklasser.
- System med minimal eller ingen risk.
Förordningen tillåter fri användning av AI med minimal risk. Den stora majoriteten av de AI-system som i dag används inom EU hör till denna kategori.
- System med begränsad risk.
AI-system med begränsad risk ska uppfylla vissa minimikrav på transparens. Det innebär till exempel att användare av chatbots ska ges information om att de interagerar med en maskin.
- System med hög risk.
Alla AI-system som har negativ påverkan på säkerhet eller grundläggande rättigheter betraktas som högrisksystem. Dit hör till exempel system som används i produkter som faller under EU:s produktsäkerhetslagstiftning, som leksaker, flyg, bilar, medicintekniska produkter och hissar. Men även system som används inom utbildning, brottsbekämpning och infrastruktur klassas som högrisksystem. AI-system med hög risk kommer att omfattas av strikta krav innan de kan släppas ut på marknaden och för användning krävs tillstånd från ett oberoende rättsligt eller annat oberoende organ.
- Förbjudna system.
System som är förbjudna att utveckla och använda inkluderar dem som har till syfte att till exempel undermedvetet påverka individer, men även dem som utnyttjar svaga grupper med risk för hälsa eller används av offentliga aktörer för social rankning eller biometri i realtid.
– Ett exempel på förbjudet system är det som används i Kina för social kreditvärdighet som bygger på realtidsövervakning och rankning av medborgarna. Ett sådant system skulle inte gå att utveckla eller användas med EU-förordningen, konstaterar Elisabet Spross.
Påverkar innovationsförmågan
Hur kommer då innovationsförmågan inom AI att påverkas av AI Act? Det finns kritiker som menar att förordningen kan innebära vissa hinder i innovationsarbetet.
– Det kan finnas en risk att alltför strikta regler kan begränsa utvecklingen av nya och fördelaktiga AI-system. En balans mellan reglering och standardisering kan därmed vara ett bra sätt att uppnå bästa möjliga resultat, säger Viveka Bonde, partner och advokat på Bonde Advokater samt ordförande i den kommitté – Sis/TK 421 – som är kopplad till AI Act.
Som stöd för att uppfylla kraven i förordningen gick EU-kommissionen redan på ett tidigt stadium ut med en så kallad standardiseringsbegäran till de europeiska standardiseringsorganen om att ta fram standarder.
– Standardisering spelar en viktig roll för att skapa en gemensam ram för utveckling och användning av AI. Standarder kan utgöra stöddokument för lagstiftning och därmed bistå i att fylla ut eventuellt tolkningsutrymme. Men även ge vägledning för att uppfylla etiska och samhälleliga krav utöver lagstiftningen, som ansvar, rättvisa och icke-diskriminering, transparens och säkerhet, förklarar Viveka Bonde.
Totalt 38 AI-standarder
Den standardiseringsbegäran som EU-kommissionen skickat till standardiseringsorganen innehåller tio områden där det finns behov av standarder som är harmoniserade med AI Act. Utifrån det har den europeiska standardiseringskommittén sedan identifierat sex övergripande områden, vilket resulterat i ett arbetsprogram med totalt 38 olika standarder.
Flera av dem är befintliga standarder som nu harmoniseras med förordningen, men utöver det tas det även fram egna europeiska standarder som är anpassade till AI Act.
– Standarderna är att betrakta som stöddokument till lagstiftningen. De är frivilliga att använda, men underlättar vid till exempel upphandling. Om till exempel en utvecklare av ett AI-system följer en harmoniserad standard anses systemet uppfylla de väsentliga krav som anges i förordningen. Standarden fungerar då som en förlängning av EU-lagstiftningen, men är fortfarande frivilliga att använda. Man kan även visa på överensstämmelse mot lagkraven på andra sätt, säger Elisabet Spross.
Arbetet med standardisering samordnas av den europeiska kommittén CEN-CLC/JTC 21 Artificial intelligence, där svenska experter kan delta genom spegelkommittén Sis/TK 421.
Sex organisationer finns hittills representerade i den svenska kommittén.
– Men det finns plats för fler. Som deltagare får man unik inblick i arbetet och löpande förstahandsinformation som kan komma till nytta i den egna verksamheten, säger Viveka Bonde.
Även inom ISO pågår ett arbete med standardisering inom AI – fast utan direkt koppling till AI Act. Arbetet drivs genom kommittén Iso/IEC JTC 1/SC 42 Artificial intelligens och även det arbetet speglas i svenska Sis/TK 421. Det internationella arbetet handlar bland annat om standarder för ledningssystem för AI, datakvalitet, tillförlitlighet samt testning och validering av AI-system.