nr-logo

För smart verksamhetsutveckling

  • Annonskod mobil topp

Jakob Bundgaard, PwC Sverige. Foto: Kristin Lidell.

5 områden som höjer AI-säkerheten

Många företag ligger nu i startgroparna för stora satsningar på artificiell intelligens, AI. Men samtidigt finns risker för att säkerhetsfrågorna prioriteras för lågt, enligt en ny rapport från PwC, som lyfter fram fem områden som är särskilt viktiga att tänka på för att höja säkerheten.

  • Kod för annonsposition 1 i huvudspalten

2019 kan bli det år då AI får sitt stora genombrott och på allvar förändrar branscher och affärsmodeller. Enligt beräkningar kan AI bidra med inte mindre än 15 700 miljarder dollar till den globala ekonomin 2030.

Läs även: AI kan bli hävstång för svensk ekonomi.

Men enligt PwCs rapport ”2019 AI Predictions” är det många beslutsfattare som missar en av nyckelfrågorna.

– I dag satsar allt fler företag på AI och 2019 lär vi få se en explosion inom området. Men samtidigt måste säkerhetstänket hänga med. Här finns mycket att göra inom många organisationer, såväl privata som offentliga, säger Jakob Bundgaard, ansvarig för Cyber Security på PwC Sverige i en kommentar.

Systemens pålitlighet

Även om det finns en medvetenhet om utmaningen så visar rapporten att det fortfarande återstår mycket arbete när det gäller AI-säkerhet. Bara 47 procent av de svarande planerar att öka fokus på tester när det gäller påverkan av datamodeller och användning av algoritmer. Dessutom är det bara drygt hälften som tänker satsa på att förbättra styrning av driftsmodeller och processer kopplade till AI.

– Det har funnits en diskussion och ökad oro för hur AI kan påverka integritet och sysselsättning, men inte lika ofta kopplat till cybersäkerhet. Samtidigt märker vi nu att allt fler ställer sig frågan om det går att lita på AI. Så det är ingen överraskning att cheferna i den här undersökningen säger att AI-systemens pålitlighet lyfts som en av deras största utmaningar för 2019, säger Jakob Bundgaard.

Rapporten lyfter fram fem områden som särskilt viktiga att tänka på för att skapa ökad säkerhet kring AI:

  1. Opartiskhet – minskar riskerna för påverkan med de data- och AI-modeller som ni använder eller är det tvärtom så att de ökar?
  2. Tolkningsbarhet – kan ni förklara hur en AI-modell fattar beslut och kan ni säkerställa att besluten är korrekta? Om inte – vems är ansvaret?
  3. Robust och säker – kan ni lita på AI-systemets prestanda och hur sårbart systemet är för angrepp?
  4. Styrning – vem är ansvarig för AI-system och finns rätt kontroller på plats?
  5. Etiskt perspektiv – överensstämmer era AI-system med regler och lagar och hur kommer de att påverka anställda och kunder?

Etiska råd

För att kunna hantera dessa områden behövs en organisation med tydligt ansvar för AI, menar Jakob Bundgaard:

– En trend som vi ser är att allt fler företag nu skapar etiska råd och inrättar en Chief Ethic Officer-roll med teknikkompetens och där AI är en del av uppdraget. Framöver kommer det helt klart behövas fler arbetsroller som kombinerar teknisk expertis med kunskap om juridik-, etik- och varumärkesfrågor.

Fler företag vill även göra AI-besluten mer transparenta, tolkningsbara och möjliga att se nyttan av.

– Lite förenklat handlar det om algoritmer som förklarar sig själva. Målet är med andra ord en AI-lösning som kan förklara dess rationalitet, styrkor, svagheter och förmedla hur den kommer att fungera i framtiden. Framöver tror jag att våra beslutsfattare kommer att trycka mer på de här tolkningskraven och bygga in dem i regelverken, säger Jakob Bundgaard.

  • Kod för annonsposition 2 i huvudspalten

  • Kod för annonsplats 3 i huvudspalten

Fler nyheter

  • Annonskod Huvudspalten 4

Prenumerera på Kvalitetsmagasinets nyhetsbrev

 Anmäl dig här

Nyhetsbrevet är helt gratis och du kan när som helst avsluta prenumerationen.