Fredrik Scheja är test- och kvalitetsrådgivare på Sogeti och har länge arbetat tvärvetenskapligt för att bli bättre på att förstå mekanismerna bakom hur AI fungerar utifrån de instruktioner vi ger. Han ser en överdriven tilltro till algoritmerna utan förståelsen av att det i grunden bygger på statistik, och kanske inte alltid är lämpad som lösning för problem som kräver ett säkert ”rätt svar”.
Därför måste framtidens AI våga säga emot
AI
AI bygger på statistik och kan göra fel. Trots det ser många AI som lösningen på allt – när den egentligen bara förstärker mänskligt beteende – både det goda och det onda. Det menar Fredrik Scheja på Sogeti, som vill se ett ändrat förhållningssätt för framtidens kvalitetssäkring av AI.
– Jag tror att tilltron på det naturvetenskapliga metoderna är djupt rotade i oss människor, att vi vill ha någon expert som sitter på "rätt" svar.

Någonting är fel
Läs vidare – starta din prenumeration
– Det blir problematiskt i förhållande till att de som testar AI har ett mer moget förhållningssätt till AI än de som beställer, vilket skapar ett glapp, säger Fredrik Scheja och fortsätter:
– AI är ett väldigt starkt verktyg för att få oss att tro att något som inte är rätt faktiskt är det. Lyfter man det kan beställaren invända med ”Men bygg bara en modell som ger rätt svar”, men då kanske det inte är en statistisk modell som är bäst lämpad, exempelvis.
Fredrik Scheja ser ändå en förändring i samhällets syn på AI, men det tar små steg.
– Vi har under en tid i branschen talat om vikten av Data Literacy, alltså den djupa förståelsen för vad data är och hur vi bör förhålla oss till den på ett moget sätt. Jag tror det är dags att föra fram AI Literacy på agendan, alltså ett mer moget förhållningssätt till AI. Forskare opererar i kaos, de vet att man inte levererar säkra svar men det är ofta obekvämt och svårt för människor att förstå, man vill ha enkla svar.
Det ställer andra krav på kvalitetssäkringen av AI, menar Scheja. Man måste bland annat utveckla metakognition.
– För att uppfylla AI Act behöver beslut som tagits av AI också kunna utvecklas och förklaras. Det ökar också förståelsen för AI och vad som driver fram ett visst svar.
AI bör också bli mer ”obekväm” för att driva på utveckling.
– Vi måste bygga in mer skav. Innovation kommer från att våga lyssna på människor som tycker och tänker annorlunda. AI-språkmodellerna har en förmåga att alltid bejaka det en person tycker, vilket förstärker det som är rätt men också det som är fel.
– Kanske vore det bra om exempelvis Copilot blev mer ”autistisk” i sin logik – alltså mindre benägen att bekräfta och mer inriktad på att utmana resonemang.
Han drar en parallell till dramaturgin.
– Man behöver en tydlig antagonist. Den som ifrågasätter gör att andra faktiskt börjar lyssna, säger Fredrik Scheja.


