
Till processindustrin räknas verksamheter som exempelvis gruv-, stål-, kemi-, pappers- och läkemedelsindustrin. Här sker tillverkningen dygnet runt i ett obrutet flöde där en produkt exempelvis går från trästock till papper, eller från järnmalm till pellets.
För att få kontroll över vad som sker i de olika processstegen görs mätningar på många ställen samtidigt och med täta intervall. Problemet är att ju mer data som samlas in, desto svårare blir det för ingenjörerna att analysera informationen på ett bra sätt. Det beror på att de statistiska metoder som finns i dag fungerar dåligt i komplexa system som dessa.
I ett nytt projekt ska nu forskare vid Luleå tekniska universitet, LTU, utveckla statistiska metoder som kan hantera problemet. Detta ska i slutändan skapa en effektivare och mer lönsam processindustri.
– Mätsystemen utvecklas hela tiden medan vissa av de statistiska metoderna inom vårt fält har funnits i 70-80 år. Även om metoderna utvecklas hela tiden kvarstår viktiga problem som behöver lösas för att metoderna ska vara effektiva hjälpmedel, säger Erik Vanhatalo, universitetslektor inom kvalitetsteknik vid LTU och en av projektets nyckelpersoner.
Det fyraåriga projektet på 5,1 miljoner kronor är beviljat av Vetenskapsrådet, och är ett internationellt samarbete mellan kvalitetsforskare från Sverige och Danmark.