Här uppstår en ny lojalitetskonflikt. Den professionella står mellan sitt samlade kunnande, verksamhetens mål och systemets förslag. AI framstår gärna som neutral och rationell, men den är alltid formad av antaganden, dataurval och prioriteringar som någon har bestämt.
När dessa antaganden inte är synliga blir det svårt att göra det kvalitetsprofessionen alltid har varit skyldig att göra: säga emot.
Just därför räcker det inte att tala om AI som stöd – den måste också ledas.
Definiera vad AI får göra
Robert Lingemark lyfter behovet av att kunna leda en hybrid arbetsstyrka där både människor och AI-agenter utför arbete. Det är en nödvändig beskrivning, men den kräver ett tillägg: hybridarbete innebär också hybridansvar.
Någon måste definiera vad AI får göra, när den ska ifrågasättas och när den inte ska användas alls. I samtal jag haft med AI-branschen internationellt hörs detta allt oftare som en framtida roll. För organisationer som vill lyckas är det inte en framtidsfråga – det är ett ansvar som måste tas nu.
Annars behandlas etik och styrning som något som ska komma senare, när systemen redan är på plats. Men då har praktiken satt sig. Då har genvägar blivit norm. Då har professionella lärt sig att det är tryggare att följa systemets rekommendation än att stå för ett avvikande omdöme.
Kvalitet handlar ytterst om ansvar i situationer där det hade varit enklare att låta bli. AI gör att dessa situationer blir fler, inte färre. Den som tror att kvalitet kan säkras genom teknik, utan att samtidigt stärka professionellt mod och tydligt ägarskap, misstar sig.
Frågan är därför inte om AI ska användas. Den används redan. Den verkliga frågan är vem som är beredd att ta ansvar för hur den formar omdöme, makt och gränser i det dagliga arbetet – och vem som väljer att låta bli.
publicerad 9 januari 2026