AI

4 minuters läsning

Vad händer när AI slutar svara och börjar göra?

Frida Mangen

Dela inlägget

Det är ett skifte vi ser just nu, från chatbotar som hjälper oss formulera text till agentisk AI som tar en uppgift, bryter ner den steg för steg och genomför.

Vi ser det komma i verksamhetssystem som CRM, HR och ärendehanteringssystem, liksom i de stora språkmodellerna där agentiska funktioner nu är inbyggda, till exempel Copilot Studio, Claude Co-Workers och ChatGPT i agentläge.

Skillnaden? Ungefär som mellan en kollega som ger bra råd och en som tar ansvar för hela leveransen. Som medarbetare får du en mer överordnad roll där du övervakar och samverkar med agenter som kan utföra stora delar av arbetet i olika processer.

Agentisk AI utvecklas just nu av tre skäl. För det första har modellerna blivit tillräckligt stabila för att kunna resonera, planera och agera mer konsekvent. För det andra har integrationer och verktygsanrop blivit alltmer standard i moderna AI-plattformar, vilket gör att AI inte bara kan föreslå nästa steg utan också utföra dem. Samtidigt har många organisationer nått taket för vilken effekt traditionell ”chat-AI” kan ge.

För dig som arbetar med HR, ledarskap eller verksamhetsutveckling handlar det mindre om teknik och mer om hur arbetet organiseras. Det innebär att designa om processer snarare än att bara digitalisera dem, att bygga AI-kompetens och trygghet hos medarbetare, samt att tydligt definiera gränsen mellan agentens mandat och det mänskliga ansvaret.

Det är fortfarande tidigt, agentutvecklingen är bara i sin linda, ungefär som när de första versionerna av ChatGPT började användas brett. Det gör det till ett bra tillfälle att börja utforska och testa, inte för att automatisera allt, utan för att skapa hållbara processer och ge mer utrymme för arbete som kräver mänskligt omdöme.