It looks like you are using Internet Explorer, which unfortunately is not supported. Please use a modern browser like Chrome, Firefox, Safari or Edge.

AI förbättrar analysen, men om resultaten ska skapa värde krävs mänsklig förståelse

Publicerad i Analys

Skriven av

Artikel

3 februari 2025 · 4 min lästid

Analys är en hörnsten i all modern affärsverksamhet. Den styr företagets strategi, ger vägledning i interna processer och gör det möjligt att identifiera utvecklingsbehov och kritiska smärtpunkter. Stora språkmodeller kan förvisso förenkla dataanvändningen, men den växande användningen av AI tydliggör också värdet och betydelsen av skickliga analytiker.

Maskininlärning och AI-algoritmer som skräddarsys för att hantera specifika problem har länge varit en integrerad del i dataanalysen. Nya stora språkmodeller har emellertid revolutionerat tillämpningar inom naturlig språkbehandling och möjliggör problemlösning utan specialiserade träningsdata. Trots deras imponerande presentationsförmåga når expertisen och förmågan till logiska resonemang hos dessa modeller inte upp till den standard professionella analytiker sätter.

Detta är något Eero Lihavainen, Senior Data Scientist på Nitor, förstår väl, tillsammans med Tuomo Kakkonen som nyligen gick vidare i sin karriär. Tuomo har också fungerat som extern expert för Europeiska kommissionen och bidragit i urvalsprocesserna för nya EU-finansierade AI-projekt.

Eero och Tuomo konstaterar att inom textanalys har AI-revolutionen i första hand inneburit att många system byggts om för att utnyttja stora språkmodeller. Traditionella metoder fungerar förvisso bra, men inom textanalys är det helt klart fördelaktigt på olika sätt att lära upp språkmodeller. AI kan minska mängden manuellt arbete och underhåll som krävs med äldre textanalysverktyg.

Många företag funderar nu på hur man kan integrera språkmodeller i befintliga system och försöker avgöra hur länge man ska förlita sig på äldre, beprövade system och metoder. Eero är noga med att påpeka att AI har använts inom dataanalys länge – praktiskt användbar dataanalys kräver emellertid fortfarande förmågan att praktiskt urskilja vilka uppgifter som kan automatiseras och vilka som kräver specialistarbete.

Datakvalitet betonas i AI-eran

Enligt Eero är det fortfarande mest effektivt att hantera vanliga dataanalysutmaningar med traditionella statistiska metoder och maskininlärning. Språkmodeller har dock blivit en del av analytikernas vardag och fungerar som ”digitala kollegor” som snabbar på programmeringen och andra uppgifter som till exempel att skriva databasfrågor. De kan också hantera enkla databearbetningsuppgifter som annars skulle ta lång tid.

Stora språkmodeller kan också fungera som automatiseringsverktyg. För tillämpningar som involverar läsning eller generering av naturligt språk – som till exempel att omvandla ostrukturerade data till ett strukturerat format för vidare analys eller tillämpning – är språkmodeller otroligt flexibla. Denna flexibilitet har emellertid inneboende risker. Det är lätt att bygga en prototyp som fungerar som en tjusig demo, men mycket svårare att skapa en lösning med acceptabel felmarginal. Att bedöma hur väl en lösning presterar i praktiken kräver expertis från en dataanalytiker.

”Mätning är en av de viktigaste aspekterna i dataanalysarbetet, och efterhand som användningen av stora språkmodeller ökar blir valideringen av resultaten allt mer avgörande. AI-modeller är ökända för det faktum att deras produktion kan förändras avsevärt när en ny version rullas ut eller till och med när en frågeformulering ändras”, förklarar Eero.

När företag nu använder AI för att behandla textdata blir datakvaliteten om möjligt ännu viktigare. Om ett dokument som matas in i modellen är obegripligt för en människa kommer modellen förmodligen inte heller att förstå det. Däremot kan språkmodeller hjälpa till att skriva och förbättra kvaliteten på textinnehåll, och detta är en av de mest populära tillämpningarna i dag.

Mätning och förståelse är mest värdefullt

Mätning är avgörande om man vill få fram praktiskt användbara data som kan styra ett företags arbete effektivt. Analys och utvärdering kräver en djup förståelse för de aktuella affärskomponenterna och deras inbördes samband. I denna ekvation överträffar en kunnig, ansvarstagande och etiskt medveten dataanalysexpert utan tvekan generativ AI-kapacitet.

Efterhand som datavolymerna växer ökar även svårigheterna kopplade till hantering och kvalitetssäkring. Tuomo Kakkonen och Eero Lihavainen betonar behovet av ökad automatisering för att stärka övervaknings- och valideringsprocesser.

”Vi är i skriande behov av nya typer av system som utformats specifikt för att övervaka AI-system. GDPR-efterlevnad är förvisso obligatorisk i EU och kommande AI-akten kommer att ge ett strängare regelverk, men grundstenen för tillförlitlig analys är att förstå byggstenarna för värdefulla, etiska och säkra data- och AI-modeller”, förklarar Tuomo.

Med andra ord har de processer som producerar värdefulla och användbara analyser inte i sig själva blivit enklare i och med de nya AI-modellerna. Naturlig språkbearbetning och storskalig datahantering har förvisso blivit mer effektiv, men förhoppningarna om överlägsen snabbhet och enkelhet kan leda företag fel om de saknar den grundliga förståelsen för sina mål och metoder och huruvida den valda riktningen utgår ifrån robusta och tillförlitliga data eller inte. Det är denna förståelse som digitala ingenjörer på Nitor kommer att fortsätta tillhandahålla och odla i framtiden.

Nitor hjälper företag att utnyttja data på ett mer strategiskt sätt. Läs mer om våra analystjänster!

Skriven av