It looks like you are using Internet Explorer, which unfortunately is not supported. Please use a modern browser like Chrome, Firefox, Safari or Edge.

Ansvarsfull AI – byggstenarna för pålitlig teknologi

Publicerad i AI, Hållbarhet
A picture of a human sitting by the computer with a picture of a robot

Skriven av

Artikel

29 april 2025 · 5 min lästid

Finns det något recept för pålitlig och ansvarstagande AI-användning för företag i tech-branschen – som fungerar både nu och i framtiden? Gör dig redo för ett antal beska sanningar när vi tar oss an denna mångfacetterade fråga med Nitors Annika Madejska, senior designer och expert på digital etik, samt vår hållbarhetsdirektör Ari Koli.

Det finns ett grundläggande tankefel i hur många företag närmar sig AI-implementering: känslan är att om man inte kastar sig huvudstupa in i AI, så halkar man efter.

Att reflektera över existerande utmaningar och önskade resultat sker ofta först i efterhand – efter att en vagt formulerad önskan om att införa AI redan presenterats. Lite som att smida en nyckel till ett lås som ännu inte existerar.”Detta gäller även produktledarskap. Företag har generellt sett inte rustats för att arbeta effektivt i produktutvecklingsfasen, vilket är avgörande för att skapa värdefulla lösningar för kunder och matcha produkten mot marknaden”, inleder Ari Koli.

Så hur är detta kopplat till ett företags strategi för ansvarsfull användning av teknik och AI, dess möjlighet att följa lagar och regler och förmågan bedriva en långsiktig verksamhet på ett hållbart sätt? Svaret är att kopplingarna finns i princip överallt.

”Det ligger i själva kärnan av varför teknik ofta misslyckas – att man har för bråttom och antar att 'det går att fixa i efterhand’”, konstaterar Annika Madejska.

”Allt från att uppfylla lagkrav till att hålla företagets personal utbildad och informerad för att möjliggöra ett medvetet användande av data måste bygga på en grund av förståelse. I det nuvarande uppskruvade tempot kring AI är alla helt enkelt alldeles för upptagna med att ha bråttom – alltför upptagna för att hinna reflektera över om de fokuserar på rätt saker med AI, och hur dess införande påverkar befintliga strukturer.”

Ansvarsfördelning och ansvarstagande

När förståelsen är begränsad blir även medvetenheten om hur AI kan användas begränsat. Ansvarsfull AI-användning börjar med att utrusta medarbetarna med kunskap och de färdigheter som krävs för att arbeta med AI. Utan ett starkt fundament av AI-kunskap kommer företag att få svårt att tillämpa AI på ett ansvarsfullt och strategiskt gynnsamt sätt.

När medarbetarna förstår AI kan företaget tryggt kommunicera dess användning till kunderna. För att hjälpa kunder att navigera i det nya teknologiska landskapet, krävs förmågan att erbjuda tydlig och lättillgänglig information om var och hur AI används i de tjänster som påverkar dem – i synnerhet när personuppgifter är inblandade. Att bygga förtroende för AI handlar inte bara om kommunikation – tilliten vilar på intern tydlighet, kompetens och trygghet.

Det vi pratar om här är ansvarsfördelning och ansvarstagande . Detta måste integreras i hela organisationen genom en gemensam förståelse, transparenta metoder och en kultur som inte ser AI som bara en teknisk lösning, utan som en serie mänskliga val som kräver omsorg, reflektion och tillsyn. Helt enkelt en företagskultur där det är tillåtet – till och med förväntat – att lyfta etiska frågor, och där alla förväntas hållas ansvariga.

Lära sig hantera osäkerhet

Det råder stor osäkerhet bland företag kring hur AI ska hanteras.Använder medarbetarna AI på ett ansvarsfullt sätt i den dagliga verksamheten, och hur kan vi övervaka detta? Är språkmodellernas resultat opartiska och rättvisa, och hur kan detta valideras? Om en chatbot som ansvarar för kundtjänsten förmedlar såväl desinformation som subjektiva åsikter, vem inom företaget har då bäst möjlighet att åtgärda situationen? God förståelse är en avgörande förutsättning inte bara för att utveckla lösningarna, utan också för att vid behov byta kurs helt och hållet.

Annorlunda uttryckt: skepp har inte livbåtar för tider då havet är lugnt.

”Bristen på ansvarsskyldighet ökar redan det etiska skuldberg som tekniksektorn samlat på sig. Förr eller senare kommer alla att behöva skriva solida styrmodeller för hur AI ska användas på företaget, men många vet inte hur de ska komma vidare. Vägen framåt kommer bara att bli tyngre ju längre företagen väntar med att komma igång”, förklarar Ari Koli.

”Vägen kommer också att bli mer oförutsägbar med tiden, vilket blir ett ännu större problem med tanke på den tidigare nämnda brådskan som många företag drivs av. Det etiska skuldberget växer snabbare än någonsin förr på grund av AI. Vi skjuter detta framför oss i allt högre takt. Därför blir det allt svårare att förutse vad som väntar i framtiden”, fortsätter Annika Madejska.

Missuppfattningar kring lagar och regler

Problemet med begränsad expertis och det bristande ansvarstagande som den medför är något av en krutdurk för företag när nya EU-regler implementeras – ett utmärkt exempel är AI-förordningen. Även i ett teknikcentrerat land som Finland är få företag förberedda på implementeringen, men i ett globalt sammanhang är det största problemet hur den uppfattas: lagstiftningen ses som begränsande snarare än ett skyddsräcke. Som ett hinder istället för en etisk och värdebaserad ledstjärna. En mur som står i vägen istället för en bro som leder framåt.

”EU-lagstiftningen kommer att rama in hur vi tänker kring innovationer som inbegriper AI, men jag tror inte alls att Europa halkar efter i ett globalt perspektiv. Begränsningar är ofta bra och ibland helt nödvändiga för innovation”, konstaterar Annika Madejska.

”Det finns också missuppfattningar om att AI-förordningen är onödigt svår att förstå och tillämpa. Det stämmer inte. Ett företag behöver bara ta sig tid att utarbeta en solid styrmodell för hur AI ska användas, och AI-lagen tillhandahåller ett ramverk för denna process”, infogar Ari Koli.

Det finns dock ingen mall eller universallösning för AI-styrning – varje organisation måste skräddarsy en lösning som passar deras kontext och arbetssätt. Om man bara tänker använda AI kan en enklare styrmodell räcka, men om ditt företag aktivt utvecklar och implementerar AI måste styrningen omfatta betydligt fler aspekter. Frågan är inte om en organisation behöver en modell för AI-styrning – det gör de, det gör ni – utan snarare hur omfattande styrningen behöver vara.

I spåren av 1800-talets rövarbaroner

Det är viktigt att komma ihåg att vi fortfarande befinner oss mycket tidigt i AI-utvecklingen, och många styrstrukturer och informationssäkerhetsdetaljer förändras fortfarande snabbt. Det här är något som Nitors experterna strävar efter att hjälpa till att förbättra. Ari Koli fortsätter:

”Styrmodeller gör företag mer förtroendeingivande i kundernas ögon, men de är också avgörande för att hjälpa medarbetarna förstå hur nya verktyg kan implementeras effektivt och användas eller drivas ansvarsfullt. Effektiva styrmodeller är inte svartkonst, men de kräver AI-kunniga och kompetenta medarbetare, så att ansvar kan tas och upprätthållas i hela organisationen. För denna typ av AI-implementering behövs ett strukturerat angreppssätt.”

Annika Madejska avslutar vårt samtal med en tankeväckande reflektion:

”Industrialiseringen påverkade mänskligheten något enormt. Den pågående tekniska revolutionen är ännu större, eftersom vi nu har kapacitet att åstadkomma omfattande globala förändringar i en aldrig tidigare skådad hastighet. Men rövarbaronerna från industrialiseringens guldålder hölls till slut ansvariga för korrupta affärsmetoder och exploatering av arbetskraft. Om någon i dagens teknikbransch tror att de aldrig kommer att ställas till svars, så ägnar de sighelt klart åt självbedrägeri.


Vill du stärka ditt företags digitala verksamhet på ett sätt som står emot tidens tand? Läs mer om våra tjänster!

Skriven av