It looks like you are using Internet Explorer, which unfortunately is not supported. Please use a modern browser like Chrome, Firefox, Safari or Edge.

Dags att hantera vår etiska skuld - Del 1: Förvandlingen

Publicerad i Design, Affärer

Skriven av

Annika Madejska
Senior Designer

Annika Madejska är Senior Designer på Nitor och gillar att tackla komplexa designutmaningar och att kliva utanför sin bekvämlighetszon. Hon är en förespråkare för etik inom teknik, särskilt AI-drivna tjänster. På fritiden ägnar hon sig åt textilhantverk och att måla akvareller, eller så gräver hon i trädgården.

Artikel

29 maj 2023 · 6 min lästid

Vi bevittnar just nu en teknologisk förvandling av samhällsstrukturen som kommer att ha en påverkan på våra liv bortom vad vi kan förstå idag. Det börjar bli ett problem att vi ännu inte har hanterat den ackumulerade etiska skulden inom branschen och nu bygger vi framtiden på en skakig grund. I den här artikeln kommer du att få reda på varför en investering i etik är både riskhantering och varumärkesskydd. 

Detta är första delen i en tudelad artikelserie om etisk skuld i teknikindustrin. Del två finns här.

Med de senaste framstegen inom generativ AI har det blivit allt tydligare att vi står inför stora förändringar, både i livet och i samhället. Framtiden där AI skulle ta över fler och fler av våra uppgifter kändes långt borta så sent som den 29 november 2022. Men med lanseringen av ChatGPT redan nästa dag stod vi plötsligt redan där, i den avlägsna framtiden.

Plötsligt gick vi från en slapp inställning till etiska frågor om AI till en vardag med betydligt mer påtaglig oro, då det nu finns anledning att bekymra sig över att fundamentala strukturer i vårt samhälle kan omkullkastas på grund av fabricerade videor, fejkade röstinspelningar eller foton som suddar ut gränserna mellan fiktion och verklighet.

Vissa känner sig överväldigade av hur mycket etisk skuld vi har, medan andra kan störas av etikförespråkare vilka de uppfattar som glädjedödare i en ny era av fantastiska möjligheter.

Under 2023 har AI-utvecklingen fortsatt att ta stora kliv framåt och visat att den potentiella omställningen i och förändringen av våra liv inte är något som bara finns i fantasin. Omställningen är här och utvecklas rakt framför våra ögon.

Hittills har de flesta AI-tjänsterna varit smala i sin intelligens, vilket innebär att de har varit mycket specifika och bara riktigt bra på att utföra en enskild uppgift. Men lanseringen av ChatGPT förändrade spelplanen radikalt.

Till exempel föreslår Microsofts forskare nu att flera av dessa smala AI-tjänster kan kombineras och styras med hjälp av ChatGPT. Plötsligt bryts gamla barriärer och nya möjligheter kan skönjas vid horisonten.

Visst är detta fortfarande inte en allvetande, medveten entitet från science fiction-filmer, men det tar oss mycket närmare en one-stop-shop för många uppgifter som vi kan föreställa oss att en AI utför åt oss. Och mycket av det som den i framtiden kommer kunna utföra, kan vi idag inte ens ana oss till.

Frånvarons tveeggade svärd

Inom mjukvarubranschen är det välkänt att teknisk skuld som bara tillåts växa kan komma att få förödande konsekvenser för teamet, produkten och utvecklingskostnaderna.

Som man bäddar får man ligga.

Lanseringen av ChatGPT har gjort att obesvarade frågor och olösta problem gällande träningsdata, integritet, jämställdhet och den skada AI-tjänster kan orsaka, har hamnat i fokus, men ärligt talat gäller inte detta bara AI utan IT-branschen i stort.

Ändå pratar vi sällan om den där etiska skulden, trots att vi medvetet har låtit den ackumuleras i årtionden. Det borde inte förvåna någon att det finns strukturella problem inom IT-branschen. Brist på mångfald och jämlikhet är bara två exempel.

Utvecklingen av AI-tjänster ligger just nu i händerna på en mycket liten del av världens befolkning som främst lever i den industrialiserade delen av världen med hög levnadsstandard. En slags kolonisering av den digitala världen, för att uttrycka det lite krasst. Detta påverkar vilka tjänster som utvecklas, hur de utvecklas och för vem, samt vilka som lämnas utanför.

De etiska bekymren handlar nämligen inte bara om vilken typ av data som ingår vid träning av en algoritm eller hur denna data har erhållits. Det handlar också om vad den inte representerar, eftersom inte alla samhällen är på samma nivå i digitaliseringen.

Detta innebär bland annat att konsten i de förbisedda samhällena och hos de bortglömda kulturerna inte ingår i träningsdatan för AI som genererar bilder - vilket på ett underligt sätt lyckas med konststycket att samtidigt bli en välsignelse och en förbannelse. Deras upphovsrätt har inte kränkts och deras stil har inte approprierats. Genom att inte finnas i den digitala världen har de på ett sätt valt att stå utanför den insamlade datan. Men det innebär också att i den nya eran av AI-genererad konst finns det inga spår av deras kultur, deras berättelser eller deras existens. Det är som om de aldrig existerat.

Uppmaningar till reglering är inget nytt

Sam Altman, VD för OpenAI som ligger bakom utvecklingen av ChatGPT, har varit en frisk fläkt och en stark kontrast till andra teknikjättars VD:ar som främst har försökt ducka och inte ta ansvar vid förhör i den amerikanska kongressen.

Altman vittnade inför den amerikanska senaten den 16 maj 2023 och medgav den potentiella skada AI-teknologin kan orsaka. I sitt vittnesmål var han mycket ärlig med att många jobb kan gå förlorade, men också med att nya jobb kommer att skapas. Altman uppmanade lagstiftarna att reglera tekniken och hitta sätt att underlätta de förändringar i karriären som många individer kommer att stå inför.

Dock blev det tydligt den 24 maj i år, då han turnerade runt i Europa för att tala om fördelarna med AI, att Altman trots allt inte är särskilt intresserad av reglering. Han nämnde att OpenAI eventuellt skulle upphöra med verksamheten i Europa eftersom företaget inte kan följa den planerade AI-lagen. Den föreslagna lagstiftningen skulle tvinga skaparna av så kallade “foundation models” (algoritmer som tränats på enorma mängder data och som längre fram kan användas till att utföra många olika typer av uppgifter) att redogöra för hur modellen tränats och ge en sammanfattning av vilken upphovsrättsskyddad data som använts vid träningen.

Altman hävdar nu att han anser att regleringen bör gälla framtida, mer kraftfulla AI och inte de redan existerande modellerna där hans eget företag står på spel om de stäms för upphovsrättsbrott.

Men låt oss nu vara ärliga. Vi vet redan att lagstiftarna inte agerade när de första varningssignalerna om skadliga utfall vid användning av AI dök upp.

Cathy O'Neil, doktor i matematik som blev en Wall Street-analytiker och sedermera dataforskare, skrev en bok med namnet "Weapons of Math Destruction" 2016 och inkluderade många exempel på skadliga resultat från algoritmer. Elon Musk - hans dalande stjärnstatus till trots - krävde reglering år 2017 när han talade till amerikanska guvernörer vid National Governors Association, och specificerade tydligt att AI kräver proaktiv intervention.

En global organisation för reglering av AI föreslogs av forskare från Nya Zeeland år 2017. De föreslog att en sådan organisation skulle "...verka för social rättvisa och jämlikhet på den globala scenen samt förespråka etik kring AI och skydd av rättigheter, integritet och säkerhet, så att vi inte tvingas följa andra."

Cathy O'Neil skriver i den tidigare nämnda boken "Weapons of Math Destruction" att algoritmer är åsikter inbäddade i kod. Det innebär att hela vår samlade etiska skuld blir inbäddad i AI-tjänster och förstärks när systemen lanseras till miljontals användare globalt.

Teknikföretag och designers i IT-sektorn brukar orubbligt hävda att de har ett användarcentrerat tillvägagångssätt när de utformar sina digitala produkter. Det handlar om att sätta sig in i användarens situation och att skapa tjänster som människor älskar eftersom de ser värde i dem. Men är vi verkligen empatiska och användarcentrerade om vi inte respekterar användarna och inte tar ansvar för hur våra tjänster påverkar dem? Är vi verkligen användarvänliga och till nytta om tjänsterna är partiska och bristfälliga på sätt som skadar användarna?

Kostnaden för att inte betala tillbaka vår etiska skuld är ett förlorat förtroende från användarna. Resultatet blir i slutändan att människor väljer bort tjänster eller programvara de inte litar på.

Till slut, även om människor blir inlåsta in i ditt ekosystem av produkter eller känner sig tvingade att använda din plattform på grund av dess popularitet, kommer ett förlorat förtroende att påverka ditt företag och dess framgång.

När förtroendet är förbrukat är det svårt att vinna tillbaka. I förlängningen kommer detta att påverka alla andra produkter som företaget utvecklar och lanserar. Att hantera den etiska skulden är att skydda ditt varumärke. Det är riskhantering.

Det måste bli en del av din affärsmodell.

Detta är första delen i en tudelad artikelserie om etisk skuld i teknikindustrin. Del två finns här.

Skriven av

Annika Madejska
Senior Designer

Annika Madejska är Senior Designer på Nitor och gillar att tackla komplexa designutmaningar och att kliva utanför sin bekvämlighetszon. Hon är en förespråkare för etik inom teknik, särskilt AI-drivna tjänster. På fritiden ägnar hon sig åt textilhantverk och att måla akvareller, eller så gräver hon i trädgården.