It looks like you are using Internet Explorer, which unfortunately is not supported. Please use a modern browser like Chrome, Firefox, Safari or Edge.

Det är vi som lägger grunden för framtidens teknologi

Publicerad i Design

Skriven av

Annika Madejska
Senior Designer

Annika Madejska är Senior Designer på Nitor och gillar att tackla komplexa designutmaningar och att kliva utanför sin bekvämlighetszon. Hon är en förespråkare för etik inom teknik, särskilt AI-drivna tjänster. På fritiden ägnar hon sig åt textilhantverk och att måla akvareller, eller så gräver hon i trädgården.

Artikel

11 oktober 2021 · 7 min lästid

Det som teknikindustrin skapar och släpper ut på marknaden i dag, lägger grunden för framtidens teknik. Det betyder att vi som jobbar i branschen är den tekniska framtidens grindvakter. Är du säker på att du förstår vad du låter passera genom din grind? Teknologi kan få oväntade etiska konsekvenser. I den här artikeln delar vi med oss av tips på vad du borde fundera över och vad du kan läsa för att utveckla dina etiska känselspröt.

Etiska tvivelaktigheter i IT-branschen skapade rubriker under den vecka som jag skrev det här blogginlägget. Frances Haugen, Facebook-visselblåsaren, vittnade i den amerikanska senaten och kunde stödja sitt vittnesmål med dokument från Facebook som visar att företagsledningen är och har varit medveten om att algoritmerna i det sociala nätverket är skadliga för både demokrati och enskilda individer. Något de valde att ignorera till förmån för att tjäna mer pengar.

Under de senaste åren har jag blivit smått fixerad av etisk teknologi och jag läser allt jag kan komma över på ämnet.

Allt började med en universitetskurs i AI-etik som jag gick på Linköpings universitet. För mig blev det en nostalgitripp tillbaka till den teoretiska filosofin, vilket kanske inte låter så spännande, men det var roligt att få applicera gammal kunskap på ett nytt problem.
Jag fick förnya bekantskapen med utilitarianismen (att maximera lycka och minimera lidande) och kantianismen (att göra det som är moraliskt rätt men som ändå kan skada någon).

Kursen handlade till stor del om tre begrepp: ansvar, delaktighet och fördomar/diskriminering. Av dessa tre är deltaktighet förmodligen det svåraste att greppa. Enkelt uttryckt betyder det att vi som individer och samhälle måste vara medvetna om och förstå vilka resultat AI producerar. Dessutom måste vi få möjlighet att återkoppla om resultaten blir tokiga. Om vi inte förstår teknologin och hur den producerar sina resultat, kan vi inte heller avgöra om utfallet blev fel och då kan vi inte protestera och begära att det åtgärdas. Vi stängs ute från deltagandet i samhället.

Ansvar lägger grunden

Mitt personliga perspektiv på etik och teknologi började anta mer solida former under den här kursen, och jag kom fram till att om du känner ansvar för vilken teknologi du skapar och släpper ut till användarna, är det också mer sannolikt att du bryr dig om att skapa möjligheter till deltagande och minimera riskerna för diskriminerande AI-resultat. Tekniken måste vara inkluderande och som individer och samhälle måste vi förstå vad teknologin producerar för resultat så att vi kan avgöra om resultaten är adekvata.

Det är till exempel viktigt att en användare förstår att den pratar med en chatbot och inte en verklig människa. Särskilt om de försöker hitta information kring saker som kan få allvarliga konsekvenser, som till exempel vilka arbetslöshetsersättningar man har rätt till. Och om chatboten ger dåliga eller obegripliga instruktioner, måste det finnas ett enkelt sätt att uttrycka sin oro över instruktionens tillförlitlighet.

Om vi bygger med en ärlig intention om att vara ansvarsfulla och om vi förutsätter att vi kommer att hållas ansvariga för tjänsterna vi skapar, då utformar vi systemet med omsorg. Ansvar och ansvarsskyldighet kommer att främja bättre praxis och att vi tar upplevda erfarenheter ur verkligheten på allvar.

Varför agerar vi bara när saker blir lag?

Fördomar och diskriminering kan se väldigt olika ut beroende på vem du är. Vi som designers och utvecklare av digitala tjänster behöver informera oss om världen och hur den ser ut för olika människor. Med det menar jag alla aspekter av livet: ålder, kön, social ställning, hudfärg, att bo i storstäder kontra på landsbygden, att vara migrant eller att vara hemlös. Oavsett vem du är och var i världen du befinner dig, kommer du med stor sannolikhet i kontakt med någon form av digital tjänst i dag.

Det europeiska tillgänglighetsdirektivet gör ett bra jobb då det stipulerar att offentliga och samhällsbärande digitala tjänster måste vara inkluderande. Det som är tråkigt är att vi som samhälle inte agerar när teknologi är exkluderande eller ibland direkt skadlig förrän det stiftats lagar som är tvingande. Allt som oftast är det först när det blir skriverier eller dyra konsekvenser av att vara exkluderande eller diskriminerande som arbetet med att anpassa tjänsterna påbörjas.

Det är här vi befinner oss idag – etiken upprätthålls antingen av lag eller så är vi beroende av att företag faktiskt vill jobba med frågan på egen hand. Då handlar det om aktiva beslut att skilja sig från sina konkurrenter genom att skapa etiska produkter och tjänster.

Med det sagt finns det strålande möjligheter för företag att ställa sig längst fram i ledet och fylla den etiska luckan genom att öppet och stolt visa hur ni arbetar för att se till att era digitala tjänster är inkluderande och etiska. Det finns gott om utrymme att ta ställning likt klädmärket Patagonia. Våga flytta gränserna och utmana konkurrenterna genom att utveckla ett miljömässigt och socialt ansvarsfullt företag.

Vi måste bry oss

Så, var börjar vi? Hur tacklar vi det här? Vi inom teknologiindustrin måste börja med att fortbilda oss och bli medvetna om problematiken.

För att ta ett exempel som lätt att applicera på IT-sektorn: vår bransch lider av en underrepresentation av kvinnor. Endast cirka 17 procent av IT-specialisterna i Europa är kvinnor. Det gör att många av de digitala tjänsterna som existerar i dag är kodade och designade av män. Tjänsterna är skapade ur deras perspektiv är påverkade av både medvetna och omedvetna fördomar, vilket i sin tur påverkar hur de ser ut och fungerar. Cathy O’Neil uttrycker det så väl – algoritmer är åsikter inbäddade i kod.

För att provocera lite kan man ställa sig frågan: Är vi okej med att grunden för vår framtida teknik bygger på algoritmer baserade på mestadels mäns inbäddade åsikter? Som grädde på moset matar vi algoritmerna med data från det förflutna och vår samtid. Vi bygger vår tekniska framtid på våra historiska och nuvarande ojämlikheter och fördomar och förstärker dem.

Om vi inte är okej med det här, måste vi få till en förändring. Vi måste göra IT-yrken och arbetsplatser mycket mer attraktiva och tillgängliga för kvinnor, icke-binära personer och människor från andra delar av världen än den rika västvärlden. Och det hela börjar med att ta en bra och ärlig titt på företagskulturen. Är den välkomnande och inbjudande för ett brett spektrum av individer av olika kön och bakgrund?

Dessutom behöver vi främja en kultur där det blir naturligt att ta upp etiska problem – där alla vet att ens oro tas på allvar och inte sopas under mattan.

Din tjänst existerar inte isolerat

Nu när jag har skrapat på ytan av en del av de etiska frågor vi måste ta itu med, kan jag erbjuda dig en lista på böcker och material för fördjupning. De handlar inte nödvändigtvis om renodlad etik eller teknik. Det är snarare en lista över saker jag har läst eller tittat på som fick mig att tänka till, och som hjälpte mig att börja bilda mig en egen uppfattning kring etik och vad jag själv är okej med att släppa ut för tjänster i världen.

Vi måste åtminstone förstå det faktum att livet inte ser likadant ut för alla människor på vår planet. Det vi designar har olika inverkan på människor beroende på vilka förutsättningar de har.

Kom ihåg: ingenting vi designar eller skapar existerar isolerat. Våra tjänster blir en del av den värld vi lever i och kommer i stort som smått att påverka och förändra våra liv och vårt samhälle.

Lär dig mer om Nitor och vår företagskultur.

Tips på vad du borde läsa:

Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence – Kate Crawford
Weapons of math destruction – Cathy O’Neil
Responsible Tech Playbook
Brotopia: Breaking Up the Boys' Club of Silicon Valley – Emily Chang
The Sum of Us: What Racism Costs Everyone and How We Can Prosper Together – Heather McGee
The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power – Shoshana Zuboff
Ruined by design – Mike Monteiro
Society-in-the-Loop: Programming the Algorithmic Social Contract - Iyad Rahwan


Tips på vad du borde se:

Jaron Lanier fixes the internet

Talks at Google: Weapons of Math destruction

Let’s Destroy Silicon Valley:

The Oppenheimer Moment

We know what you did during lockdown

Building socially inclusive design systems

Skriven av

Annika Madejska
Senior Designer

Annika Madejska är Senior Designer på Nitor och gillar att tackla komplexa designutmaningar och att kliva utanför sin bekvämlighetszon. Hon är en förespråkare för etik inom teknik, särskilt AI-drivna tjänster. På fritiden ägnar hon sig åt textilhantverk och att måla akvareller, eller så gräver hon i trädgården.