Artikel
1 juni 2023 · 9 min lästidVi vet alla att AI har potentialen att göra fantastiska saker för mänskligheten, men vi vet också att det finns olösta etiska frågor inom teknik- och AI-området. Det kan kännas hopplöst oöverskådligt att ta itu med problemen, men den goda nyheten är att vi egentligen bara behöver komma ihåg en enda sak när vi skapar nya banbrytande AI-tjänster.
Detta är andra delen i en tudelad artikelserie om etisk skuld i teknikindustrin. Del ett finns här.
Att kontrollera vilka mjukvaror och tjänster som utvecklas - och hur - är makt.
Till stor del finns denna makt just nu hos stora teknikföretag och riskkapitalister. Genom åren har alla VD:ar för Silicon Valleys teknikjättar fått stå inför USA:s kongress och förklara hur det kommer sig att deras produkter eller affärsmodell har orsakat någon form av skada.
Farorna med högt utvecklingstempo före försiktighet
Ta exempelvis utfrågningarna av Twitters Jack Dorsey, Facebooks Mark Zuckerberg och Googles Sundar Pichai under utfrågningen om spridning av falsk information som utmynnade i attacken mot USA:s Kapitolium den 6:e januari. Jack Dorsey var den enda som delvis erkände att han tillåtit falska narrativ om ett stulet val att pågå i månader, medan Mark Zuckerberg valde att helt lägga skulden på de personer som bröt mot lagen och deltog i upprorsförsöket.
Frank Pallone, en Demokratisk ledamot från New Jersey i Representanthuset uttalade sig i slutet av förhören:
Det är nu smärtsamt tydligt att varken marknaden eller socialt tryck kommer tvinga dessa företag att vidta de aggressiva åtgärder de behöver ta för att eliminera denna information och extremism från sina plattformar. Själva affärsmodellen har blivit problemet, och tiden för självreglering är förbi.
Företagsledarna för teknikjättarna hade förmodligen goda avsikter och kände sig entusiastiska över att leda innovativa företag. De såg också en fin ökning av företagets resultat och kände sig nöjda med sina investeringsbeslut som gav avkastning. Vi vet dock att de misslyckades med att agera när de första varningssignalerna om att allt inte stod rätt till kom. Det fanns faktiskt tecken, och vi vet att de lade dövörat till när anställda larmade.
Just nu har både Microsoft och Google valt snabbhet framför försiktighet i tävlingen om att få en större del av kakan inom utvecklingen av generativ AI. I ett e-postmeddelande som New York Times har fått tillgång till skriver Sam Schillace, CVP och biträdande CTO på Microsoft, att det vore ett "helt ödesdigert misstag i denna stund att oroa sig för saker som kan rättas till senare". Med andra ord ger han sitt godkännande som affärsledare att samla på sig både teknisk och etisk skuld.
Men vad händer om de saker vi har sönder inte kan lagas? Vad händer om de sakerna är fundamentala för vår samhällsstruktur – som demokratin, till exempel? Just nu råder det grundläggande misstro gentemot traditionella medier och journalister. Men fria, pluralistiska och oberoende medier är avgörande för demokratins existens.
Låter det som en anka, så är det en anka. Eller?
På Världsdagen för pressfrihet den 2 maj 2023 publicerades en gemensam förklaring från fem framstående organisationer som arbetar för yttrandefrihet, inklusive FN:s så kallade “Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression”. I ett stycke uttrycker organisationerna djupa farhågor över en övergripande brist på förståelse för mediernas roll som en stöttepelare i demokratin.
Förklaringen framhäver några av de identifierade problemen med stora online-plattformar, såsom brist på transparens och ansvarighet samt den oproportionerliga makt och kontroll som några få medieföretag och internetaktörer, till exempel sociala medier, har över den offentliga debatten.
Hotet ligger inte i själva teknologin, utan i hur vi hanterar och kontrollerar den. Det handlar om att bygga hållbara och pålitliga tjänster när vi lägger grunden för framtiden. Vilken sorts grund håller vi på att bygga om vi inte längre kan lita på de tjänster vi använder i vårt arbete eller vår vardag?
Bildmanipulation har funnits lika länge som fotografin existerat.. Men med hjälp av generativ AI har det blivit allt enklare att producera falska nyheter, falska bilder av offentliga personer samt falska inspelningar och videor av politiker som framstår som verkliga och trovärdiga.
I slutet av april publicerade mediekanaler runt om i världen artiklar om en kanadensisk skådespelare som enligt uppgifter hade avlidit under en plastikoperation han genomgick för att se mer koreansk ut. Historien skickades ut till mediekanalerna som ett pressmeddelande, och The Daily Mail verkar ha varit den första som publicerade nyheten. Bara några dagar senare avslöjades att hela historien var en AI-genererad bluff.
Nyhetsmedierna kanske har lärt sig sin läxa, och kommer att införa bättre rutiner för faktakontroll, men den breda allmänheten kommer att översvämmas av berättelser, ljudfiler och videor, och desinformationen kommer att spridas som en löpeld samtidigt som vi står där och undrar om vi kan tro på något som rapporteras av nyhetsmedier längre. Tekniken är här och vi måste hitta de bästa sätten att mildra den skada den kan åstadkomma.
Hur mäter vi framgång?
Just nu är teknikbranschen fullt sysselsatt med att släcka brand efter brand som uppstått på grund av årtionden av etisk skuld. AI Incident Database, grundad 2022, loggar och indexerar alla skadliga eller nära-ögat-incidenter som rapporterats till dem på grund av AI-resultat, med syftet att vi kan lära oss av dem och göra bättre lösningar i framtiden. I skrivande stund närmar sig databasen 3000 registrerade rapporter.
Kommer det verkligen vara ett ödesdigert misstag att redan nu oroa oss för saker vi kan rätta till senare, som Sam Schillace sa? Eller är det i själva verket mer ödesdigert att trampa på gasen och bara hoppas på det bästa? Det gör ont att ge upp privilegier som vi har haft i årtionden, som att röra oss snabbt och överväga konsekvenserna senare, men eftersom branschen har gjort ytterst lite för att betala tillbaka sin etiska skuld i det förflutna, ser vi nu att regleringsorgan ingriper.
EU förväntas anta AI-förordningen i år, vilket kommer att dela upp AI-tjänster i olika kategorier efter risknivå. Vissa typer av AI, som system för social poängsättning liknande det som den kinesiska regimen använder sig av, kommer att förbjudas. Andra tjänster kommer att sättas under noggrann övervakning. I en nylig uppdatering gjordes flera ändringar i AI-förordningen och etiska principer införlivades i den föreslagna regleringen.
En av de främsta kritikerna mot den föreslagna AI-lagen är att den är för teknikspecifik. Det gör att den åldras snabbt, eftersom framsteg och innovation inom området går så fort, medan lagstiftning av naturen är en långsam process. Kritiker föreslår att lagstiftningen borde fokusera på möjliga konsekvenser istället för att försöka mildra möjliga risker förknippade med en given teknologi. Röster har även höjts om att lagen är för mild, när manipulativa egenskaper hos chattbotar avslöjades efter en belgisk mans självmord.
Även om EU har tagit ledningen när det gäller att reglera teknologiska tjänster, som de gjorde med GDPR, planerar USA att följa efter. En plan för en AI-förklaring om rättigheter kan läsas på Vita husets webbplats. Utöver detta uppdaterar EU också direktivet om produktsäkerhet (PDL) för att inkludera mjukvaruprodukter.
Detta innebär att teknikbranschen kommer att ställas till svars och hållas ansvarig.
Att sakta ner kommer inte att kväva innovationen. Många banbrytande teknologier genom historien kom till, bara för att regleras när det blev tydligt att de var skadliga om de inte kontrollerades. Som bilar till exempel. Biltillverkningstekniken utvecklas fortfarande, även om den nu måste följa regleringar, som ny teknik för att begränsa CO2-utsläpp. Det var inte förrän lagstiftare tvingade branschen att ta itu med miljöfrågorna som tillverkare började omvärdera hur fordon kunde drivas med mindre skadliga utsläpp.
Vi kommer fortfarande att göra framsteg, även om vi väljer att sänka takten i utvecklingen. Det ger oss en chans att bygga med eftertanke och att betala tillbaka tidigare ackumulerad etisk skuld utan att ständigt bygga upp en ny. Oavsett om vi erkänner det eller inte, bestämmer vi för närvarande hur AI-tjänster kommer att fungera och påverka oss under lång tid framöver.
Vi har inte lyxen att ignorera etiska diskussioner bara för att de är svåra och inte serverar oss färdiga lösningar på ett silverfat.
Varje enskild produkt vi släpper förändrar också världen på ett eller annat sätt. Det har en inverkan på allt omkring oss, eftersom våra produkter inte existerar i ett vakuum. Varje företag och varje produkt har sin egen kontext och etiska utmaningar, och det finns inga checklistor för pålitlig AI. Vi måste hitta andra sätt att mäta framgång än enbart ekonomiska resultat och göra pålitlig AI till en del av företagets process och strategi. Vi behöver hitta andra incitament än monetära belöningar som ökar med försäljningssiffror och vinstmarginaler. I alla fall om vi vill bry oss om människor, mänskligheten och vårt välbefinnande.
Det är lätt att glömma att vid mottagarsidan av en AI-tjänsts utslag och beslut står en människa. Den människan kan en dag vara du. Eller dina åldrande föräldrar. Eller ditt barn. Om vi tar ansvar för det vi släpper ut i världen och också förväntar oss att hållas ansvariga, är chansen stor att vi noggrant granskar och överväger vad vi tillåter oss själva att sätta i användarnas händer.
Vi vet alla vad som händer om vi inte betalar räkningen för vår tekniska skuld. Om vi tror att det kommer att vara annorlunda när det gäller att betala tillbaka vår etiska skuld, så lurar vi oss själva.
Det är hög tid att börja fundera på hur vi ska tackla de etiska frågorna inom branschen. Jag slår vad om att vi alla kommer att ångra att vi inte gjorde det till en del av vår utvecklingscykel tidigare. Men om vi börjar genom att skapa mångfaldiga team och inkluderar olika synpunkter och erfarenheter i utvecklingen av AI-tjänster kan vi kanske upptäcka snedvridningar och orättvisa konsekvenser från tjänsten innan de blir verkliga problem i samhället. Och kanske ännu viktigare än så, innan problemen blir större än snedvridning och orättvisa.
Om vi frågar oss själva vilka skadliga konsekvenser vår AI-tjänst kan bidra till och föreställer oss att någon vi älskar och bryr oss om skulle påverkas, då kanske vi överväger att lägga mer tid på produkten för att mildra följderna av AI-tjänstens utfall. Om vi gör våra tjänster transparenta och noggrant granskar resultaten, är vi mer benägna att upptäcka tidiga varningssignaler om skadliga konsekvenser av AI-genererade beslut och resultat. Om vi håller utkik efter dessa tidiga tecken kan vi undvika den dåliga spiralen av oåterkallelig skada på företag och varumärken orsakad av förlorat förtroende, när människor och hela samhällen lider av konsekvenserna av tanklöst implementerad AI.
Visst, framsteg måste ske – men till vilket pris? Vem är vi villiga att kliva över i innovationens och framstegens namn? Är det verkligen framsteg om det skadar individer eller samhällen?
Vi som arbetar inom IT-branschen måste redan nu förlika oss med att vi kommer att orsaka en enorm förändring i många människors liv – till och med våra egna. Vi måste bevara vår mänsklighet, vår empati och vårt människocentrerade perspektiv – även när vi blir entusiastiska över alla dessa tänkbara och otänkbara nya möjligheter.
AI kan göra fantastiska saker för oss, men vi måste komma ihåg att vi skapar verktyg och tjänster för människor. För mänskligheten.
Det är den enda verkliga ledstjärnan vi behöver.
Detta är andra delen i en tudelad artikelserie om etisk skuld i teknikindustrin. Del ett finns här.