Artikkeli
29. toukokuuta 2023 · 5 min lukuaikaTodistamme paraikaa teknologista mullistusta, jolla tulee olemaan ennenäkemätön vaikutus yhteiskuntaamme. Ainoa ongelma on se, ettemme ole vielä käsitelleet teknologia-alan kerryttämää eettistä velkaa, joten rakennamme tulevaisuutta epävakaalle perustalle. Tässä artikkelissa pureudun siihen, miksi eettisistä kysymyksistä huolehtiminen on riskienhallintaa ja brändinsuojelua.
Tämä on teknologia-alan eettistä velkaa käsittelevän blogisarjan ensimmäinen osa. Toinen osa on luettavissa täällä.
Generatiivisen tekoälyn hiljattaisten kehitysaskelten myötä on käynyt ilmeiseksi, että seisomme elämään ja yhteiskuntaan suuresti vaikuttavien muutosten kynnyksellä. Tulevaisuus, jossa tekoäly ottaa yhä enemmän vastuuta tehtävistämme, oli vielä vuosikymmenten päässä marraskuun 29. päivänä vuonna 2022. Mutta seuraavana päivänä julkaistun Chat GPT:n myötä tuo ennuste olikin yhtäkkiä käsillä.
Yhtäkkiä kevyt suhtautumisemme tekoälyn eettisiin huolenaiheisiin herkistyi huomattavasti. Äkkiseltään huomasimme kantavamme huolta jopa yhteiskuntamme merkittävien rakenteiden murentumisesta, kun keinotekoiset videot, ääninauhoitukset ja valokuvat alkoivat hämärtää faktan ja fiktion rajoja.
Jotkut tuntevat eettisen velkamme määrän musertavana. Toiset kokevat etiikan puolestapuhujat häiriötekijöiksi, jotka yrittävät riistää ilon uusien uskomattomien mahdollisuuksien ympäriltä.
Vuoden 2023 aikana tekoälyteknologia on ottanut jatkuvasti suurempia harppauksia eteenpäin. Kaikille on käynyt selväksi, että elämäämme vaikuttava murroskausi ei ole vain mielikuvituksemme tuotetta. Mullistukset ovat käynnissä silmiemme edessä.
Tähän asti suurin osa tekoälypalveluista on ollut kapean tekoälyn palveluita, eli ne ovat olleet hyvin spesifisiä ja tehokkaita suorittaessaan vain yhtä tehtävää. ChatGPT:n julkaisu muutti pelikentän lainalaisuuksia perusteellisesti.
Esimerkiksi Microsoftin tutkijat ovat ehdottaneet useiden kapean tekoälyn palvelujen yhdistämistä niin, että niitä hallinnoidaan ChatGPT:n avulla. Vanhoja esteitä rikkoutuu samalla kun uusia mahdollisuuksia syntyy.
Kyseessä ei toki vielä ole kaikkitietävä ja tietoinen hahmo scifi-elokuvien malliin, mutta nykyinen kehityssuunta kuljettaa meitä entistä lähemmäksi keskitettyä palvelurakennetta, jonka puitteissa tekoäly voi suorittaa kaikki ne tehtävät, jotka tekoäly voi tällä hetkellä puolestamme toteuttaa. Luvassa on myös melkoisen monta sellaista työtä, johon emme vielä edes uskoisi tekoälyn kykenevän.
Etääntymisen kaksiteräinen miekka
Ohjelmistoteollisuudessa tiedetään hyvin, että kun tekninen velka jätetään kasvattamaan korkoa, se johtaa lopulta tuhoisiin seurauksiin. Nämä koskettavat niin tekijöitä, itse tuotetta kuin sen kehityskustannuksia. Sitä niittää mitä kylvää.
ChatGPT:n julkaisu on nostanut esiin monia ratkaisemattomia kysymyksiä liittyen koulutusaineistoon, yksityisyyteen ja ennakkoluuloihin. Nämä asiat eivät koske ainoastaan tekoälyä, vaan koko teknologia-alaa.
Silti puhe eettisestä velastamme loistaa poissaolollaan, vaikka ala on tietoisesti kerryttänyt sitä vuosikymmenien ajan. On hyvin tiedossa, että IT-alaa riivaavat rakenteelliset ongelmat, kuten monimuotoisuuden ja tasavertaisuuden puute.
Tekoälypalveluiden kehittäminen on tällä hetkellä hyvin pienen väestönosan käsissä. Langat ovat ensisijaisesti maailman teollistetun osan käsissä, eli siellä, missä elintaso on korkeimmillaan. Tätä voi kuvailla eräänlaisena digitaalisen maailman kolonialismina. Se vaikuttaa keskeisesti siihen, millaisia palveluita kehitetään, millä tavalla kehitetään ja kenelle ne kehitetään – sekä siihen, ketkä jäävät kehän ulkopuolelle.
Eettiset huolenaiheet eivät koske pelkästään sitä, millaista dataa on hyödynnetty algoritmien koulutuksessa tai millä tavoin data on hankittu. Kyse on myös siitä, mitä datassa jää edustamatta, sillä koko maailmanlaajuinen yhteiskuntamme ei nauti korkean tason digitalisaatiosta.
Tämä tarkoittaa esimerkiksi sitä, että huomiotta jääneiden kansanosien tuottama taide ei päädy osaksi kuvia generoivan tekoälyn oppimateriaalia – joka on samalla siunaus ja kirous. Näiden ihmisten tekijänoikeuksia ei loukata eikä heidän tyyliään omita. Nämä huolenaiheet eivät kosketa niitä, jotka elävät digitaalisen maailman ulkopuolella. Ikävä kyllä tämä tarkoittaa myös sitä, että heidän kulttuuristaan, tarinoistaan tai olemassaolostaan ei ole jälkeäkään tekoälyn luoman taiteen aikakaudella.
Sääntelyä on vaadittu jo pitkään
ChatGPT:n takana olevan OpenAI-yrityksen toimitusjohtaja Sam Altman on ollut virkistävää vaihtelua sellaisiin teknologiajohtajiin, jotka ovat suurelta osin yrittäneet väistää vastuutaan Yhdysvaltojen kongressin kuulemisissa.
Altman todisti USA:n senaatin edessä 16. toukokuuta 2023 ja huomioi lausunnossaan teknologian mahdolliset haittatekijät. Altman oli sanoissaan hyvin suorasukainen siitä, että työpaikkoja saatetaan menettää, mutta samalla syntyy uusia. Altman kehotti lainsäätäjiä sekä asettamaan uusia teknologiaa koskevia säännöksiä että etsimään tapoja helpottaa uranvaihdoksen eteen joutuvien ihmisten taivalta.
Kun Altman vieraili Euroopassa 24. toukokuuta kertomassa tekoälyn hyödyistä, kävi nopeasti ilmi, että häntä ei sittenkään kiinnosta sääntelyn edistäminen. Altman totesi, että OpenAI saattaa lopettaa toimintansa Euroopassa, sillä yritys ei voi toimia ehdotetun AI Act -lakisäädöksen puitteissa. Ehdotetun lainsäädännön mukaan perusmalleja luovien tahojen olisi ilmoitettava miten tekoälymalli on koulutettu sekä annettava yhteenveto koulutuksessa käytetyistä tekijänoikeudellisista tiedoista. Altman hioi ilmaisuaan niin, että sääntelyä pitäisi soveltaa tuleviin tehokkaampiin tekoälyihin nykyisten algoritmien sijaan.
Altmanin kuulemisen puheenjohtajana toiminut Connecticutin senaattori Richard Blumenthal totesi, että poliitikot eivät ole onnistuneet pysymään ajan tasalla uusista teknologia-alan innovaatioista. Hän totesi myös, että on välttämätöntä pitää huolta siitä, että aiemmin sosiaalisen median sääntelyn saralla tehtyjä virheitä ei saa toistaa.
Mutta katsotaanpa totuutta silmiin. Lainsäädäntö on polkenut paikallaan siitä asti, kun ensimmäiset varoitusmerkit ilmestyivät.
Cathy O'Neil on akateeminen matemaatikko, josta tuli Wall Streetin kvanttitutkija ja myöhemmin data-analyytikko. O’Neil kirjoitti vuonna 2016 kirjan nimeltä Weapons of Math Destruction, joka sisälsi lukuisia esimerkkejä haitallisista algoritmisista tuloksista. Vaikka Elon Muskin vetovoima on ollut melkoisessa laskusuhdanteessa lähivuosina, hän vaati sääntelyä jo vuonna 2017 puhuessaan Yhdysvaltain kuvernöörien yhdistyksen tapaamisessa, korostaen erityisesti ennakoivan puuttumisen mallin tarvetta.
Vuonna 2017 uusiseelantilaiset tutkijat ehdottivat kansainvälistä tekoälyn sääntelyelintä, jonka tehtävänä olisi ”edistää sosiaalista oikeudenmukaisuutta ja tasa-arvoa maailmanlaajuisesti, sekä valvoa tekoälyn kehityksen eettisiä periaatteita oikeusturvan, yksityisyyden ja turvallisuuden alueilla, jotta alalla ei vain päädytä seuraamaan aiemmin asetettujen esimerkkien suuntaviivoja”.
Cathy O'Neil kirjoittaa edellä mainitussa teoksessaan, että algoritmit ovat mielipiteitä, jotka on upotettu koodiin. Tämä tarkoittaa sitä, että kaikki yhteinen eettinen velkamme sulautuu tekoälypalveluihin ja voimistuu, kun järjestelmät otetaan käyttöön globaalissa mittakaavassa.
Teknologiayritykset – erityisesti teknologia-alalla toimivat suunnittelijat – pitävät tiukasti kiinni käyttäjäkeskeisestä lähestymistavasta. Kyse on empatiasta käyttäjiä kohtaan, joiden pohjalta luodaan käyttäjille arvoa tuovia palveluita. Mutta olemmeko todella empaattisia ja käyttäjäkeskeisiä, jos emme kunnioita käyttäjiä emmekä tunne vastuuta siitä, miten palvelumme vaikuttavat heihin? Olemmeko todella käyttäjäystävällisiä ja tuommeko arvoa, jos palvelu on puolueellinen ja virheellinen niin, että se voi aiheuttaa käyttäjille vahinkoa?
Kustannus eettisen velkamme maksamatta jättämisestä on luottamuksen eroosio. Ihmiset eivät käytä palveluita tai ohjelmistoja, joihin he eivät voi luottaa.
Vaikka ihmiset olisi saatu lukittua yrityksen ohjelmistoekosysteemiin tai he tuntisivat pakotusta käyttää jotain alustaa sen suosion vuoksi, ennen pitkää tuo menetetyn luottamuksen vaikutus alkaa näkyä yrityksen taloudellisissa tuloksissa.
Kun luottamus katoaa, sen palauttaminen on äärimmäisen vaikeaa. Tämä vaikuttaa myös kaikkiin tuleviin tuotteisiin, jotka yritys kehittää ja julkaisee. Eettisen velan käsittely on yrityksen brändin suojelemista. Se on riskienhallintaa.
Siitä on tultava osa yritysten liiketoimintamallia.
Tämä on teknologia-alan eettistä velkaa käsittelevän blogisarjan ensimmäinen osa. Toinen osa on luettavissa täällä.