Artikkeli
1. kesäkuuta 2023 · 7 min lukuaikaMe kaikki tiedämme, että tekoälyllä on potentiaalia uskomattomiin asioihin, mutta tiedämme myös sen, että teknologian ja tekoälyn saralla on monia ratkaisemattomia eettisiä kysymyksiä. Hopeareunus on se, että meidän tarvitsee pitää mielessä vain yksi asia, kun luomme uusia huippuluokan tekoälypalveluita.
Tämä on teknologia-alan eettistä velkaa käsittelevän blogisarjan toinen osa. Ensimmäinen osa on luettavissa täällä.
Kontrolli siitä, mitä kehitetään ja miten sitä kehitetään, on valtaa.
Suurelta osin tämä valta on tällä hetkellä suurten teknologiayritysten ja riskipääomayritysten käsissä. Vuosien varrella kaikkien suurten teknologiayritysten toimitusjohtajat ovat joutuneet selittämään Yhdysvaltain kongressille tuotteidensa aiheuttamaa vahinkoa.
Varomattoman vauhdin sudenkuopat
Otetaan esimerkiksi Twitterin Jack Dorseyn, Facebookin Mark Zuckerbergin ja Googlen Sundar Pichain kuulemiset harhaanjohtavaa tietoa koskevassa kuulemisessa tammikuun 6. päivän mellakan jälkeen Yhdysvaltain kongressissa. Jack Dorsey oli ainoa, joka osittain myönsi tehottomuutensa tarttua toimeen vaalivilpin valheellisten narratiivien kasvaessa, kun taas Mark Zuckerberg sälytti kaiken syyn kapinaan osallistuneiden ihmisten harteille.
New Jerseyn demokraattipuolueen edustaja Frank Pallone totesi:
On käynyt tuskallisen selväksi, että markkinoiden tai yhteiskunnan paineet eivät pakota näitä yrityksiä ryhtymään tarvittaviin toimiin äärimmäisyyksiin ajavan valetiedon poistamiseksi alustoiltaan. Itse liiketoimintamallinne ytimestä on tullut keskeinen ongelma – ja itsehallinnon aika on ohi.
Näillä yritysjohtajilla on todennäköisesti hyvät aikeet taustalla, ovathan he uusia hittituotteita luovien yritysten huipulla. Heillä on myös näköalapaikka yritysten kasvaviin tuloksiin, mikä varmasti sai innostumaan, kun lisääntynyt liikenne sai kurssit nousuun. Tosiasia kuitenkin on se, että nämä yritykset eivät toimineet, kun ensimmäiset varoitusmerkit tulevasta ilmestyivät. Varoitusmerkkejä oli lukuisia, mutta niihin ei reagoitu edes silloin, kun hälytykset tehtiin yritysten työntekijöiden toimesta.
Tällä hetkellä Microsoft ja Google ovat molemmat valinneet nopeuden varovaisuuden sijaan kilpaillessaan suuremmasta kakunpalasta generatiivisen tekoälyn kehityksessä. New York Timesin haltuun saamassa sähköpostissa Mircosoftin toinen varatoimitusjohtaja ja alempi CTO Sam Schillace totesi, että olisi "ehdottoman kohtalokasta huolehtia liikaa sellaisista asioista, jotka voimme korjata myöhemmin". Toisin sanoen liiketoiminnan johtaja antoi siunauksensa teknisen ja eettisen velan kerryttämiselle.
Entä jos kertaalleen rikottuja asioita ei voikaan enää korjata? Entä jos rikkoutuneet asiat ovat perustavanlaatuisia yhteiskuntamme kannalta – elintärkeitä kuten demokratia? Tällä hetkellä perinteiseen mediaan ja journalisteihin suhtaudutaan valtavan epäluottavaisesti. Vapaa, moniarvoinen ja riippumaton media on kuitenkin elintärkeä osa demokratiaa.
Jos se vaakkuu kuin ankka, liekö se sittenkään ankka?
Maailman lehdistönvapauden päivänä 2. toukokuuta 2023 viisi merkittävää sananvapauden puolesta työskentelevää järjestöä julkaisivat yhteisen julistuksen. Allekirjoittajiin kuului muun muassa YK:n erikoistutkija, jonka vastuulla on ilmaisunvapauden edistäminen ja suojeleminen. Julistuksen eräässä kappaleessa nostetaan esiin syviä huolenaiheita yleisestä ymmärryksen puutteesta median roolista demokratian perustana.
Julistuksessa nostetaan esiin keskeisiä ongelmia suurten verkkoalustojen osalta. Näihin lukeutuvat läpinäkyvyyden ja vastuullisuuden puute, sekä muutamien mediayhtiöiden ja internet-välikäsinä toimivien yritysten – kuten sosiaalisen median toimijoiden – suhteeton valta-asema julkisen keskustelun mahdollistajina.
Uhka ei ole itse teknologia, vaan se, miten sitä hallitaan ja säädellään. Kyse on kestävien ja luotettavien palveluiden rakentamisesta, sekä siitä, millaisen tulevaisuuden perustan luomme. Minkälaista perustaa olemme rakentamassa, jos emme lopulta enää voi luottaa jokapäiväiseen elämäämme kuuluviin palveluihin?
Kuvamanipulaatio on ollut olemassa niin kauan kuin valokuvauskin. Generatiivisen tekoälyn avulla on kuitenkin alati helpompaa tuottaa väärennettyjä uutisia, kuvia, äänitteitä ja videoita julkisuuden henkilöistä ja poliitikoista. Ne on helppo saada näyttämään aidoilta ja uskottavilta.
Huhtikuun lopulla tiedotusvälineet julkaisivat artikkeleita kanadalaisen näyttelijän kuolemasta. Tarina kertoi, että näyttelijä menehtyi plastiikkakirurgin leikkauspöydälle, kun häntä oli retusoitu näyttämään korealaiselta. Lehdistötiedotteena jaeltu tarina päätyi ensimmäisenä Daily Mailin julkaisemaksi. Vain muutamaa päivää myöhemmin paljastui, että koko tarina oli tekoälyn luoma huijaus.
Voi olla, että uutismediat oppivat läksynsä ja terävöittävät faktatarkistuksen käytäntöjään jatkossa. Suuri yleisö tulee silti hukkumaan tarinoihin, äänitiedostoihin ja videoihin, joiden sisältämä väärä informaatio tulee leviämään kuin metsäpalo. Lopulta löydämme itsemme kyseenalaistamasta sen, voimmeko enää uskoa mihinkään uutisvälineiden raportoimaan sisältöön. Kauhukuvat mahdollistava teknologia on jo osa arkeamme, joten meidän on tehtävä parhaamme löytääksemme keinot mahdollisten vahinkojen minimointiin.
Kuinka menestystä tulisi mitata?
Tällä hetkellä teknologia-alalla sammutetaan tulipaloja toistensa perään vuosikymmeniä kerääntyneen eettisen velan vuoksi. Vuonna 2022 perustettu tekoälytapahtumien tietokanta AI Incident Database kirjaa ja indeksoi kaikki haitalliset tai lähes haitalliset tekoälyä koskevat tapahtumat. Päämääränä on kerätä oppimateriaalia, jonka pohjalta teknologia-alalla voidaan kehittää ja parantaa toimintaa. Tätä kirjoittaessa tietokanta sisältää lähes 3000 raporttia.
Onko Sam Schillace oikeassa väittäessään, että olisi kohtalokas virhe huolehtia asioista, jotka voimme korjata tulevaisuudessa? Vai onko todellinen virhe sittenkin se, että vain painaa kaasua ja toivoo parasta? Vuosien nopean etenemisen ja jälkiviisauden etuoikeudesta on tuskallista luopua, mutta koska ala ei itse ole keskittynyt maksamaan eettistä velkaa pois, sääntelijät alkavat puuttua peliin.
EU:n odotetaan hyväksyvän AI Act -laki kuluvana vuonna. Lain on tarkoitus jakaa tekoälypalvelut eri kategorioihin niiden riskitason mukaan. Jotkin tekoälyn lajityypit, kuten sosiaalisen pisteytyksen järjestelmät, tullaan kieltämään. Toisia tullaan valvomaan tarkasti. Hiljattain AI Actiin tehtiin useita lisäyksiä, joiden myötä myös eettiset periaatteet sisällytettiin osaksi ehdotettua sääntelyä.
AI Actin kohtaama keskeinen kritiikki on se, että lakiesitys keskittyy liian tarkkaan yksittäisiin teknologioihin. Tällöin se myös vanhenee nopeasti, kun kehitys ja innovaatio alalla etenevät perusluonteeltaan hidasta lainsäädäntöä nopeammin. Lakia kritisoivien mukaan lainsäädännön tulisi keskittyä mahdollisiin seurauksiin sen sijaan, että se pyrkisi lieventämään mahdollisia riskejä ennakoivasti. Keskustelun tällä puolen ovat myös tahot, jotka pitävät ehdotettua lakia liian lepsuna. Esimerkkinä on käytetty tilannetta, jossa keskustelurobottien manipuloiva luonne todettiin osatekijäksi belgialaisen miehen itsemurhassa.
EU on ottanut isompaa roolia teknologisten palveluiden sääntelyssä samaan tapaan kuin GDPR:n kanssa, ja Yhdysvallat aikoo seurata perässä. Valkoisen talon verkkosivuilta voi lukea luonnoksen tekoälyä koskevasta oikeuksien julistuksesta. Tämän lisäksi EU on päivittämässä tuotevastuudirektiiviään (PDL) sisällyttääkseen siihen ohjelmistotuotteet.
Tämä tarkoittaa sitä, että teknologia-ala joutuu vielä vastuuseen.
Toiminnan hidastaminen ei tukahduta innovaatiota. Monet mullistavat teknologiat ovat päätyneet säännellyiksi, kun ne on todettu haitallisiksi ilman hallinnointia. Otetaanpa esimerkiksi autot. Autoteknologia kehittyy edelleen, vaikka alalla on noudatettava tiukkaa sääntelyä esimerkiksi hiilidioksidipäästöjä rajoittavan teknologian saralla. Valmistajat alkoivat suunnitella matalamman päästötason ajoneuvoja vasta sitten, kun lainsäätäjät pakottivat valmistajat huomioimaan alan ympäristöongelmat.
Menemme edelleen eteenpäin, vaikka hidastaisimme kehityksen vauhtia. Hitaampi tahti antaisi meille mahdollisuuden rakentaa harkitusti ja samalla maksaa kertynyttä eettistä velkaa sen sijaan, että kasaisimme velkaa velkojen päälle. Riippumatta siitä, huomioimmeko asian, meillä on tällä hetkellä käsillä kohtalon hetket, jotka tulevat määrittelemään kuinka tekoälypalvelut vaikuttavat elämäämme monien vuosien ajan.
Meillä ei ole ylellisyyttä sivuuttaa eettisiä keskusteluja vain siksi, että ne ovat vaikeita, eivätkä tarjoa valmiita ratkaisuja.
Jokainen julkaisemamme tuote muuttaa maailmaa jollain tavalla. Tämä myös vaikuttaa kaikkeen ympärillämme olevaan, sillä tuotteemme eivät elä tyhjiössä. Jokaisella yrityksellä ja tuotteella on oma kontekstinsa ja eettiset haasteensa, eikä luotettavalle tekoälylle ole olemassa tarkistuslistoja. Meidän on löydettävä muita tapoja mitata menestystä kuin pelkkä taloudellinen tulos, sekä tehtävä luotettavien tekoälyjen kehityksestä osa yritysten toimintafilosofiaa ja strategiaa. Meidän on löydettävä muita kannustimia kuin myyntilukemien ja voittomarginaalien myötä nousevat tuotot. Ainakin jos välitämme ihmisistä, ihmiskunnasta ja hyvinvoinnistamme.
On helppo unohtaa, että jokaisen tekoälypalvelun toisessa päässä on ihminen. Eräänä päivänä se ihminen olet sinä. Seuraavana ikääntyvät vanhempasi tai oma lapsesi. Jos otamme vastuun julkaisemistamme tuotoksista ja samalla myös odotamme, että meitä pidetään näistä asioista vastuussa, mitä todennäköisemmin osaamme myös tarkastella ja harkita entistä tarkemmin sitä, mitä päästämme käsistämme käyttäjien hoteisiin.
Me kaikki tiedämme mitä tapahtuu, jos teknisen velkamme laskua ei makseta. Olisi itsepetosta kuvitella, että eettisen velkamme takaisinmaksu noudattaisi toisenlaisia periaatteita.
Nyt jos koskaan on oikea aika alkaa puntaroida sitä, kuinka teknologia-alalla tulisi käsitellä eettisiä kysymyksiä. Veikkaanpa, että me kaikki olisimme halunneet tehdä siitä osan kehityssyklejämme aiemmin. Mutta jos aloitamme luomalla monimuotoisia tiimejä ja tuomme monipuolisia näkökulmia mukaan tekoälypalveluiden kehittämiseen, saatamme paljastaa ennakkoluuloja ja epäoikeudenmukaisuuksia palveluista ennen kuin niistä tulee todellisia maailmanlaajuisia ongelmia. Ja ennen kaikkea ennen kuin ne ongelmat muuttuvat vieläkin suuremmiksi kuin ennakkoluulot ja epätasa-arvo.
Jos haastamme itseämme kysymällä, mihin haitallisiin tuloksiin tekoälypalvelumme käyttö voi päätyä ja samalla kuvittelemme, että joku rakastamamme joutuisi haitallisen vaikutuksen kohteeksi, meidän on helpompi perustella tuotteiden pitemmät kehityskaaret osana riskien minimointia. Jos palvelumme ovat läpinäkyviä ja tulosten tarkastusprosessit huolellisia, meillä on paremmat mahdollisuudet huomata varhaiset haitan merkit. Jos pidämme silmät auki varoitusmerkkien varalta, voimme välttää aiheuttamasta korjauskelvotonta vahinkoa yrityksille ja brändeille. Sellaista, joka syntyy ajattelemattomasti toteutetun tekoälyn käyttöönoton aiheuttamasta luottamuspulasta.
Edistystä on tietysti tapahduttava – mutta millä hinnalla? Kenen yli olemme valmiita kävelemään innovaation ja edistyksen nimissä? Millaista on edistys, joka satuttaa niin yksilöitä kuin yhteisöjä?
Me IT-alalla työskentelevät joudumme hyväksymään sen, että olemme osa häiriöiden aaltoliikettä, joka tulee vaikuttamaan monien ihmisten elämään tulevaisuudessa. Se osuu myös omaan elämäämme. Meidän on säilytettävä inhimillisyytemme, empatiamme ja ihmislähtöisyytemme silloinkin, kun ajaudumme intoilemaan tekoälyn mahdollisuuksista uskotun ja uskomattoman välillä.
Tekoäly mahdollistaa uskomattomia saavutuksia, mutta meidän on muistettava, että luomme työkaluja ja palveluja ihmisille. Ihmiskunnalle.
Se on ainoa johtotähti, jonka tarvitsemme.
Tämä on teknologia-alan eettistä velkaa käsittelevän blogisarjan toinen osa. Ensimmäinen osa on luettavissa täällä.