Näyttää siltä, että käytät Internet Explorer -selainta. Selain ei valitettavasti ole tuettu. Suosittelemme käyttämään modernia selainta kuten Chrome, Firefox, Safari tai Edge.

Tekoäly ja vastuullisuus: rakennuspalikat luotettavalle teknologialle

Julkaistu aiheella AI, Vastuullisuus

Kirjoittaja

Artikkeli

29. huhtikuuta 2025 · 4 min lukuaika

Minkälainen toimintasuunnitelma yrityksen on luotava, jotta tekoälyä hyödynnetään luotettavasti ja vastuullisesti niin nykyhetkessä kuin tulevaisuudessa? Sukellamme monisyiseen aiheeseen karujen totuuksien kautta Nitorin Senior Designer ja Digital Ethicist Annika Madejskan sekä Sustainability Director Ari Kolin johdolla

Monet yritykset ovat alkaneet ottaa tekoälyä käyttöön harhaanjohtavan käsityksen pohjalta: mikäli ei lähde mukaan tekoälyn maailmaan täydellä vauhdilla, jää jälkeen. Tekoälyn hyödyntäminen haaste- ja tavoitekeskeisesti on jälkiviisautta, joka huomioidaan vasta kun tekoäly on jo lisätty yhtälöön epäselvien perusteiden saattelemana. Se on kuin yrittäisi takoa avainta lukkoon, jota ei ole vielä edes valmistettu.

”Tämä pätee myös tuotejohtamiseen. Monien yritysten toiminta ei ole riittävän määrätietoista tuotekehityksen selvitysvaiheessa – siitä huolimatta, että se on arvoa tuottavien ratkaisujen luomisen ja markkinasopivuuden varmistamisen kannalta elintärkeä osa prosessia”, Koli sanoo.

Millä tavoin tämä kaikki sitten liittyy teknologian ja tekoälyn vastuulliseen käyttöön sekä sääntelyä noudattavaan liiketoimintaan, joka on pitkäjänteistä ja kestävää? No, oikeastaan kaikin mahdollisin tavoin.

”Tässä kiteytyvät ne ydinongelmat, jotka vaivaavat koko teknologiakenttää. Kiirehditään liikaa ja korjataan asioita vasta jälkiviisaina", Madejska toteaa.

”Kaikki lainsäädännön noudattamisesta henkilöstön riittävään kouluttamiseen ja datan vastuulliseen hyödyntämiseen täytyy rakentaa ymmärryksen perustalle. Tällä hetkellä tekoälyn käyttöönoton kanssa kiirehditään niin paljon, että yrityksissä ei ehditä tarkastella keskitytäänkö oikeisiin asioihin ja miten tekoäly vaikuttaa nykyisiin rakenteisiin.”

Vastuu vastuusta

Puutteellinen ymmärrys asettaa rajat myös tiedostavalle tekoälyn hyödyntämiselle. Vastuullinen tekoälyn käyttö alkaa siitä, että työntekijät on varustettu sujuvan työskentelyn mahdollistavalla tietotaidolla. Ilman perusteellista sisäistä tekoälyosaamista yritysten on vaikea hyödyntää tekoälyä vastuullisesti ja strategisesti.

Kun työntekijät on perehdytetty yrityksen hyödyntämän tekoälyn toimintaperiaatteisiin, on myös helpompi viestiä sen käytöstä asiakkaille luottamusta herättävällä tavalla. Asiakkaille tulee tarjota selkeää ja helposti saatavilla olevan tietoa siitä, missä ja miten tekoäly vaikuttaa heidän käyttämiinsä palveluihin – erityisesti silloin, kun kyseessä on henkilökohtaisten tietojen käsittely. Tekoälyä koskevaa luottamusta ei voi rakentaa vain viestinnän varaan – yhtä lailla tärkeää on läpinäkyvyys, osaamisen taso ja johdonmukainen toiminta.

Puhumme siis vastuullisuudesta ja vastuunkannosta, jonka tulee kulkea koko organisaation läpi. Tiedonjaon ja läpinäkyvyyden kautta on mahdollista luoda yrityskulttuuri, jossa tekoälyä käsitellään pelkän teknisen ratkaisun sijaan inhimillisten päätösten sarjana, joka vaatii huolellisuutta, harkintaa ja valvontaa. Sellaisen kulttuurin vallitessa myös eettiset kysymykset saa ja pitää nostaa esiin, ja jokainen työntekijä kokee kantavansa osansa vastuusta.

On opittava sietämään epävarmuutta

Monet yritykset ovat vailla vastauksia tekoälyä koskevissa kysymyksissä. Käyttävätkö työntekijät tekoälyä vastuullisesti arjessaan, ja miten tätä valvotaan? Ovatko suurten kielimallien tuottamat tulokset tasapuolisia ja oikeudenmukaisia, ja miten se todennetaan? Jos asiakaspalvelun botti antaa virheellistä tai puolueellista tietoa, kuka kantaa vastuun? Ymmärrys on avainasemassa sekä toimenpiteiden parantamisessa että suunnan korjaamisessa.

Muistutuksena: laivoissa ei ole pelastusveneitä tyynen sään varalle.

”Vastuun puute lisää jatkuvasti teknologia-alan eettistä velkaa. Lopulta jokaisen yrityksen on luotava selkeät hallintamallit tekoälyn käytölle, mutta monella on vaikeuksia edetä asiassa. Mitä pidempään asian kanssa odotetaan, sitä vaikeampaa siitä tulee”, Koli korostaa.

”Tilanne muuttuu myös päivä päivältä arvaamattomammaksi, etenkin kun aiemmin mainittu vauhtisokeus valtaa jatkuvasti enemmän pinta-alaa. Emme enää vain kerrytä eettistä velkaa entiseen tapaan, vaan vauhti on nyt moninkertainen tekoälyn ansiosta. Velkakertymä karttuu nyt hypernopeudella. Se tekee tulevaisuuden ennustamisesta vieläkin vaikeampaa”, Madejska jatkaa.

Harhaluulot lainsäädännön ympärillä

Asiantuntemuksen puute ja vastuiden epäselvyys luovat tulenaran yhdistelmän yrityksille, kun yhtälöön lisätään AI Actin kaltaiset uudistukset EU-lainsäädäntöön. Jopa teknologisesti edistyneessä Suomessa harvalla yrityksellä on edellytykset operoida sujuvasti uuden lainsäädännön mukaisesti. Globaalissa mittakaavassa regulaation suurin ongelma on kuitenkin optiikka: tekoälykehitystä suitsiva lainsäädäntö nähdään rajoittavana ja estävänä tekijänä, eikä eettisten arvojen ja periaatteiden ohjenuorana. Sillan sijaan muurina.

”Kekseliäisyyden mielenmaisema tulee asettumaan uusiin kehyksiin Euroopassa EU-lainsäädännön myötä, mutten kerta kaikkiaan usko, että Eurooppa olisi jäämässä globaalissa kilpailussa jälkeen. Rajoitukset ovat usein hyvästä ja voivat olla jopa välttämättömiä innovatiiviselle toiminnalle”, Madejska huomauttaa.

”Yleinen harhaluulo on, että AI Act olisi vaikeaselkoinen ja hankala soveltaa. Ei ole. Yritysten on vain laadittava selkeät hallintamallit tekoälyn käytölle, ja AI Act tarjoaa lainsäädännöllisen kehyksen tätä varten”, Koli lisää.

Tekoälyn hallintamallia ei kuitenkaan tule luoda valmispohjasta – jokaisen organisaation on räätälöitävä päivittäiseen työhön sopiva malli toimintatapojensa kontekstissa. Mikäli tekoälyt ovat vain työkaluja yrityksen toiminnassa, kevyempikin malli riittää. Mikäli yritys kehittää ja julkaisee tekoälymalleja, hallintamallin on oltava kattavampi. Ei ole epäilystäkään, että jokainen yritys tarvitsee tekoälyhallintamallin – kysymys on siitä, kuinka kattava sen tulee olla.

Rautatieparonien jalanjäljillä

On hyvä muistaa, että elämme edelleen tekoälyn käyttöönoton alkuvaihetta, ja monet hallintamallit ja tietoturvakäytännöt hakevat vielä muotoaan. Myös näissä asioissa Nitorin asiantuntijat haluavat auttaa asiakkaitaan. Koli jatkaa:

”Hallintamallit lisäävät asiakkaiden luottamusta, mutta ovat myös avainasemassa työntekijöiden ymmärryksen kasvattamisessa ja vastuullisen työskentelyn varmistamisessa. Tehokkaat hallintamallit eivät ole taikuutta, mutta ne vaativat tekoälyosaavia ja -koulutettuja työntekijöitä. Vastuullisuus täytyy juurruttaa koko organisaatioon, ja se edellyttää järjestelmällistä lähestymistapaa.”

Madejska päättää keskustelun pysäyttävään ajatukseen:

”Teollinen vallankumous vaikutti valtavasti ihmiskuntaan. Meneillään oleva teknologinen vallankumous on vielä suurempi mullistus, sillä se muuttaa maailmaa ennennäkemättömällä nopeudella. Ennen pitkää teollisen kulta-ajan rautatieparonit joutuivat vastaamaan riistosta ja korruptiosta – teknologia-alan yritysten on hyvä muistaa, että ennen pitkää hekin joutuvat vastuuseen tekemistään päätöksistä.”

Haluatko varmistaa, että yrityksesi digitaaliset palvelut ovat tulevaisuuskestäviä? Lue lisää palveluistamme!

Kirjoittaja