Näyttää siltä, että käytät Internet Explorer -selainta. Selain ei valitettavasti ole tuettu. Suosittelemme käyttämään modernia selainta kuten Chrome, Firefox, Safari tai Edge.

Tekoäly tehostaa analytiikkaa, mutta arvokkaat tulokset vaativat asiantuntijan ymmärrystä

Julkaistu aiheella Analytiikka

Kirjoittaja

Artikkeli

3. helmikuuta 2025 · 3 min lukuaika

Analytiikka on modernin liiketoiminnan kivijalka, joka suuntaa yrityksen strategiaa, ohjaa sisäisiä prosesseja sekä tunnistaa kehitystarpeita ja kriittisiä kipukohtia. Suuret kielimallit helpottavat datan hyödyntämistä, mutta tekoälyn käytön kasvun myötä myös osaavien analyytikkojen työn arvo ja merkitys korostuu.

Koneoppiminen ja erilaiset ongelmakohtaisesti räätälöitävät tekoälyalgoritmit ovat jo pitkään olleet osa data-analytiikkatyötä. Uudet suuret kielimallit ovat mullistaneet erityisesti luonnollisen kielen käsittelyn sovelluksia, koska niitä voi hyödyntää erilaisten ongelmien ratkaisuun ilman erillistä koulutusdataa. Mallien asiantuntevuus ja looginen päättelykyky eivät kuitenkaan yllä alan ammattilaisen tasolle, vaikka ulkoisesti kielimallit saattavat esittää asiansa hyvin vakuuttavasti.

Tämän tietävät hyvin Nitorilla työskentelevä Eero Lihavainen ja hiljattain uusien haasteiden pariin siirtynyt Tuomo Kakkonen, jotka ovat molemmat kokeneita datatieteilijöitä. Kakkonen on myös toiminut Euroopan komission ulkopuolisena asiantuntijana uusien EU:n rahoittamien tekoälyhankkeiden valintaprosesseissa.

Haastateltavien mukaan tekstianalytiikan parissa työskentelevien tontilla tekoälyn murroskausi on näkynyt lähinnä siten, että monia järjestelmiä suunnitellaan uusiksi niin, että ne hyödyntävät suuria kielimalleja. Niin hyvin kuin vanhat menetelmät toimivatkin, fakta on, että oppivat kielimallit ovat monella tavalla avuksi tekstianalytiikassa. Tekoälyn hyödyntäminen voi vähentää manuaalista työtä ja ylläpitoa, jollaiseen on totuttu perinteisempien tekstianalytiikkatyökalujen kanssa.

Monissa yrityksissä mietitään paraikaa sitä, kuinka kielimallit voidaan integroida olemassa oleviin järjestelmiin ja kuinka pitkään jatkaa vanhempien, varmatoimisiksi todettujen järjestelmien ja menetelmien varassa. Lihavainen muistuttaa, että tekoäly on ollut osa data-analytiikkaa jo pitkään – merkityksellinen data-analytiikka edellyttää yhä kykyä eritellä käytännön tekemisen jyvät ja akanat: mikä osa-alueet voidaan istuttaa automaation harteille ja missä tarvitaan jatkossakin asiantuntijaa.

Tekoälyn nousukaudella datan laadun merkitys korostuu

Lihavaisen mukaan yleisimmät data-analytiikan ongelmat ratkeavat yhä parhaiten perinteisillä tilastotieteen ja koneoppimisen menetelmillä. Kielimallit ovat kuitenkin jo osa analyytikon arkipäivää: ne toimivat “digitaalisina kollegoina”, jotka nopeuttavat ohjelmointia ja esimerkiksi tietokantakyselyjen kirjoittamista. Malleja voi myös käyttää yksinkertaisiin datankäsittelytehtäviin, jotka veisivät paljon aikaa käsityönä.

Suuria kielimalleja voi hyödyntää myös automaation välineenä. Erityisesti sovelluksissa, joissa pitää lukea tai tuottaa luonnollista kieltä – yhtenä esimerkkinä tiedon muuttaminen rakenteiseen muotoon jatkoanalyysia tai sovelluksia varten – kielimallit ovat erittäin joustavia. Tässä piilee kuitenkin myös riskejä: tekoälyllä on helppo toteuttaa näyttävänä demona toimiva prototyyppi, mutta voi olla huomattavasti hankalampaa toteuttaa ratkaisu, joka ei tee liikaa virheitä. Siksi onkin olennaista pystyä arvioimaan alusta asti, kuinka hyvin ratkaisu toimii käytännössä. Tähän tarvitaan data-analytiikan osaamista.

”Mittaaminen on data-analytiikkatyön tärkeimpiä osa-alueita ja suurten kielimallien käytön yleistyessä tulosten validointi on entistäkin tärkeämmässä roolissa. Tekoälymallit ovat surullisen kuuluisia siitä, että kun mallin versio vaihtuu, tai kun vain muuttaa kysymyksen sanallista asettelua, tekoälyn antamien vastausten sisältö saattaa muuttua täysin”, Lihavainen toteaa.

Kun yritykset nyt hyödyntävät tekstimuotoista dataansa tekoälyn avulla, on datan laadulla entistä suurempi merkitys. Jos mallille syötetään dokumentti, ja ihminen ei sitä ymmärrä, todennäköisesti sitä ei ymmärrä mallikaan. Toisaalta kielimallit voivat myös auttaa tekstisisällön kirjoittamisessa ja sen laadun parantamisessa, mikä onkin yksi kielimallien suosituimmista sovelluskohteista tällä hetkellä.

Mittaaminen ja ymmärrys ovat arvoa tuottavin yhtälö

Juuri mittaaminen on avainasemassa kun puhutaan merkityksellisestä, yritystä oikeisiin toimenpiteisiin ohjaavasta datasta. Analysointi ja evaluointi vaativat syvää ymmärrystä liiketoiminnan osatekijöistä ja niiden välisistä mittasuhteista. Tässä yhtälössä asiantunteva, vastuullinen ja eettisen kontekstin ymmärtävä data-analytiikan ammattilainen ylittää generatiivisen tekoälyn kyvykkyydet.

Datamäärien kasvaessa hallinnolliset ja laadunvarmistukseen liittyvät haasteet kasvavat samassa mittasuhteessa. Haastateltavien mukaan tarvitaan lisää automaatiota vahvistamaan valvonnan ja validoinnin prosesseja.

”Tarvitsemme kipeästi uudenlaisia järjestelmiä, joiden perimmäinen tarkoitus on valvoa tekoälyjärjestelmien toimintaa. Toki EU:ssa tulee noudattaa GDPR:ää ja vaiheittain voimaan astuva AI Act -tekoälysäädös tulee sanelemaan pelisääntöjä tarkemmin tulevaisuudessa, mutta paikkansa pitävien analyysien peruskallio on ymmärrys siitä, minkälaisista osasista arvokas, eettinen ja tietoturvallinen data ja tekoälymalli rakentuvat”, Kakkonen alleviivaa.

Toisin sanoen arvokasta ja näkemyksellistä analytiikkaa tuottavat prosessit eivät suoranaisesti ole muuttuneet helpommiksi tekoälymallien yleistymisen myötä, vaikka esimerkiksi luonnollisen kielen käsittely ja suurten tietomassojen hallinta ovat entistä sujuvampia prosesseja. Vauhdin ja vaivattomuuden mielikuvat voivat kuitenkin ohjata liiketoimintaa väärään suuntaan, jos tekemisen taustalta uupuu seikkaperäinen ymmärrys siitä, mihin ja miten ollaan etenemässä ja kuinka vankkaan tietoon valittu suunta perustuvat. Sitä ymmärrystä Nitorin digitaalisten insinöörien kaltaiset data-analytiikan asiantuntijat kannattelevat ja kultivoivat jatkossakin.

Nitor auttaa yritystäsi hyödyntämään dataa liiketoimintalähtöisemmin. Lue lisää analytiikkapalveluistamme!

Kirjoittaja