09.01.2019

Data- ja tekoälyprojektien haasteet ja mahdollisuudet

Hei,

Ja hyvää alkanutta vuotta!

Olin viime vuonna mukana jälleen todella mielenkiintoisissa suuryritysten projekteissa ja hankkeissa

Kerron nyt hieman menneen vuoden kokemuksistani, eli mitkä ovat olleet yritysten ja organisaatioiden datan hyödyntämisen keskeisimmät haasteet.

Kerron myös niistä valtavista mahdollisuuksista, joita datan ja tekoälyn kokonaisvaltainen hyödyntäminen tuo tullessaan.

Mahdollisuudet

Lähdetään mahdollisuuksista liikkeelle. Viimeistään nyt 2019 datasta on tulossa valtavirtaa. Se ei enää ole jokin hieman epämääräinen osa IT-osaston tekemistä, vaan nyt liiketoiminta on siitä entistä enemmän kiinnostunut.  Tähän antoi sysäyksen Big Data ja nyt viimeistään tekoäly-hype on tuonut data-asiat johtoryhmien pöydille.

Perinteisinkään johtaja ei voi pistää päätä enää pensaaseen ja olla näkemättä, että maailman arvokkaimmat yritykset perustavat toimintansa datan ja tekoälyn hyödyntämiselle.

Tulemmekin nyt vuonna 2019 näkemään ennätyssuuria budjetteja tekoälyn hyödyntämiseen. Budjetit ovat olleen tähän mennessä usein pieniä, koska yrityksissä vaaditaan yleensä ns business-casea kehittämisinvestoinnille.

Perinteisissä IT-ratkaisuissa business caseja on ollut jo pitkään: uusi ERP tai tietovarasto säästää  x määrän henkilötyövuotta ja näin tuottavuus paranee. Ylin johto ja omistajat (joita hallitus edustaa) ymmärtävät tätä ”kieltä”, koska se liittyy kustannussäästöihin ja euroihin.

Tekoälyn kanssa tilanne on ollut toinen. Ei ole ollut osaamista eikä selkeitä näyttöjä tuottavuuden parantumisesta tekoälyn avulla, puhumattakaan uuden liiketoiminnan kasvattamisesta. Toki tekoälyyn liittyvät kokeilut on voitu laittaa tutkimuksen ja tuotekehityksen piikkiin (R&D), mutta silläkään puolella budjetit eivät päätä huimaa.

Nyt on näköpiirissä isoja mahdollisuuksia niille, jotka osaavat tehdä uskottavia business-caseja tekoälyn osalta. Ja myös asiakasreferenssejä alkaa löytyä. Vaikka caset olisivat edelleen suuntaa-antavia, lähes jokainen johtaja on sitä mieltä, että rahaa on investoitava tekoälyyn entistä enemmän.

Arvatkaa millä markkinointikärjellä Microsoft on julistanut lähtevänsä vuoteen 2019? Juuri niin, se on tekoäly. Monilla alan asiantuntijoilla tämä hypetys alkaa jo tulla ulos korvista. Heidän mielestään ei pitäisi puhua tekoälystä lainkaan, vaan edistyneestä analytiikasta tai korkeintaan koneoppimisesta.

Itse olen tullut siihen tulokseen, että puhutaan nyt sitten tekoälystä, jos se on helpompaa liiketoiminnalle edustajille. Kutsukoon sitä kukin haluamallaan tavalla, paluuta aikaisempaan ei enää ole ja teknologian kehitystä on vaikea pysäyttää.

Datan hyödyntämisen mahdollisuudet ovat nyt suomalaisilla yrityksillä suuret. Lähes jokaisen tietohallintajohtajan (CIO) budjetissa on datan hyödynnettävyyden parantaminen. Vihdoinkin ja vähitellen aletaan ymmärtää, että data ei ole vain perusraportointia vaan se on myös esimerkiksi datatuotteita ja tekoälyä.

Data Science -kouluttajamme Stephen Brobst kertoo yrityksestä, jossa syy saada potkut on päätöksen tekeminen ilman dataa! Dataa pitää siis analysoida huomattavasti nykyistä enemmän. USA:ssa edistyksellistä analytiikka tekevien data scientistien määrä on ollut rajussa kasvussa. Mielenkiintoista nähdä, käykö näin viimeinkin meilläkin. Tällä tittelillä toki on jo rekrytoitu, mutta varsinainen läpimurto on vielä edessä. Myös Data Science -roolin merkitys tulisi nousta korkeammalle, itse näkisin Data Scientistin roolin liiketoimintajohtajan tärkeänä apurina.

Tietovarastoinnin teknologiat ja menetelmät ovat viime vuosina kehittyneet niin ikään valtavasti. Nyt on osattava toteuttaa data-alustoja entistä huomattavasti nopeammin ja kehityksen on oltava paremmin liiketoiminnan hallinnassa liiallisen ulkoistamisen sijaan. Näemme kuluvana vuonna myös lukuisia isoja legacy-järjestelmien uusimishankkeita.

Kokemuksemme mukaan moni haluaa nyt auditoida nykyiset dataratkaisunsa ja saada suositukset jatkotoimille. Olemmekin auttaneet monia organisaatioita kehittämään tiedonhallinnan organisointia, menetelmiä ja arkkitehtuureja. Nykyisin ei enää puhuta Big Datasta tai että se jotenkin korvaisi tietovarastot; puhutaan erityyppisistä datoista, joille on entistä enemmän käyttöä ja data-alustalle on tapauskohtaisesti monia vaihtoehtoja.

Olemme soveltaneet konseptuaaliseen tiedonmallinnukseen perustuva lähestymistapaa esim HUS:lla ja muissa laajoissa tietoalustaprojekteissa, ja se toimii nyt todella hyvin. Vihdoinkin liiketoiminnan näkemys tiedoista välittyy tietovarastoon asti, ja tietovaraston kehitys pysyy hallinnassa. Kirjoitinkin tästä TIVI-lehteen. Menetelmällä on nyt kysyntää ja tulen mielelläni kertomaan miksi tämä on todella toimiva menettely.

Kuluvan vuoden haasteita

Monissa organisaatioissa 2018 havaittu, että datat ovat ns ”kaaoksessa”. Tämä on yleisin syy, miksi meidät pyydetään apuun. Data Governancen kehittäminen tulee olemaan tänä vuonna todella keskeistä.

Yritysten vaikea välillä nimetä se juurisyy, eli mistä datan hyödyntämisen ongelmat johtuvat. Ja kun datahaasteita on paljon, on erittäin vaikea myös päättää mistä lähdettäisiin liikkeelle, mikä olisi tehokkainta kokonaisuuden kannalta, mikä on kaikista olennaisinta.

Näiden priorisointiongelmien kanssa ponnistelevat lähes kaikki organisaatiot. Näihin haasteisiin olemme kehittäneet menettelyjä ja toimintatapoja, mutta niistä lisää myöhemmissä blogeissa.

Edelleen merkittävä  haaste on yritysten datojen siiloutuminen eri IT-järjestelmiin, ja vuonna 2018 tilanne oli entistäkin haastavampi. Jo pitkään jatkunut pilvipalveluna toimitettavien applikaatioiden ja IT-järjestelmien hankinta liiketoiminnan toimesta aiheuttaa harmaita hiuksia tiedonhallinnan ihmisille.

Periaatteessa kehitys on hyvä, koska modernit applikaatiot tehostavat ja automatisoivat prosesseja mainiosti. Ne eivät siis tule katoamaan mihinkään, vaan vuonna 2019 applikaatioita hankitaan enemmän kun koskaan aikaisemmin.

Edellä mainittu haaste liittyy toiseen, vielä suurempaan haasteeseen. Osastot, yksiköt ja funktiot hallinnoivat omia IT-jäjestelmiään ja applikaatioitaan, eivätkä aina kovin mielellään jaa tätä data muiden yksiköiden kanssa. Tämä olisi erittäin tärkeää, jos haluamme hyödyntää dataa kokonaisvaltaisesti.

Yksi paljon hyödynnetty ratkaisu on hoitaa asiaa keskusjohtoisesti esim CDO (Chief Data Officer) -roolin avulla. Ongelmana tässä on, että asiantuntijoiden johtamisessa  keskusjohtoinen ”käskytys” ei nykymaailmassa toimi kovin hyvin.

Eri yksiköt eivät välttämättä toimi ohjeistuksen mukaan, vaikka käsky tulisi kuinka isolta pomolta. Maailma ei enää toimi näin ja siksi tämän rinnalle on kehitettävä muita tapoja saada kaikki mukaan talkoisiin. Pitää olla kepin lisäksi myös porkkanaa.

Mielestäni eri yksiköitä pitäisi palkita siitä, että tuovat oman yksikkönsä dataa yhteiselle data-alustalle, siis muidenkin käyttöön. Samaan tapaan kun he raportoivat yksikkönsä tulokset ja miten vuosi on heidän näkökulmastaan mennyt, tulisi heidän ottaa kantaa oman yksikkönsä data-asioihin. On myös kehitettävä käytäntöjä, että jokainen yksikkö pääsee käsiksi yhteiseen data-alustaan ja hyötyy sen käytöstä itsekin.

Tekoälyprojektien haasteena puolestaan ovat olleen niiden tuotantoon vienti, kuten moni tietää. On helppo tehdä pilotti tai poc, mutta siitä eteenpäin ei tiedetä mitä tehdään. Tämäkin liittyy aika paljon tuohon yksikköasiaan.

Käytetään esimerkkiä: kuvitteellinen firma toimittaa ilmastointiratkaisuja teollisuuteen. Yrityksen tuotekehitysyksikkö on onnistunut koneoppimisen avulla tunnistamaan laitteiden vikaantumisen ennakkoon, ja siten olisi mahdollista säästää huoltokustannuksissa.

Laitteiden huoltoyksikkö tekee kuitenkin hyvää tulosta eikä heidän intressinsä ole huoltoliiketoiminnasta karsiminen. Tekoälyn tuotantoon vieminen ei ole aina yksinkertaista ja edellyttää pidemmälle menevää suunnittelua sekä yksikköjen välistä yhteistyötä.

Olemme itseasiassa onnistuneet Ellien avulla mallintamaan tämän tyyppiset tapaukset helposti ymmärrettäväksi graafiksi. Konseptuaalinen mallinnus sopii tähän siksi niin hyvin, koska se se on ”vapaa” yksikköjen prosesseista ja IT-järjestelmistä. Kerron tästä mielelläni lisää erikseen, koska muuten tarinasta tulisi liian pitkä.

Amazonin, Supercellin tain muun teknologiafirman on helppoa tunnistaa datan ja koneoppimisen avulla kehityskohteita ja viedä löydökset heti tuotantoon.  Koko liiketoiminta on nimittäin digitaalista, käytössä on yksi softa (tai alusta), jonka ovat itse rakentaneet.

Suomalainen iso teollisuuskonserni puolestaan hallinnoi satoja erillisiä IT-järjestelmiä, heillä on monta laajaa ERP:iä käytössä eri maissa, tuotannolla omansa, huollolla omat järjestelmänsä. Ja vain osa toiminnoista on digitaalisessa muodossa. Tuotantoon vieminen on siis todella haastavaa näissä olosuhteissa, eikä ole ihme, että moni tekoälyhanke jää vain pilotin asteelle.

Itse taklaisin tätä sillä, että perinteisemmän yrityksen pitää alkaa mieltää itsensä digitaaliseksi ohjelmistoyritykseksi panostaen laajasti datan ja tekoälyn hyödyntämiseen itse, eikä vain ulkoista tätä.

Tulevaisuudessa voittajia ovat nimittäin he, jotka itse kehittävät datakyvykkyyksiään. Hyvää esimerkkiä näyttää Cargotec, jonka omien ohjelmistojen liiketoiminta oli 2017 jo 157 miljoona euroa.

Tästä pääsemmekin viimeiseen haasteeseen, joka on järjestelmätoimittajien hallinta. Moni kokee olevansa liian riippuvainen järjestelmätoimittajista (vendor lock). Uskon että toimittajahallinnan merkitys tuleekin nostamaan päätään ostajien tullessa entistä tietoisemmiksi datan merkityksestä. Tässä auttaa oman datakompetenssin parantaminen mm koulutuksen avulla.

Minun vakio-ohjeeni kuuluukin: käytä toimittajia, mutta älä ulkoista dataosaamista koskaan täysin organisaatiosi ulkopuolelle. Käsitemallit ovat hyvä tapa pitää hallintaa itsellä.

Asiasta toiseen, eli olemme lisänneet hieman lisää sisältöä materiaalisivuillemme, eli siellä on nyt meidän Tivi-artikkeleita, videoita, SQL-opas sekä muuta sisältöä. Pyrimme lisäämään sinne entistä enemmän tavaraa, jotta kuka vain voi opiskella data-alaa itsenäisesti.

Toivotan kaikille datarikasta alkanutta vuotta ja toivottavasti nähdään jälleen toimeksiantojen parissa tänäkin vuonna.

Ystävällisin terveisin,

Ari Hovi & co

Ps. Tässä blogissakin mainitun ”datakaaoksen” taklaamiseen yksi hyvä konsti on oman henkilöstön osaamisen osaamisen vahvistaminen tiedonhallinnan sertifikaatilla, eli DAMA-yhdistyksen virallisen sertifiointikokeen suorittamisella:

Data Management Fundamentals and Dama Certification Preparation, 11.02.2019 – 13.02.2019

Koulutus on erittäin kattava katsaus tiedonhallinnan käytäntöihin ja periaatteisiin. Mikäli haluat saada kokonaisvaltaisen kuvan datan hyödyntämisen eri näkökulmista, ja osoittaa olevasi alan asiantuntija, suosittelen tutustumaan tähän. Sertifiointi takaa myös koko tiimisi kyvykkyyden kehittää tiedonhallintaa, olit sitten konsulttiyrityksen edustaja tai asiakkaan sisäinen asiantuntija.

Lisätietoa kurssista tästä

Saattaisit olla kiinnostunut myös näistä

Data Lakehouse -projektit käytännössä: Kokemuksia asiantuntijoilta

Lue lisää

Eettinen tiedonkäyttö: Vastuullisuuden peruspilarit

Lue lisää

Tieto on valtaa – ja vastuuta

Lue lisää