Tekoäly HR:ssä – valtava potentiaali, kasvava vastuu
- Kaisa Salo
- 11 tuntia sitten
- 7 min käytetty lukemiseen
Kuvittele tilanne, jossa tekoäly seuloo satoja työhakemuksia muutamassa minuutissa ja ehdottaa parhaat kandidaatit haastatteluun, tai optimoi monimutkaisen työvuorosuunnitelman huomioiden jopa tuhansien työntekijöiden tarpeet ja toiveet. Tämä ei ole enää kaukaista toiveajattelua, vaan todellisuutta jo monissa organisaatioissa – tutkimuksen mukaan 52 % suomalaisista organisaatioista hyödyntää tekoälyratkaisuja HR-tehtävissä. Vaikka käyttö on vielä hajanaista, potentiaali on valtava: tekoäly tehostaa rekrytointia sekä onboarding- ja offboarding-prosesseja, helpottaa työvuorojen ja tehtävien allokointia, tukee suorituksen johtamista ja tuottaa entistä parempaa henkilöstöanalytiikkaa.
Mutta tekoäly on vain niin vahva kuin sen käyttäjät. Älytyökalujen hyödyntäminen edellyttää HR-henkilöstön ja esihenkilöstön kouluttamista ja pelisääntöjen sisäistämistä, jotta hyödyt voidaan saavuttaa vastuullisesti ja kestävästi. Samalla työnantajilta vaaditaan entistä enemmän: tekoälyn käyttöön liittyy juridisia, eettisiä ja käytännön kysymyksiä, jotka eivät ratkea pelkällä AI-strategiapaperilla. Lainsäädäntö asettaa tekoälyn hyödyntämiselle lisääntyviä velvoitteita – tuoreimpana EU:n tekoälyasetus, joka asettaa vaatimuksia sekä tekoälysovellusten tarjoajille että käyttäjille.
Tekoälyn käyttöönotto: tarve, riskit ja yhteistoiminta
Työnantajan on huolehdittava useista tärkeistä seikoista ennen henkilöstöhallinnon tekoälyjärjestelmän käyttöönottoa. Ensimmäinen askel on tunnistaa, mihin tarpeeseen tekoäly halutaan ottaa käyttöön ja arvioida siihen liittyvät riskit. Erityisesti työ- ja tietosuojalainsäädäntö velvoittaa arvioimaan ennakolta uuden teknologian vaikutuksia työntekijöihin. Mikäli käyttöön on tulossa esimerkiksi rekrytointia tukeva tekoälypohjainen työkalu, liikutaan työnhakijoiden henkilötietojen käsittelyn ydinalueella. Työnantajan on tunnistettava ja perusteltava miksi henkilötietoja käsitellään, miten ja missä määrin niitä käytetään, ja mitä muutoksia AI-järjestelmä mahdollisesti vaatii toimintatapoihin tai työnhakijoiden informointiin. Tietosuojalainsäädäntö edellyttää mm. henkilötietojen riskien arviointia (vaikutustenarviointi) ennen uuden teknologian käyttöönottoa riippumatta siitä, hyödynnetäänkö siinä tekoälyä vai ei. Käytännössä henkilöstöhallinnon AI-järjestelmät tarkoittavat lähes automaattisesti, että työntekijöiden yksityisyydensuojaan liittyvät riskit on tunnistettava ja määritettävä tarvittavat suojatoimet etukäteen. Täysin automaattinen päätöksenteko henkilön rekrytoinnissa, kuten työhakemusten seulominen ilman minkäänlaista ihmisen osallistumista lopulliseen päätöksentekoon on tietosuojalainsäännön mukaan pääsääntöisesti kiellettyä, joten rekrytoijan vaikutus on aina säilyttävä osana prosessia.
Työnantajalla on myös yhteistoimintavelvoitteita silloin, kun yrityksen toimintaa kehitetään ottamalla käyttöön uutta teknologiaa. Jokaisen vähintään 20 työntekijää työllistävän organisaation on käytävä henkilöstön kanssa vuoropuhelua, jolla turvataan työntekijöiden vaikutusmahdollisuudet heitä koskevissa asioissa. Tekoälypohjaisten ratkaisujen käyttöönotto HR:ssä on ilman muuta tällainen asia ja siitä on syytä keskustella henkilöstön kanssa hyvissä ajoin. Yli 50 hengen työnantajilla on lisäksi nimenomainen, kevennetty muutosneuvotteluvelvoite uuden teknologian käyttöönoton yhteydessä. Ja jos tekoälyn arvioidaan mahdollisesti vähentävän työvoiman tarvetta tai muuttavan työntekijöiden tehtäviä olennaisesti, on ennen käyttöönottoa käytävä laajemmat muutosneuvottelut henkilöstön kanssa. Kaikki nämä yhteistoimintaprosessit on käytävä oikea-aikaisesti, eli ennen hankintapäätösten tekemistä, jotta yhteistoimintalain vaatimukset täyttyvät.
Myös työturvallisuuslaki koskee tekoälyn käyttöönottoa työpaikoilla. Lain keskeinen ratio on, että työnantajan pitää tunnistaa työhön liittyvät vaaratekijät ja haitat sekä reagoida niihin ennalta. Tekoäly voi tuoda mukanaan uusia ulottuvuuksia perinteiseen työturvallisuusajatteluun: mitä vaaroja ja kuormitusta tekoälyn käyttöönotosta voi seurata, ja miten niitä tulisi ehkäistä? Esimerkiksi uuden teknologian opettelu voi kuormittaa työntekijöitä henkisesti, ja huoli omista oikeuksista voi aiheuttaa stressiä koneälyn osallistuessa HR- ja esihenkilötyöhön. Työnantajan on arvioitava nämäkin riskit ja huolehdittava tarvittavasta perehdytyksestä, työhyvinvoinnista sekä tuesta muutostilanteessa.
On jo laajasti tunnistettu, että tekoälyn käyttö haastaa syrjimättömyyttä työelämässä. Yhdenvertaisuuslain mukaan työnantaja ei saa asettaa työntekijöitä tai työnhakijoita eri asemaan syrjivillä perusteilla, kuten iän, sukupuolen tai muun henkilöön liittyvän syyn takia. Koska tekoäly oppii ja tekee päätelmiä syötetyn datan perusteella, se voi omaksua datassa piileviä ennakkoluuloja. Näin ollen voi käydä esimerkiksi siten, että rekrytointialgoritmi suosii hakijoita ansioiden sijaan sukupuolen perusteella. Jos esimerkiksi aiemmin valtaosa rekrytoiduista on ollut tiettyä sukupuolta, AI voi pitää tätä “menestyksen mallina”. Syrjivien vinoumien kitkeminen tekoälystä on haastavaa, sillä algoritmit ovat usein käyttäjälle läpinäkymättömiä ja päätöksenteko selittämätöntä. Nykyisen hallitusohjelman pohjalta Suomessa on aloitettu julkishallinnossa tutkimushanke, joka tähtää tekoälyyn liittyvien syrjintäriskien tunnistamiseen ja ennaltaehkäisyyn.
EU:n tekoälyasetus kiristää vaatimuksia asteittain
Euroopan unioni on laittanut lusikkansa soppaan tekoälyn sääntelyssä. EU:n tekoälyasetus tuli voimaan kesällä 2024, ja se tuo uusia vaatimuksia tekoälyn hyödyntämiselle. Vuoden 2025 helmikuusta alkaen asetus on jo edellyttänyt organisaatioita opettamaan henkilöstönsä tekoälylukutaitoisiksi. Tekoälylukutaidolla tarkoitetaan työntekijöiden kykyä arvioida tekoälyn tuottamia ratkaisuja kriittisesti sekä käyttää tekoälyä vastuullisesti ja tarkoituksenmukaisella tavalla.
Jatkoa on luvassa elokuusta 2026 alkaen, jolloin asetuksen keskeiset riskiperusteiset velvoitteet astuvat voimaan. Riskiluokituksia on neljä: kokonaan kielletty, suuririskinen, rajoitettu riski sekä vähäriskinen. Tämä on merkittävä etappi tekoälyä hyödyntäville työnantajille, sillä moni HR-prosessien tueksi hankittu järjestelmä luokitellaan asetuksessa korkean riskin tekoälyjärjestelmäksi. Korkea riski tuo mukanaan myös korkeammat lakisääteiset vaatimukset tekoälyä käyttävälle työnantajalle. Tekoälyasetuksen noudattamista tehostavat muhkeat sakkorangaistukset, jotka voivat parhaillaan olla miljoonaluokkaa riippuen yrityksen koosta.
Kokonaan kiellettyjä ovat työntekijöiden tunteiden tunnistukseen käytettävät sovellukset, jotka analysoivat esimerkiksi työntekijän aikomuksia tai työtyytyväisyyttä. Samoin biometristen tunnisteiden käyttäminen luokitteluun etnisen alkuperän, poliittisen mielipiteen, uskonnon tai seksuaalisen suuntautumisen perusteella ei ole sallittua. Niin ikään henkilöiden sosiaalinen pisteyttäminen henkilökohtaisten ominaisuuksien perusteella on kiellettyä, mikäli se johtaa henkilön kannalta haitalliseen kohteluun, kuten rajoittaa tai estää esimerkiksi uralla etenemistä. Myöskään tiedostamaton vaikuttaminen tai haavoittuvuuksien hyväksikäyttö ei ole sallittua.
Asetuksen terminologiassa työnantaja on tyypillisesti järjestelmän käyttöönottaja, kun se hankkii valmiin tekoälyratkaisun HR-tarpeisiin. On kuitenkin mahdollista, että organisaatio muokkaa yleiseen käyttöön kehitettyä tekoälyjärjestelmää omaan tarkoitukseensa, jolloin työnantajasta voikin tulla asetuksen tarkoittama järjestelmän tarjoaja. Ero käyttäjän ja tarjoajan rooleissa on olennainen: tarjoajalla on huomattavasti laajemmat oikeudelliset velvollisuudet (esim. jatkuva laadunvarmistus, tekninen dokumentaatio, järjestelmän sertifiointi ja tarkka viranomaisraportointi) verrattuna pelkkään käyttöönottajaan. Siksi työnantajan kannattaa lähtökohtaisesti hyödyntää mieluummin valmiita, HR-käyttöön suunniteltuja sovelluksia – ja käyttää niitä juuri valmistajan ohjeiden ja tarkoittaman käyttötarkoituksen mukaisesti.
Suuret riskit ja suuremmat vastuut
Millaista tekoälyn käyttöä sitten pidetään suuririskisenä HR-kontekstissa? Automaattinen päätöksenteko ja profilointi henkilön ominaisuuksien perusteella on aina suuririskistä. Asetuksen mukaan korkean riskin tekoälytyökaluja ovat sellaiset järjestelmät, jotka vaikuttavat ihmisten työhön pääsyyn, työehtoihin tai uralla etenemiseen sekä työssä suoriutumista koskevaan päätöksentekoon. Korkeariskisiksi luokitellaan esimerkiksi tekoälyjärjestelmät, joita käytetään rekrytoinnissa, työsuhteen ehtojen ja urakehityksen päätöksenteossa tai vaikkapa työsuhteen päättämisessä. Samassa riskikategoriassa ovat myös järjestelmät, jotka allokoivat työtehtäviä henkilön käyttäytymisen, persoonallisuuden tai muiden henkilökohtaisten ominaisuuksien perusteella, sekä järjestelmät, joilla seurataan ja arvioidaan työntekijöiden suoriutumista työsuhteen aikana. Kaikki nämä ovat tilanteita, joissa tekoäly vaikuttaa suoraan ihmisiin ja heidän kohteluunsa työelämässä. Siis juuri niitä herkkiä tilanteita, joissa riskit on tunnistettava.
Aivan yksiselitteistä rajanveto ei silti ole. Edellä mainitut käyttötarkoitukset voidaan katsoa vähäriskisiksi, jos AI:n käyttö ei aiheuta merkittävää vahinkoa tai vaaraa työntekijöiden terveydelle, turvallisuudelle tai perusoikeuksille eikä vaikuta olennaisesti heitä koskevaan päätöksentekoon. Esimerkiksi järjestelmä, joka seuloo työhakemuksia ja suosittelee rekrytoijalle sopivimmat kandidaatit olisi mitä ilmeisimmin korkean riskin sovellus. Sen sijaan tekoälytyökalu, joka vain luokittelee ja siirtää hakemuksia järjestelmästä toiseen vaikuttamatta hakijoiden jatkoonpääsyyn, tai havaitsee poikkeamia päätöksenteossa ilman varsinaista puuttumista itse päätökseen, kuuluisi vähäisen riskin kategoriaan. Rajoitetun riskin kategoriassa ovat esimerkiksi vuorovaikutteiset tekoälytyökalut, kuten HR-asioissa toimivat virtuaaliset avustajat. Rajoitetun riskin kategoriassa työnantajan on informoitava käyttäjiä tekoälystä.
Kun työnantaja ottaa käyttöön korkeariskisen tekoälyjärjestelmän, asetus edellyttää työnantajaa huolehtimaan useista velvoitteista. Ensinnäkin on varmistettava, että järjestelmää käytetään asianmukaisesti sen käyttöohjeiden ja käyttötarkoituksen mukaisesti. Toiseksi järjestelmälle on nimettävä vastuuhenkilö tai -tiimi, joka valvoo tekoälyn toimintaa. Valvontavastuullisella tulee olla riittävä pätevyys, koulutus ja valtuudet sekä tarvittavat resurssit tehtävän hoitamiseen. Työnantajan on myös kiinnitettävä erityistä huomiota datan hallintaan: varmistettava, että organisaation syöttämät tiedot ovat käyttötarkoitukseen nähden olennaisia ja riittävän edustavia, jotta tekoäly ei johda harhaan. Lisäksi käyttäjäorganisaation on reagoitava mahdollisiin riskeihin käytön aikana ja raportoitava järjestelmän toimittajalle sekä viranomaiselle, mikäli AI:n toiminnassa havaitaan esimerkiksi virheitä tai vinoutunutta päätöksentekoa, sekä tarvittaessa tehtävä yhteistyötä valvontaviranomaisen kanssa.
Läpinäkyvyys korostuu niin ikään asetuksessa: työntekijöille on tiedotettava tekoälyjärjestelmän käyttöönotosta, ja jos he ovat tekoälypohjaisten päätösten kohteena, heillä on oikeus saada selitys heihin vaikuttavasta päätöksestä. Viimeisenä mutta ei vähäisimpänä, työnantajan on säilytettävä tekoälyjärjestelmän lokitiedot vähintään 6 kuukauden ajan, mikäli nämä lokit ovat sen hallinnassa. Lokitietoihin tallentuu esimerkiksi, miten järjestelmä on tehnyt päätöksiä. Tietojen säilyttäminen ja jäljittäminen on keskeistä mahdollisten myöhempien riitatilanteiden selvittämisessä.
Kuten todettu, jo nykyisinkin monet lait edellyttävät työnantajilta samansuuntaista toimintaa. Esimerkiksi työntekijöiden informointi voidaan hoitaa asianmukaisesti yhteistoimintaprosessin kautta, ja henkilötietojen osalta myös tietosuojalainsäädäntö edellyttää tarkoituksenmukaista käsittelyä. EU:n tekoälysääntely kuitenkin täydentää tätä kokonaisuutta tuomalla mukaan aivan uusia, konkreettisia AI-velvoitteita: korkean riskin tekoälyjärjestelmien käytössä on huolehdittava mm. lokitietojen säilyttämisestä sekä jatkuvasta riittävästä valvonnasta koko järjestelmän elinkaaren ajan.
Käyttäjät ja data AI-strategian ytimessä
Vaikka lainsäädäntö asettaa raamit tekoälyn vastuulliselle käytölle, lopullinen menestys ratkaistaan ihmisten toimesta. Yritys voi luoda kunnianhimoisen AI-strategian, mutta mikäli työntekijöillä ei ole kykyä, halua tai luottamusta käyttää järjestelmää, hyödyt voivat jäädä saavuttamatta. Käyttäjien luottamus järjestelmään on ratkaisevassa roolissa ja henkilöstöä koskevissa päätöksissä se on suorastaan kriittistä. Tutkimukset osoittavat, että omiin oikeuksiin tai järjestelmän käyttötarkoitukseen liittyvät huolet vaikuttavat suoraan siihen, hyväksyvätkö työntekijät tekoälyn osaksi työarkeaan. Vastaavasti luottamusta nakertaa ajatus omien vaikutusmahdollisuuksien heikentymisestä sekä epäluottamus järjestelmän todellisia kykyjä kohtaan.
Työnantajien kannattaakin panostaa tekoälyn mahdollisimman avoimeen ja läpinäkyvään käyttöönottoon sekä henkilöstön kattavaan informointiin. Tekoälyn integrointi osaksi HR-toimintoja on aina myös muutosprosessi, joka edellyttää perinteistä muutosjohtamista ja uuden oppimista. Uusi teknologia voi alkuun kuormittaa niin käyttäjiä kuin niitä, joita sen päätökset koskevat riippuen yksilön roolista ja valmiuksista. Siksi johdon on tärkeää kuunnella henkilöstöä, tarjota tarvittavaa tukea ja ennen kaikkea viestiä muutoksesta. Myös jälkikäteiset erimielisyydet ja mahdolliset riitaprosessit ennaltaehkäistään parhaiten, kun panostetaan osaamiseen sekä tekoälylukutaitoon.
Käytettävyys on avainasemassa onnistuneessa tekoälyinvestoinnissa. On havaittu niin sanottu “shadow AI”-ilmiö: jos työnantajan tarjoamat työkalut koetaan hankaliksi tai tehottomiksi, työntekijät saattavat alkaa käyttää organisaation ulkoisia tekoälyratkaisuja organisaation omien työkalujen sijaan. Tämä voi johtaa siihen, että tekoälyinvestoinnin hyödyt valuvat hukkaan ja samalla syntyy konkreettisia tietosuoja- ja tietoturvariskejä, kun dataa käsitellään hallitsemattomissa kanavissa. Organisaation on siis panostettava riittävän tekoälylukutaidon ohella kunnolliseen käyttökoulutukseen, jotta jokainen osaa hyödyntää uusia järjestelmiä. Samalla on tärkeää luoda selkeät ohjeistukset siitä, miten ulkopuolisia AI-työkaluja (esim. yleisiä chatbotteja tai muita palveluja) saa työssä käyttää. Näin turvataan, etteivät henkilötiedot, liikesalaisuudet tai muut luottamukselliset tiedot vaarannu.
Koneälyaikakauden keskeinen fundamentti on, että tekoäly on juuri niin luotettava kuin se data, jota se käyttää. Big datan ohella kiikareiden on oltava organisaation omassa henkilöstödatassa: mikäli se on puutteellista tai virheellistä, tekoäly tekee väistämättä vääriä tai epätarkkoja johtopäätöksiä. Pahimmillaan työnantaja voi tulla syrjineeksi työntekijää tai työnhakijaa tahattomasti, mikäli dataan on historian saatossa pesiytynyt rakenteellista vinoumaa. EU:n tekoälyasetus asettaakin nimenomaisen velvoitteen huolehtia datan laadusta ja luotettavuudesta korkean riskin HR-järjestelmissä. Käytännössä tämä tarkoittaa, että HR-datan keräämiseen, päivittämiseen ja siivoamiseen on syytä kiinnittää jatkuvaa huomiota, jotta tekoälypohjaiset päätökset pohjautuvat vain mahdollisimman edustavaan, totuudenmukaiseen ja merkitykselliseen tietoon. Kyse ei kuitenkaan ole kokonaan uudesta periaatteesta, sillä työnantajilla on ollut jo yli kahdenkymmenen vuoden ajan velvollisuus käsitellä vain työsuhteen kannalta tarpeellisia työntekijätietoja työelämän tietosuojalain nojalla.
Lopuksi
Tekoälyn valtavaa potentiaalia tullaan varmasti hyödyntämään entistä laajemmin myös henkilöstöhallinnon tukena tulevina vuosina. Vaikka sen käyttö ei ole juridisesti tai eettisesti ongelmatonta, voi tekoäly parhaimmillaan tehdä työstä mielekkäämpää ja HR- sekä esihenkilötyöstä tasapuolisempaa, yksilöllisempää ja tehokkaampaa. Tekoälyn käyttö on kuitenkin toteutettava suunnitelmallisesti, jotta potentiaalista saadaan kaikki tehot irti ja samalla varmistetaan työntekijöiden oikeuksien toteutuminen. Lopulta kaiken tämän ytimessä ovat ihmiset: käyttäjät, jotka tekevät strategiasta todellisuutta jokapäiväisessä työssä. Organisaatiot, jotka panostavat aidosti henkilöstönsä tekniseen ja eettiseen osaamiseen sekä helppokäyttöisiin työkaluihin, ovat tekoälyaikakaudella vahvoilla.

Kaisa Salo
Counsel
040 168 1418
Mikäli haluat artikkelit suoraan sähköpostiisi, tilaa Folksin uutiskirje täältä.