Tekoälyn hyödyntämiselle on suuret odotukset, ja se tulee parantamaan elämänlaatuamme monin tavoin. Tekoälyn kehitys tarvitsee tukea meiltä ihmisiltä, jotta sen kehitys on hallittua ja mahdolliset riskit tunnistetaan. Tekoäly ei voita ihmisiä luovuudessa, vaan vaatii ihmisen apua. Se ei myöskään pysty moraaliseen päättelyyn ihmisten tavoin.

Sanoma on määritellyt tekoälyn käytölle eettiset periaatteet, joiden avulla varmistamme tekoälyn vastuullisen käytön sekä minimoimme tekoälyyn liittyviä riskejä. Periaatteita noudattamalla tavoitteenamme on valvoa tekoälyn turvallista, tarkoituksenmukaista ja vastuullista hyödyntämistä.

”Tekoäly on vaikeasti ennakoitavaa eikä sen kanssa toimiessa pystytä tietämään, miten tekoäly itse kehittyy. Siksi käytössämme ovat periaatteet, joilla toimintaa ohjataan. Tekoälyn käyttämisessä tulee huomioida perusoikeudet, sen soveltaminen ei saa esimerkiksi diskriminoida yksilöitä”, Sanoman datasta ja tietosuojasta vastaava johtaja Riikka Turunen sanoo.

Sanoman eettisiä tekoälyperiaatteita on kuusi. Ne ovat reilusti kohti positiivista vaikutusta, ihmisten vastuu, selitettävyys, läpinäkyvyys, riskien ja vaikutusten arviointi sekä valvonta.

Eettisten periaatteiden kehittämistyössä on ollut mukana laaja joukko sanomalaisia sekä media- että oppimisliiketoiminnasta. Lisäksi ulkopuolinen tekoälyasiantuntija tuki Sanoman työtä käymällä läpi periaatteet erityisesti EU:n tekoälyasetusta ennakoiden. Periaatteiden pohjalta Sanoman yrityksille on myös annettu ohjeistusta viime vuonna markkinoille tuotujen uusien generatiivisten tekoälysovellusten vaatimustenmukaiseen käyttöön.

Vuoden 2024 aikana integroidaan tekoälyn etiikan ja vaatimustenmukaisuuden arvioinnit osaksi Privacy and Security by Design -prosessia. Prosessin avulla varmistetaan jatkossa, että tekoälyn käyttö noudattaa Sanoman eettisiä periaatteita sekä tulevaa EU-tekoälyasetusta. Prosessin kautta mahdollistetaan jo nyt tietosuojan ja -turvan huomioiminen osana tuotekehitystä.

Tekoälyä käytetään Sanomalla monella tapaa. Keskeistä käytölle on se, että ihminen asettaa ehdot tekoälyn hyödyntämiselle, ja sen tekemille päätöksille.

”Tekoälyn hyödyntämiseen sovelletaan samankaltaisia eettisiä periaatteita, jotka ovat tuttuja mm. henkilötiedon käsittelyyn liittyen. Tietoturvan merkitys on suuri, ja algoritmien kehityksen elinkaarta on valvottava”, Turunen sanoo.

Sanoman palveluita käyttäville näkyvimpiä tekoälyn käyttötapauksia ovat Sanoman uutistoimitusten käyttämät tiivistelmät ja lukijoille tehtävät suositukset.

Joulukuussa 2023 Media Finlandiin perustettiin tekoälytiimi, joka keskittyy generatiivisen tekoälyn hyödyntämiseen Helsingin Sanomissa ja Ilta-Sanomissa.

Myös oppimisliiketoiminnassa liiketoimintojen kannustetaan pohtimaan, miten tekoälyllä voi tukea oppilaiden oppimista ja opettajia heidän opetustyössään. Tarkoitus on testata, kehittää ja ottaa käyttöön uusia työkaluja myös työn tehostamiseksi. Esimerkiksi digitaalisessa kehitystyössä tekoälyä käytetään koodin luonnin tehostamiseen.

”Analytiikkaa ja ennustemalleja on käytetty liiketoiminnassamme jo pitkään. Uutta tekemistä on se, että optimoimme tekoälyä, joka oppii ja alkaa luoda ihmisen kehittämän päälle uutta parempaa logiikkaa. Jos tekoäly on luonut vääräntyyppisiä reittejä tai lopputulemia, täytyy tulos korjata”, Turunen sanoo.

Tekoälyä arvioidaan aina sen käyttötarkoitusta vasten. Tekoälyä käyttävien tulee varmistaa, että hyödyt otetaan irti hallitusti. Usein se tarkoittaa hidastamista.

”Osa ihmisistä haluaisi nopeampaa kehitystä ja kokevat, että sääntely, kuten tuleva EU tekoälyasetus hidastaa työtä. Tekoäly on oikein käytettynä hyvä ja iloinen juttu yhteiskunnalle. Kehityksen pitää kuitenkin pysyä ihmisen hallinnassa, jotta voimme onnistuneesti hyödyntää mahdollisuudet ja estämme mahdolliset negatiiviset vaikutukset. Siksi tekoälyn kanssa toimimiseen kannattaa käyttää aikaa”, Turunen sanoo.

Sanoman tekoälyn eettiset periaatteet

  1. Reilusti kohti positiivista vaikutusta: Tavoitteenamme on, että tekoälyn käyttö tuotteissamme kuvastaa toimintamme perustana olevia arvoja, kuten sananvapautta ja positiivista vaikutusta oppimiseen. Tekoälyä tulee käyttää reilusti ja ottamalla huomioon ihmisoikeuksien, yksityisyyden ja syrjimättömyyden kaltaiset arvot.
  2. Ihmisten vastuu: Ihmiset ovat aina vastuussa käyttämiemme tekoälyratkaisujen tekemistä päätöksistä. Tiimimme seuraavat aktiivisesti algoritmien toimintaa niiden elinkaaren ajan: suunnittelussa, kehityksessä ja omien tekoälymalliemme ja algoritmien ylläpidossa.
  3. Selitettävyys: Käytämme tekoälyä, jonka päättelyä siitä vastuussa olevat ihmiset voivat ymmärtää, ja huolehdimme siitä, että pystymme selittämään käytettyjen tekoälyjärjestelmien toimintaa riittävästi.
  4. Läpinäkyvyys: Viestimme läpinäkyvästi tekoälyn käytöstämme ja sen vaikutuksista tuotteidemme loppukäyttäjiin.
  5. Riskien ja vaikutusten arviointi: Arvioimme teknologiamme suunniteltuja ja mahdollisia vaikutuksia yksilöihin ja yhteiskuntaan. Tekoälyarvioinnit sisältyvät tuotekehitysprosessiimme sisäänrakennetun tietosuojan ja tietoturvan prosessin avulla. Toteutamme asianmukaiset toimet tekoälyratkaisujemme tarkkuuden, kestävyyden ja turvallisuuden varmistamiseksi, jotta voimme hallita tunnistamiamme riskejä.
  6. Valvonta: Sitoudumme seuraamaan säännöllisesti, miten noudatamme näitä periaatteita tekoälyn käyttöä sisältävässä toiminnassamme. Koska tekoälyn kehitys on nopeaa, arvioimme ja päivitämme näitä periaatteita aika ajoin varmistaaksemme, että niissä otetaan huomioon kokemuksistamme saadut opit.