Tausta-aineisto kokoaa yhteen tekoälysuositusten tietopohjan sekä tukee koulutuksen järjestäjiä ja henkilöstöä tekoälyyn liittyvässä osaamisen kehittämisessä ja tekoälyn hyödyntämisessä paikallisesti.
Tausta-aineisto käsittelee eri teemoja, ja sitä tulisi hyödyntää teemakohtaisesta tarkastelusta huolimatta kokonaisuutena.

Tekoäly käsittelee, prosessoi ja tuottaa tietoa, mutta sillä ei ole ihmisen kaltaista ymmärrystä tai tietoisuutta. Tekoäly ei pysty ihmisen tavoin luomaan merkityksiä ja tulkitsemaan tietoa, vaikka erityisesti generatiivinen tekoäly jäljitteleekin tuotoksissaan ihmisen kaltaista toimintaa. Tekoälyn taustalla toimivat tekoälymallit pohjautuvat koneoppimiseen, algoritmeihin ja taustalla olevaan dataan. Tekoälyllä ei ole ihmisen kykyä eettiseen tai moraaliseen pohdintaan - eikä omatuntoa ja kykyä tunteisiin ja empatiaan. Edellä mainituista syistä erityinen vastuu tekoälyn tuottaman tiedon hyödyntämisestä ja tulkinnasta on aina sen käyttäjällä, ihmisellä. 

Tekoälyn lainmukainen, turvallinen, luotettava ja oikeudenmukainen hyödyntäminen kasvatuksessa ja koulutuksessa edellyttää, että sen käyttäjät ymmärtävät, mitä tekoäly on, minkälaisia virhepäätelmiä tekoäly voi tehdä ja millaisia vinoumia (bias) tekoälyn tuotoksissa voi esiintyä sekä tekoälyn liitynnän syrjimättömyyteen, yhdenvertaisuuteen ja tasa-arvoon. 

Kyky tunnistaa tekoälyn ja sen käytön virhepäätelmiä ja vinoumia sekä ehkäistä syrjintää on keskeinen osa kasvatuksen ja koulutuksen organisaatioiden tekoälyvalmiuksia. Tekoälyn luotettavuutta, virhepäätelmiä tai vinoumia on kuitenkin mahdotonta arvioida luotettavasti ainoastaan tekoälyn tuotosten pohjalta. Tekoälyn tekemien virhepäätelmien ja datan vinoumien luotettava identifiointi edellyttää, että tekoälyn toiminta on tehty läpinäkyväksi ja ymmärrettäväksi.  

Yleisesti toimivia menetelmiä tai standardeja tekoälyn vinoumien ja virhepäätelmien automaattiseen tunnistamiseen ei vielä ole, koska tekoälyn käyttö on hyvin kontekstuaalista ja sidonnaista substanssiin. Datan vinoumien havaitsemiseen on kehitetty menetelmiä ja sovelluksia, samoin tekoälyn opetusdatan ja mallien validointiin. Näiden menetelmien ja sovellusten käyttö edellyttää kuitenkin vaativaa erityisosaamista. Erityisesti tekoälypohjaista oppimisanalytiikkaa käytettäessä koulutuksen järjestäjien olisi hyvä edellyttää järjestelmien toimittajilta luotettavaa analyysia tekoälyn algoritmisista ja datapohjaisista vinoumista, jotta mahdolliset vinoumat olisi tunnistettu ja niiden pohjalta pystytään tulkitsemaan tekoälyn tuotoksia ja tuloksia oikein sekä estämään syrjintää. 

Virhepäätelmä: Virhepäätelmistä puhutaan, kun a) tekoälyn algoritmit tuottavat virheellisiä tuloksia ja tuotoksia (’päättelevät väärin’), mikä johtuu useimmiten tekoälymallista ja algoritmeista tai b) kun käyttäjä virheellisesti käyttää tekoälyä tai tulkitsee tekoälyn tuottamia tuloksia ja tuotoksia väärin. 

Vinouma: Vinoumista puhutaan, kun tekoäly systemaattisesti tuottaa vääristyneitä tuloksia ja tuotoksia. Tämä voi johtua käytetystä datasta tai algoritmien toiminnasta tai tietoisesta valinnasta. Esimerkiksi tekoälyn käyttämä opetusdata voi olla koottu toisesta kontekstista tai populaatiosta ja sitä sovelletaan nykyiseen tilanteeseen ja populaatioon. Toisaalta vinoumat voivat johtua yhtä hyvin myös käyttäjän tulkinnoista. Vinoumat voivat aiheuttaa syrjintää ja syventää rakenteellista epäyhdenvertaisuutta ja epätasa-arvoa. 

Virhepäätelmien ja vinoumien tunnistaminen edellyttää käyttäjiltä hyviä tekoälytaitoja, joihin sisältyvät varsinaisen algoritmisen ajattelun ohella myös ns. monilukutaito ja kriittisen ajattelun taidot. Nämä taidot ovat tärkeä pohja tekoälyn hyödyntämisessä niin tiedon tuottamisessa, päättelyn tukena ja analyyseissä kuin muidenkin tekoälypohjaisten tuotosten tekemisessä.  

Tekoälytaidot ovat meille monesti uusia ja niiden oppiminen on parhaimmillaan opettajien ja oppijoiden yhteinen matka. Tekoälytaitojen oppimisen lisäksi tämä osio tukee myös kasvatuksen ja koulutuksen organisaatioita sekä tekoälyn käyttäjiä arvioimaan tekoälyn luotettavuutta ja oikeellisuutta ja erityisesti arvioimaan tekoälyn ja sen käytön oikeudenmukaisuutta ja etiikkaa. 


Päivitetty