Kenellekään ei pitäisi olla yllätys, ettei kaikki somessa lukemamme tieto pidä paikkaansa. Meihin tavallisiin kansalaisiinkin yritetään vaikuttaa sosiaalisessa mediassa, jonka kanavissa jaetaan tarkoituksella myös valheellista tietoa.
Somessa on paljon tietoa – tutkimukseen perustuvaa faktaa, mutu-tuntemuksia sekä erilaisia uskomuksia. Suuri osa ihmisistä jakaa näitä tietoja oikein perustein, mutta myös väärän tiedon tietoinen jakaminen on nostanut päätään niin, että se koetaan uhkaksi jopa valtiotasolla.
Väärää tietoa jaetaan, jotta ihmiset tuntisivat itsensä turvattomiksi. Näin saadaan horjutettua luottamusta yhteiskuntaan ja viranomaisiin. Lisäksi valheellisten tietojen tarkoituksena on sekoittaa ajatuksiamme todellisuudesta.
Itä-Suomen yliopistossa on parhaillaan menossa suomalais-ruotsalainen yhteistutkimus, jossa yhdistetään kielentutkimusta soveltavaan koneoppimiseen. Tutkimuksessa on luotu menetelmä, jonka tavoitteena on tunnistaa twiittivirroista virheellistä tietoa syöttävät bottitilit automaattisesti hyödyntämällä ohjattua koneoppimista.
– Yksi tärkeä aineisto, jota kielentutkimuksessa hyödynnämme, on reaaliaikainen sosiaalisen media data. Sitä voidaan hyödyntää vaikkapa murretutkimuksessa, kielipoliittisessa päätöksenteossa tai maailmanenglantien tutkimuksessa. Osa tästä datasta on niin kutsuttuja botteja eli automaattisesti generoituja viestejä, valottaa englannin kielen professori Mikko Laitinen.
Tutkimuksen tavoitteesta riippuen bottitilit voidaan näin ollen jättää tutkimuksen ulkopuolelle – tai sitten tutkimuksessa voidaan keskittyä juuri niihin.
– Tutkija voi siis erikseen tarkastella bottien tuottamaa kieltä ja oppia tunnistamaan sitä yhä paremmin. Näkisin, että tätä kautta opitaan ymmärtämään väärän tiedon levittäjiä ja tätä tietoa voidaan hyödyntää tulevaisuudessa.
Väärään tietoon liittyy aina ihmiskieli.
Mikko Laitinen, englannin kielen professori
Kielentutkijalle väärän tiedon tunnistaminen on Laitisen mukaan monimutkainen prosessi. Keskeistä tutkimuksessa on monitieteinen yhteistyö tietojenkäsittelytieteen asiantuntijoiden kanssa.
– Koska väärään tietoon liittyy kuitenkin aina ihmiskieli, on tiedon tunnistaminen aina osin humanistinen tutkimuskysymys. Pelkkä kone ei siihen pysty. Toki kone voi nopeuttaa toimintaa huomattavasti, kun pystytään hallitsemaan isoa aineistovirtaa ja näin tunnistamaan ”väärä” tieto hyvinkin nopeasti.
Laitisen mukaan pilottivaiheessa oleva hanke tarjoaa hyvän mahdollisuuden monitieteiseen tutkimukseen väärän tiedon tunnistamisessa.
– Olemme kokeilleet ohjattua koneoppimista, mutta myös ohjaamaton koneoppiminen voisi tarjota paljon mahdollisuuksia. Tavoitteenamme on, että tutkimustulokset voisivat johtaa muualla yhteiskunnassa hyödynnettäviin soveltaviin innovaatioihin.
Julkaistu Saima-lehdessä 1/2019