Koneoppimisen muodot ja niiden eettiset näkökulmat

  • Posted on: 22 October 2017
  • By: Juho Vaiste

Vaikka tekoälyä tarkastelisi ei-teknisistä näkökulmista, perustason ymmärrys teknisistä ratkaisuista on tarpeen. Koneoppimisen vastatessa suuresta osasta tämän hetken tekoälysovelluksia, tässä lyhyesti koneoppimisen eri muodot ja niihin liittyvien eettisten ongelmien erilaiset luonteet.

Koneoppiminen jaetaan kolmeen kategoriaan koneoppivalle ratkaisulle syötettävän datan mukaan:

- Ohjattu oppiminen (supervised learning)
- Ohjaamaton oppiminen (unsupervised learning)
- Vahvistusoppiminen (reinforcement learning)

Ohjattu oppiminen

Ohjatussa oppimisessa koneoppimisratkaisua opetetaan valmiiksi luokitellulla datalla. Opetusaineistona koostuu syötteistä ja halutuista tuloksista, joiden perusteella ratkaisun tulisi oppia luokittelemaan uusia tuntemattomia ja luokittelemattomia syötteitä. 

Eettinen näkökulma: Ohjatussa oppimissa vastuu kohdistuu lähes täysin opetusaineiston datan oikeellisuuteen. Opetusaineisto luokitellaan ihmisen toimesta, joten datankäsittelijän virheet tai kannat saattavat määritellä oppimisesta saatavaa tulos.
 

Ohjaamaton oppiminen

Ohjaamattomassa oppimisessa koneoppimisratkaisu oppii luokittelemattoman datan pohjalta. Dataa se jakaa luokkiin niiden samanlaisuuden tai tiettyjen mallien mukaan. Ohjaamatonta oppimisratkaisua käytetään usein tunnistamaan poikkeavaisuuksia suuressa datavirrassa ja näiden poikkeavaisuuksien pohjalta voi tehdä päätöksiä toimenpiteistä.

Eettinen näkökulma: Väärä malli voi nostaa esiin vääriä esiintymiä ja johtaa vääriin toimenpiteisiin - eettinen riski koostuu mallin valinnasta, käytettävän datan vääristymättömyydestä sekä tulkinnasta. Nämä kaikki ovat mukana myös ohjatussa oppimisessa, mutta ohjaamattoman ratkaisun tapauksessa kokonaisuus monimutkaistuu ja kaikki riskimahdollisuudet voivat ohjata oppimista väärään suuntaan.
 

Vahvistusoppiminen

Vahvistusoppimisessa oppimisagentti toimii tietyssä sille määritellyssä ympäristössä ja ympäristö antaa sinne positiivista tai negatiivista palautetta toiminnan perusteella. Agentti optimoi toimintaansa kohti mahdollisimman paljon positiivista palautetta tuottavaan suuntaan. Oppiminen rakentuu siis agentin saamiin palkintoihin tai rangaistuksiin.

Eettinen näkökulma: Vahvistusoppimisen alueella eettiset riskit muuttuvat radikaalisti. Siinä säilyy ohjattuun ja ohjaamattomaan oppimiseen liittyvät riskit datasta ja mallin rakentamisesta, mutta oppimisen monimutkaisuus vaikeuttaa prosessin, tulkinnan tai ratkaisujen ymmärtämistä - vahvistusoppimisen kohdalla ns. black boxeista tulee konkreettinen ongelma. Myös potentiaalisen oppimisen tason (esimerkiksi AlphaGo-ratkaisu perustuu vahvistusoppimiseen) herättää kysymyksiä - vahvistusoppiminen nostaa koneoppimisen aivan uudelle tasolle ja se saattaa olla yksi osa yhä vahvemman tekoälyn muodostumisessa. Eettiset riskit eivät siis uloitu yksiselitteisesti tarkasti määriteltyyn prosessiin ja sen luonteeseen, vaan vahvistusoppimisen tuottamien tulosten kautta päädytään laajempiin tekoälyn etiikkaa koskeviin kysymyksiin (esitelty tekstissä täällä).