Miten säännellä tekoälyä?

  • Posted on: 6 September 2017
  • By: Juho Vaiste

Elon Muskin vaatimus tekoälyn sääntelemisestä sai jo yhden vastauksen, tai vastausehdotuksen kysymykseen, miten tekoälyä sitten pitäisi säännellä.

Allen Instituten Oren Etzioni ehdottaa kirjoituksessaan NY Timesissa sääntelyn rakentamista kolmen säännön varaan. Säännöt ovat saaneet inspiraationsa vanhentuneista ja puutteellisista Asimovin kolmesta laista.

1. Tekoälyn ympärillä pitäisi olla laaja kirjo lainsäädäntöä, joka kohdistuisi tekoälyn operaattoriin. Niin yksityisellä kuin julkisella sektorilla. Rikosten kuittaaminen sillä, että tekoäly teki sen, ei saisi olla mahdollista.

2. Tekoälysovellusten pitää viestiä selvästi, ettei se ole ihminen. Ihmisillä tulisi olla tieto, jos kyseessä on robotti, botti tai algoritmi.

3. Tekoälyn ei pitäisi säilyttää tai paljastaa luottamuksellista tietoa ilman selvää suostumusta tiedon lähteeltä. Tekoälysovelluksilla on kyky saada, tallentaa ja analysoida tietoja esimerkiksi kodeissamme olevien laitteiden avulla ja tämän tiedon käytöstä ja säilyttämisestä tulisi saada vahva suostumus. 

--

Kuten Etzioni mainitsee, nämä säännöt ovat tarkoitettu keskustelunavaajiksi. Kuten myös Elon Muskin lausunto - hän harvoin mainitsee mitään yksityiskohtaista tekoälystä, mutta on hyvä, että tekoälyn sääntelyä, riskejä ja etiikkaa pidetään esillä. 

Asimovin lait tulevat todennäköisesti kauan säilymään keskustelun pohjana. Ne ovat auttamattomasti vanhentuneet ja puutteelliset (hyvä esitys aiheesta), mutta tarjoavat tyyliltään ja rakenteeltaan ymmärrettävän pohjan.

Käytännössä tekoälyn sääntely ja sen kontrollointi tulevat perustumaan paljon monisyisimmille esityksille ja toteutuksille kuin muutaman lain listalle, mutta keskustelun konkretisoimiseksi nämä ovat tärkeitä.

--

Muita vastauksia:

- How to Regulate Dangerous Artificial Intelligence: Nykyisestä sääntelystä näppärä tiivistelmä

- Artificial Intelligence Regulation - Let's not regulate mathematics: Yhdysvaltojen hallinnon raporttia kommentoiva; oikeudenmukaisuudesta ja läpinäkyvyydestä. Myös painottaen, ettei tekoälyä tulisi säädellä teknologian tasolla