Artikkeli

Uusi EU-asetus ehdotettu varmistamaan tekoälyn vastuullista käyttöä 

Tekoäly | Regulaatio

Tekoälyn käyttöä ehdotetaan säänneltäväksi uudella tekoälyasetukseksi kutsutulla EU-asetuksella. Asetusehdotus julkistettiin huhtikuussa 2021 ja tämänhetkisen arvion mukaan asetus astunee voimaan jo muutaman vuoden kuluttua. Mistä uudessa sääntelyssä on kyse ja miten se käytännössä vaikuttaa organisaatioihin, joilla on tekoälyä käytössä?

2.11.2021

Esitetyllä tekoälyasetuksella pyritään saamaan tekoälyn käytöstä hallitumpaa ja harkitumpaa. Se olisi toteutuessaan luonteeltaan toimijoita sellaisenaan velvoittavaa ja loisi  perusteet tekoälyn käytölle  tulevaisuudessa. Ehdotetun asetuksen tavoitteena on helpottaa ja edesauttaa uusia innovaatioita ja vähentää tekoälyn kehitykseen ja käyttöön liittyviä riskejä.  
 

Toteutuessaan sääntelyn olisi tarkoitus helpottaa yhteistyötä toimijoiden välillä ja yhtenäistää EU:n alueella toimivien organisaatioiden toimintatapoja tekoälyn hyödyntämisessä. Käytännössä se tarkoittaisi, että kaikkialla EU:ssa ihmisten perusoikeudet olisivat tekoälyä hyödynnettäessä yhtä lailla turvatut. Asetus vaatisi organisaatioita muun muassa dokumentoimaan tekoälyjärjestelmänsä huolellisesti, arvioimaan niihin liittyviä riskejä kokonaisvaltaisemmin, ja hallitsemaan kokonaisprosessi nykyistä paremmin. 
 

Vaikka kaavailtu sääntely on vasta ehdotusasteella ja herättänyt keskustelua sekä puolesta että vastaan tulisi jokaisen organisaation jo nyt alkaa huolehtia käytäntöjensä kestävyydestä.  Sääntelyn asettamien vaatimusten rikkojalle on määritelty mittavat uhkasakot ja asetus onkin monilta osin verrattavissa yleiseen tietosuoja-asetukseen. Epäeettinen datamassojen käsittely voi tuoda pahimmillaan 30 miljoonan euron sakot tai 6 % globaalista liikevaihdosta. 

 

Useat organisaatiot hyödyntävät tekoälyä tehostaakseen toimintojaan

Asetusluonnos kattaa myös monet organisaatioiden käytössä olevat tilastolliset mallit. Esityksen  piiriin kuuluvat käytännössä kaikki ohjelmistot tai järjestelmät, jotka pystyvät luomaan automatisoituja ennusteita, suosituksia tai päätöksiä, joilla on vaikutusta ympäristöön ja yksilöihin. Asetus koskisi siis laajasti koneoppimista, tietämyspohjaisia järjestelmiä ja tilastotietoihin pohjautuvia järjestelmiä. Rahoituslaitokset hyödyntävät tänä päivänä tekoälyä yksilöiden luottoluokittelussa: pankkitietojen ja muun saatavilla olevan datan perustella tehdään riskiarviointia – tulevaisuudessa järjestelmille, niiden käytölle, ja niiden käyttämälle datalle ja dokumentoinnille asetetaan vaatimuksia.  
 

Asetusluonnoksessa on hyvin riskiperusteinen lähestymistapa ja se keskittyy henkilöiden etujen suojaamiseen: jos järjestelmä ei käsittele henkilötietoja, niin tekoälyä voidaan hyödyntää vapaammin. Kaikenlainen manipulaatio ja sosiaalinen luokittelu olisi tiukasti kielletty. Lisäksi osassa tapauksia asetus velvoittaa jo järjestelmän käyttöönottovaiheessa ulkopuolisen, sitoutumattoman toimijan auditointia ja käytön säännöllistä valvontaa.  

Ehdotuksessa käytetään riskiperusteista lähestymistapaa neljän tyyppisen tekoälyjärjestelmän erottamiseen niiden mahdollisten vaarojen ja riskien perusteella:

Autamme mielellämme ymmärtämään lainsäädäntöehdotuksen vaikutukset teidän organisaatiollenne, suunnittelemaan nykytilan arvioinnin tai toteuttamaan tarvittavat toimenpiteet.

Oliko tieto hyödyllistä?