Miten voimme turvata vastuullisen tekoälyn säädösten ja optimoinnin tukemana
Tekoäly AI 18.03.2024

Miten voimme turvata vastuullisen tekoälyn säädösten ja optimoinnin tukemana

AI. AI. Tekoälyn aika on nyt. Kaikkien yritysten kannattaa ryhtyä sen hyödyntäjiksi, mutta samalla on tärkeä oivaltaa vastuullisuusnäkökulmat. Se tarkoittaa esimerkiksi sitä, että tekoälyn täytyy toimia reilusti ja tasapuolisesti, tai että tekoälyn ympäristövaikutukset on huomioitu. EU:n tekoälyasetus antaa hyvän ohjenuoran ja vahvistaa luottamusta. Ympäristövastuuta taas edistää tekoälyn optimointi. Miten tekoälyn vastuullisuutta tulisi lähestyä?

Generatiivisen tekoälyn aikakausi on edennyt hengästyttävää tahtia vain runsaassa vuodessa. Lukuisat yritykset ovat tarttuneet sen avaamiin mahdollisuuksiin innokkaasti.

Samalla on herännyt huoli, kuinka voidaan taata vastuullisuus. Kysymys on aiheellinen siksikin, että liki kaikissa yrityksissä vastuullisuusraportointi alkaa olla arkipäivää. Hetken huumassa vaarana on eräänlainen villin lännen meininki.

Millainen sitten on vastuullinen AI? Onko se edes mahdollinen?

”Vastuullisuuteen luonnollisesti kuuluu luotettavuus, turvallisuus, tietosuoja ja tietoturva, joiden pitää toteutua tekoälyn käytössä. Tekoälyn käyttämisestä kuuluu kertoa, samoin siitä, miten käyttö tapahtuu ja mihin tarkoituksiin. Yrityksen pitää myös varmistaa, että tekoälyn tuottama sisältö perustuu faktoihin, eikä kielimallin omaan arvailuun eli ns. hallusinointiin”, sanoo Advanian tekoälyasiantuntija Veli Kivilahti.

Yrityksellä on myös vastuu huolehtia, että tekoälyn käyttö tapahtuu oikeudenmukaisesti, eikä johda kenenkään syrjintään esimerkiksi sukupuolen tai muun ominaisuuden perusteella.

”Muutoin ollaan vaarallisilla vesillä, jos yritys saa esimerkiksi tukuittain työhakemuksia ja käyttää niiden suodattamisessa tekoälyä ajattelematta, millä periaatteilla suodatus tapahtuu. Tekoälyn päätelmät onkin syytä tarkistaa ennen lopullisia päätöksiä”, Kivilahti muistuttaa.

EU:n tekoälyasetus tarjoaa tukipilarin

Läpinäkyvyys tai sen puute on tiedostettu tekoälyn pulmaksi jo kauan. Edes laajojen kielimallien ja algoritmien parhaat luojat eivät välttämättä osaa selittää, millaisen päättelypolun kautta algoritmit tuottavat tuloksensa. Siksi on puhuttu mustan laatikon ongelmasta.

”Onneksi tämä hankala haaste ei estä vastuullisuuden toteuttamista. Olennaista on ratkaista järki kädessä, mitä dataa itse vie tekoälylle, mitä ei vie, mitä kehottaa tekoälyä tekemään ja miten käyttää syntyneitä tuloksia. Lisäksi yritysten pitää selittää sidosryhmille omat tekoälyn käyttötapansa ja periaatteensa”, sanoo Mikko Niemi, joka vetää Advanian tekoälykehitysyksikköä.

EU:n tekoälyasetus eli EU AI Act ohjaa käyttäjiä toimimaan vastuullisesti. Sitä voisi nimittää tekoälyn GDPR-direktiiviksi, koska se tuo samaan tapaan sääntelyä, kontrolleja ja sanktioita. Asetus toimii tukipilarina ja turvakehikkona, johon voi nojautua, eikä tarvitse luottaa vain omiin periaatteisiin. Sitä ei kuitenkaan ole tarkoitettu minimitasoksi.

”Asetus voidaan jaotella kahteen puoliskoon. Ensimmäiset vaatimukset kohdistuvat käyttötapauksien riskiluokitukseen. Esimerkiksi arkaluontoisia henkilötietoja käsitteleville tekoälyjärjestelmille velvoitetaan riskianalyysia ja rekisteröintiä EU:n tietokantaan”, Niemi selostaa.

Muut vaatimukset liittyvät useiden tekoälysovellusten pohjalla oleviin kielimalleihin, joille toivotaan kattavampaa riskianalyysiä sekä avoimuutta kielimallien koulutusmateriaalin suhteen. Asetus vaatii muun muassa, että mallien luojat kuvaavat ja luettelevat, mitä tekijänoikeuksien suojaamaa informaatiota ne ovat kulloinkin käyttäneet tekoälyn koulutuksessa.

Parhaillaan on menossa asetuksen kahden vuoden siirtymäaika, jonka jälkeen se astuu täysimääräisesti voimaan.

”Yksityiskohtia käydään nyt läpi jäsenmaiden työryhmissä ja onkin hyvä seurata tämän kehitystä. Jos asetusta rikkoo, uhkana oleva sakko voi nousta seitsemään prosenttiin yrityksen globaalista liikevaihdosta”, Mikko Niemi kertoo.

Optimoi ympäristövaikutukset, optimoi kulut

Kiistaton fakta on se, että tekoälyn prosessointi datakeskuksissa kuluttaa runsaasti energiaa. Jo vanhemmat laajat kielimallit kuluttavat arviolta kymmenen kertaa enemmän sähköä kuin vaikkapa Google-haku. Kehittyneemmät mallit kuluttavat vastaavasti enemmän. Siksi käyttöönottoa pohtiessa täytyy huomioida myös ympäristövastuullisuus.

Tehokkain ratkaisu on optimointi. Tekoälyratkaisut voidaan suunnitella niin, että käytetyt resurssit kohdistuvat aina oikeaan käyttötarpeeseen. Silloin energiaa ei kulu turhaan ja tekoälyn tuottama laatu on helpommin kehitettävissä. Lähtökohtaisesti kannattaa tietenkin valita sellaisia käyttöskenaarioita, joissa juuri tekoäly on kaikista vaihtoehtoista se otollisin jonkin liiketoiminnan haasteen ratkaisemiseksi.

”Optimoidessa ympäristövaikutuksia tulee samalla optimoineeksi kuluja, sillä datakeskuspalveluiden laskutus tekoälyn käytöstä perustuu syntyvään kuormitukseen. Myös tekoäly- ja sovelluskehityksen kumppanin valinnalla on merkitystä. Kumppanin ekologinen jalanjälki kannattaa ottaa puheeksi”, Veli Kivilahti vinkkaa.

Vastuullisen tekoälyn kuusi vinkkiä:

  1. Varmista, että yrityksesi tekoälyn käyttö on oikeudenmukaista.
  2. Laadi vastuullisen tekoälyn sisäinen ohjeistus.
  3. Huolehdi tietosuojan ja tietoturvan toteutumisesta.
  4. Tutustu EU:n tekoälyasetukseen ja varmista jo nyt vaatimustenmukaisuus.
  5. Optimoi tekoälyn käyttöä.
  6. Valitse avuksi vastuullisuuteen sitoutunut kumppani.

Advanialla palvelemme yrityksiä myös tekoälyn kanssa koko teknologiaketjun päästä päähän ja autamme yrityksiä vastuullisuudessa. Ratkaisumme kehitetään testatulle ja hyväksi todetulle teknologiapohjalle. Microsoft, OpenAI:n pääomistaja, on itse sitoutunut vastuullisen tekoälyn standardiin ja laajaan ympäristöohjelmaan.

Toimitaan yhdessä ihmiset edellä. Teknologia olkoon meille vain oiva renki myös tekoälyn saralla!

 

Aiheeseen liittyvää