Blogi

13.6.2022 14.09

Viisi keskeistä näkökulmaa tekoälyn tietoturvaan

  • AI
  • Datan hallinta ja laatu
  • ESG

Tekoäly avaa suuria mahdollisuuksia datan hyödyntämiseen. Mukana seuraavat kuitenkin myös riskit. Samalla kun ymmärrys tekoälyn toiminnasta on kasvanut, myös tietoisuus riskeistä on lisääntynyt. Kuitenkaan kaikki eivät vielä tunnista tekoälyyn liittyviä tietoturvauhkia.

Tekoälyn tietoturvariskien havaitseminen voi olla vaikeampaa kuin perinteisessä kyberturvassa. Ihmiset ovat suunnitelleet tähän asti laitteet ja sovellukset, joten toisten ihmisten on yleensä helppoa etsiä suunnittelusta aukkoja. Ihmiset suunnittelevat myös tekoälyn algoritmit, mutta niiden toiminta on itsenäisempää ja oppivaa (eli muuttuvaa).
Tekoälyn tietoturvan riskejä kannattaa tarkastella viidestä näkökulmasta. Nämä ovat datalla harhauttaminen, toimintatavan urkkiminen, datan urkkiminen, häirinnän sieto ja tietoturvallinen suunnittelu.

1. Tekoälyn harhauttaminen datalla

Tekoälyratkaisut oppivat datan avulla. Tekoälyä voidaankin ohjata harhaan virheellisellä datalla opetusvaiheessa tai sitten manipuloimalla sen hyödyntämää reaaliaikaista dataa. Jos tekoälyä opetetaan huonolla datalla ja saadaan se näin tekemään vääriä päätöksiä, se tekee myös tuotantokäytössä järjestelmällisesti ja johdonmukaisesti huonoja päätöksiä.

Tietoturvan kannalta on tärkeää ymmärtää, että jokin taho voi yrittää manipuloida tekoälyä tekemään virheellisiä päätöksiä tietyissä erityistilanteissa. Opetusdataa olisi tärkeää tarkastella hyökkääjän silmin. Millaisen virheen hyökkääjä haluaisi saada aikaan? Miten hyökkääjä voi manipuloida koulutusdataa saadakseen tekoälyn oppimaan juuri tämän tietyn virheen?

Toinen keino tekoälyn manipuloimiseen on reaaliaikaisen datasyötteen häirintä. Esimerkiksi anturien keräämän datan vääristäminen sotkee tällä datalla ohjattavaa päätöksentekoa. Esimerkiksi itseohjautuvat autot ovat olleet vaikeuksissa, kun liikennemerkkien numeroita tai symboleja on vaihdettu.

2. Tekoälyn toiminnan urkkiminen

Tekoälyn tarkka toiminta on yrityksissä yleensä liikesalaisuus, kun taas julkisten organisaatioiden mallit voivat olla avoimempia. Mahdollinen hyökkääjä voi yrittää urkkia mallin toimintaa kokeilemalla erilaisia syötteitä ja vertailemalla niiden tuloksia. Tämän vuoksi on syytä pohtia, millä tarkkuudella tekoälyn johtopäätöksiä jaetaan. Kannattaa myös seurata, käyttävätkö jotkut tahot mallia poikkeuksellisen paljon ilman selkeää ja perusteltua syytä.

3. Datan suojaus

Joissakin tilanteissa tekoälyä joudutaan kouluttamaan hyvin henkilökohtaisella tiedolla, kuten terveystiedolla, jolloin data täytyy suojata erityisen tarkasti. Hyökkääjän ei pitäisi missään tilanteessa eikä minkäänlaisilla kyselyillä saada urkittua tekoälyltä sen koulutuksessa käytettyä tietoa. Yksi keino ratkoa tätä ongelmaa, on hyödyntää synteettistä dataa.

4. Tekoälyn kyky sietää häiriöitä

Koulutusdata ei mitenkään veny kaikkeen. Taitavat hyökkääjät tuntevat koulutukseen käytettävän datan rajoitteet ja kokeilevat järjestelmän rajoja haastavilla syötteillä. Tietoturvan kannalta mallin pitäisi olla riittävän vahva sietämään tämäntyyppistä häirintää ja mallin toiminnalle pitää voida asettaa rajoja, joita se ei missään tilanteessa itsenäisesti voi ylittää.

5. Tietoturvan huomioiminen tekoälyn suunnittelussa alusta lähtien

Kuten minkä tahansa muun it-ratkaisun kohdalla tietoturvaosaajien pitäisi olla alusta lähtien mukana ratkaisun suunnittelussa ja laatimassa mahdollisimman varhain laajaa uhkamallia ja suunnitelmaa, kuinka näiltä uhilta suojaudutaan. Hyökkääjät etsivät järjestelmistä ja niihin kytketyistä laitteista mahdollisia aukkoja. Tekoälyratkaisut ovat usein yhteydessä tietovarastoihin, joten datan suojaus ja jatkuva valvonta on erittäin tärkeää. Tekoälyjärjestelmässä ei pitäisi olla ainuttakaan komponenttia, jonka toimintatapa ei ole tiedossa ja varmistettu. Jos tekoälyä ei seurata perusteellisen hallintamallin avulla, tämäntyyppisiä tietoturvaongelmia on vaikea havaita.

Nämä näkökulmat pätevät kaikkiin tekoälyratkaisuihin niiden käyttötavasta riippumatta. Tekoälyn uhkienhallintaa pitää kuitenkin aina tarkastella tekoälyn käytön kannalta. Mitä enemmän luottamuksellista tietoa se käsittelee tai mitä enemmän vaikutuksia tekoälyn toiminnalla on ihmisten henkeen, terveyteen tai talouteen, sitä enemmän resursseja tietoturvan huomioimiseen pitäisi käyttää.

Loihde on vastuullisten ja turvallisten tekoälypalveluiden kokonaistarjoaja. Kaikki kehittämämme tekoälyratkaisut perustuvat vastuullisuuden ja turvallisuuden takaavan tekoälyn hallinta- ja auditointimallin (AI Governance). Lue lisää vastuullisen ja turvallisen tekoälyn kehittämisestä täällä.

Tämä blogiteksti on kirjoitettu yhteistyössä Loihde Trustin kokonaisturvallisuusasiantuntijan Jarno Karvosen kanssa.

Tämä kirjoitus liittyy AIGA-hankkeeseen (Artificial Intelligence Governance and Auditing). AIGA-hankkeen tarkoituksena on lisätä suomalaisten yritysten kansainvälistä kilpailukykyä ja osaamista keinoälyn luotettavassa ja hallitussa skaalaamisessa ja organisaation laajuisessa hyödyntämisessä. AIGA-hankkeessa tutkitaan ja kehitetään tutkimus- ja yritysyhteistyössä tekoälyn hallintamalleja ja -mekanismeja sekä näiden kaupallistamista ja viemistä kansainvälisille markkinoille. Kaksivuotisen hankkeen päärahoittaja on Business Finland.


Ota yhteyttä

puhelimitse, sähköpostilla tai lomakkeella.

Nino Ilveskero, Myyntijohtaja | Kaupallinen johtaja

+358 40 511 8935

nino.ilveskero@loihde.com

Sami Masala, Executive Advisor

+358 50 337 5776

sami.masala@loihde.com

Lähetä viestiä niin palaamme asiaan mahdollisimman pian.

Pidätkö lukemastasi? Tilaa blogitekstimme meiliisi.