Blogi

Vapaa agentti on riski, ohjattu agentti on työkalu

Kirjoittanut Loihde | 03.03.2026


Viimeisen vuoden aikana keskustelut asiakkaiden kanssa ovat muuttuneet. Enää ei puhuta siitä, pitäisikö tekoälyä käyttää vaan siitä, miten sitä käytetään turvallisesti. Erityisesti yksi teema nousee esiin yhä useammin: agentit.

Agentti ei ole chatbot. Chatbot vastaa kysymyksiin. Agentti tekee asioita – hakee tietoa järjestelmistä, päivittää tietokantoja, lähettää viestejä, tekee varauksia. Tämä on merkittävä ero, ja se nostaa kysymyksen, jota harva vielä kysyy riittävän tarkasti.

Millä oikeuksilla agentti toimii? Ja miten se käsittelee saamaansa tietoa?

Tämä artikkeli jatkaa aiempaa teemaa siitä, miten varjo-AI eli hallitsematon tekoälyn käyttö syö arvoa ja lisää riskejä organisaatiossa. Viime blogissa “Varjo-AI syö arvoa, strateginen AI tuo tulokset” kuvattiin, miten hallitsematon AI-käyttö syntyy ja miksi se johtaa tiedon hajautumiseen ja liiketoimintahyötyjen jäämiseen pieniksi. Tässä jatkossa keskitymme erityisesti agenttien hallintaan. Vastaamme kysymykseen, miten AI-agentit eroavat perinteisistä AI-työkaluista ja mitä niiden käyttö tarkoittaa turvallisuuden ja vastuun näkökulmasta.

Agentti tarvitsee pääsyn – mutta mihin?

Jotta agentti voi toimia, se tarvitsee pääsyn organisaation järjestelmiin ja dataan, kuten asiakkuudenhallintaan, dokumentinhallintaan, sähköpostiin ja tietokantoihin. Ilman pääsyä agentti on hyödytön. Mutta pääsy ilman rajausta on riski.

Gartner raportoi, että 74 % organisaatioista pitää agentteja uutena hyökkäysvektorina.¹ Cisco puolestaan toteaa, että vain 29 % organisaatioista on valmiita turvaamaan agenttikäyttöönotot.² Kuilu on merkittävä.

“Vapaa agentti” tarkoittaa käytännössä sitä, että agentilla on laajat oikeudet ilman selkeää rajausta. Se pääsee dataan, johon sen ei tarvitsisi päästä. Kukaan ei tiedä tarkalleen mitä se teki ja miksi. Kun jotain menee pieleen (ja jossain vaiheessa menee), syyn selvittäminen on vaikeaa.

Ratkaisu ei ole estää agenttien käyttöä. Ratkaisu on rajata niiden toimivaltaa.

Ensimmäinen hallintapiste: Rajatut käyttöoikeudet

Ohjattu agentti toimii toisin. Sille myönnetään vain tehtävään tarvittavat oikeudet. Ei pääsyä kaikkeen, vaan siihen mitä tehtävä vaatii. Oikeudet ovat tehtäväkohtaisia ja aikarajoitettuja. Jokainen toiminto lokitetaan: mitä tehtiin, milloin, mihin dataan.

Periaate on yksinkertainen: agentti ei ole käyttäjä. Se on työkalu jolle annetaan rajattu toimivalta.

Tämä ei ole uusi ajatus. Sama “vähimmät oikeudet, least privilege” -periaate  on ollut tietoturvan perusta vuosikymmeniä. Nyt se pitää ulottaa agentteihin.

Toinen hallintapiste: Tiedon käsittelyn hallinta

Pääsynhallinta ei yksin riitä. Agentti voi hakea dataa oikein rajatuin oikeuksin ja silti lähettää sen riskialttiille kielimallille.

LayerX raportoi, että 77 % työntekijöistä on liittänyt yrityksen dataa ChatGPT:hen. 82 % näistä käytti henkilökohtaista tiliä, ei yrityksen hallinnoimaa.³ Samsung kielsi ChatGPT:n käytön kokonaan, kun selvisi, että työntekijät olivat kopioineet lähdekoodia ulkoiseen palveluun.⁴

Gartner ennustaa, että vuoteen 2027 mennessä yli 40 % tekoälyn yksityisyysloukkauksista johtuu tahattomasta datan altistumisesta generatiivisten työkalujen kautta.⁵

Käytännössä ongelma on tämä: kun data lähetetään ulkoiselle API:lle, se poistuu organisaation hallinnasta. Missä data käsitellään? Kuka siihen pääsee käsiksi? Käytetäänkö sitä mallien koulutukseen? Kuinka kauan se säilyy? Näihin kysymyksiin pitää olla vastaukset ennen kuin agentti otetaan käyttöön.

Regulaatio ei odota

EU AI Act astui voimaan vaiheittain. Helmikuussa 2025 kielletyt käytännöt tulivat voimaan. Elokuussa 2025 GPAI-mallien velvoitteet. Elokuussa 2026 korkean riskin järjestelmien täysi vaatimustenmukaisuus. Sakot ovat merkittäviä: jopa 35 miljoonaa euroa tai 7 % globaalista liikevaihdosta.⁶

Suomi oli ensimmäinen EU-maa joka sai täydet AI Act -valvontavaltuudet, joulukuussa 2025.⁷

GDPR ei myöskään ole kadonnut mihinkään – päinvastoin. EDPB on vahvistanut, että GDPR koskee myös kielimallien koulutusta. Jos malli koulutetaan EU-kansalaisten henkilötiedoilla, GDPR soveltuu riippumatta siitä missä malli sijaitsee.⁸ Uber sai 290 miljoonan euron sakot laittomasta datan siirrosta. Clearview AI sai 30,5 miljoonan sakot.⁹

Agenttien kohdalla tämä tarkoittaa, että organisaatio vastaa siitä mitä agentti tekee ja miten se käsittelee dataa. Vastuuta ei voi ulkoistaa.

Agenttiratkaisu ei ole pelkkä tekninen hanke vaan se on käyttöoikeus- ja vastuumallin uudelleenmäärittely.

Mitä kysyä ennen agenttikäyttöönottoa


Ennen kuin agentti otetaan tuotantoon, näihin kysymyksiin pitää olla vastaukset:

Mitä oikeuksia agentti tarvitsee ja mitä se ei tarvitse?
Missä data käsitellään? EU:ssa vai muualla?
Kuka vastaa kielimallista? Käytetäänkö dataa koulutukseen?
Mitä agentti tallentaa ja kuinka kauan?
Miten tulosteita hallitaan? Onko agentin tuottama sisältö samassa hallinnassa kuin lähdedata?
Kuka vastaa kun jotain menee pieleen?

Työkalu, ei autonominen toimija

Agenttien hyödyt ovat todellisia: nopeus, tehokkuus, skaalautuvuus. Mutta hyödyt realisoituvat vain jos hallinta on kunnossa.

Pelkkä pääsynhallinta ei riitä. Pelkkä EU-pohjainen kielimalli ei riitä. Tarvitaan molemmat: rajattu pääsy ja hallittu käsittely. Koko ketju.

Vapaa agentti on riski. Ohjattu agentti on työkalu. Ja työkalu on juuri niin hyvä kuin sen hallinta.


Lähteet
Gartner (2025), viitattu: XcubeLabs, “10 Real-World Examples of AI Agents in 2025”, marraskuu 2025.
Cisco State of AI Security 2026, viitattu: Help Net Security, “Enterprises are racing to secure agentic AI deployments”, helmikuu 2026.
LayerX Security, Enterprise AI and SaaS Data Security Report 2025, viitattu: The Register, “Employees regularly paste company secrets into ChatGPT”, lokakuu 2025.
Samsung ChatGPT-kielto 2023, viitattu: Medium, “ChatGPT Privacy Leak 2025: Deep Dive, Real-World Impact, and Industry Lessons”, elokuu 2025.
Gartner (2027 ennuste), viitattu: TrustArc, “Cross-Border Data Transfers in 2025: Regulatory Changes, AI Risks, and Operationalization”, heinäkuu 2025.
European Commission, “AI Act | Shaping Europe’s digital future”, digital-strategy.ec.europa.eu.
Axis Intelligence, “EU AI Act News 2026: Compliance Requirements & Deadlines”, joulukuu 2025.
EDPB (European Data Protection Board), viitattu: TrustArc, “Cross-Border Data Transfers in 2025”.
Uber €290M ja Clearview AI €30,5M sakot, viitattu: TrustArc, “Cross-Border Data Transfers in 2025”.