Analyysi
Generatiivinen tekoäly voi mullistaa rahoitussektoria
Generatiivisen tekoälyn on povattu tuovan suuria hyötyjä yhteiskuntaan, työelämään ja tuottavuuteen. Tekoälyä voidaan hyödyntää muun muassa operatiivisten tehokkuushyötyjen saavuttamiseen, riskienhallinnan kyvykkyyksien parantamiseen ja tuotevalikoiman monipuolistamiseen.

Tekoälyä käytetään jo tänä päivänä laajasti rahoitussektorilla. Valtaosa näistä ratkaisuista on koneoppimismalleja generatiivista tekoälyä edeltävältä ajalta. Sen sijaan generatiiviseen tekoälyyn povattuja suuria tehokkuushyötyjä ei ainakaan vielä toistaiseksi olla nähty. Pankkisektorin on arvioitu olevan yksi generatiivisesta tekoälystä eniten hyötyvistä sektoreista. Tekoälyn yleistyminen voi myös muuttaa riskien kokonaiskuvaa rahoitussektorilla. Sääntelyä onkin pyritty kehittämään niin, että tekoälyä hyödyntävät järjestelmät säilyvät turvallisina. Generatiivisen tekoälyn yleistymiseen, vaikutuksiin ja riskeihin liittyy vielä suuria epävarmuuksia.
Pankkisektori saattaa olla yksi suurimmista generatiivisen tekoälyn hyötyjistä
OpenAI:n ChatGPT:n lanseerauksesta käynnistynyt tekoälyhuuma on näkynyt rahoitusmarkkinoilla tähän mennessä erityisesti niin sanottujen ”Magnificent 7”-yhtiöiden osakekursseissa (Kuvio 1). Sen sijaan generatiiviseen tekoälyyn povattuja suuria tehokkuushyötyjä ei ainakaan vielä toistaiseksi olla nähty, mikä on saanut aikaan pohdintaa generatiivisen tekoälyn kehittämiseen tehdyistä investoinneista seuraavista tuottavuusvaikutuksista.The Economist “Artificial intelligence is losing hype” (19.8.2024) Elokuussa nähtiinkin korjausliike ”Magnificent7”-yhtiöiden osakekursseissa, mikä kuvasti epävarmuutta tekoälyyn ladatuista suurista tuotto-odotuksista. Tekoälyn kehityskaaren osalta on tärkeää tunnistaa kategorinen ero yrityksen omalla datalla rajattuun käyttötarkoitukseen kehitettyjen koneoppimismallien ja suurilla datamassoilla esiopetettujen laajoihin kielimalleihin pohjautuvien generatiivisten tekoälymallien väliltä. Tekoälyhuuman alle on myös hautautunut se, että tekoälyratkaisuja on kehitetty rahoitussektorilla aktiivisesti jo yli vuosikymmenen verran.
Tekoälyä käytetään jo yleisesti rahoitussektorilla. Jo tänä päivänä tekoälyratkaisuja käytetään talousrikollisuuden torjuntaan, kuten maksukorttipetoksien tunnistamiseen, rahanpesun ja terrorismin rahoittamisen estämiseen, sekä pakotemonitorointiin (OECD 2023). Suurin osa rahoitussektorilla nykyisin käytössä olevista tekoälyratkaisuista perustuu tosin generatiivisen tekoälyn aikakautta edeltäviin yksinkertaisempiin koneoppimismalleihin (kuten päätöspuu tai regressioanalyysi), jotka on koulutettu yrityksen omalla datalla ja suunniteltu vain rajattuun käyttötarkoitukseen (ks. esim. Euroopan pankkiviranomaisen riskiarviokysely (RAQ), joulukuu 2023European Banking Authority (EBA) Risk Assessment Questionnaire (RAQ), (December 2023)).
Yleisesti ottaen tekoälyä hyödynnetään operatiivisten tehokkuushyötyjen saavuttamiseen, riskienhallinnan kyvykkyyksien parantamiseen ja tuotevalikoiman monipuolistamiseen. Tekoälyn pitkää kehityskaarta kuvastaa, että ensimmäiset asiakaskohtaamisiin suunnitellut robottisijoitusneuvojat (robo advisor) tulivat markkinoille jo vuonna 2008CNBC “Personal Finance Robo-advisors are growing in popularity. Can they really replace a human financial advisor?” (16.2.2022). Tekoälyä käytetään markkinaseurantaan, riskianalyyseihin, hinnoitteluun ja toimeksiantojen toteuttamiseen muun muassa algoritmisessa arvopaperikaupankäynnissä, varainhoidossaFT “AI is promoted from back-office duties to investment decisions” (2.6.2024), vakuutusten hinnoittelussa (underwriting) ja luottokelpoisuusarvioinneissa. (EKP 2024, BCBS 2024, OECD 2023) Automatisoidun luottopäätöksen käytön yleisyyttä on tutkittu jo aiemmin Suomen Pankissa. Suomalaisille pankeille tehdyn kyselyn mukaan valtaosassa (n. 80 %) myönnetyistä vakuudettomista kulutusluotoista hyödynnettiin automatisoitua luottopäätöstä vuonna 2020. Kyselyn perusteella oli myös nähtävissä ensimmäisiä merkkejä automatisoidun luottopäätöksen hyödyntämisestä uusien asuntolainojen myynnissä.Räsänen “Digitaaliset kanavat suuressa roolissa lainojen myynnissä kotitalouksille”, Blogi, Euro & Talous (22.3.2022)
Pankkisektorin on arvioitu olevan yksi generatiivisesta tekoälystä eniten hyötyvistä sektoreista (ks. esim. McKinsey 2023). Generatiivista tekoälyä voidaan käyttää esimerkiksi asiakkaiden luokitteluun, personoitujen palveluiden tarjoamiseen, markkina-analyyseihin, pääomien allokaatioon, riskimallien validointiin, luottokelpoisuusarvioiden tekemiseen, raportoinnin automaatioon, koodinkirjoittamiseen ja kyberturvallisuuden parantamiseen (kuten automatisoituun reaaliaikaisesti tapahtuvaan uhkien tunnistamiseen)Marchal ja Nawrotek ”Tekoälypohjaiset kyberturvallisuusratkaisut,” Traficomin julkaisuja ja selvityksiä (07/2024). Generatiivinen tekoäly näkyy jo pankkien asiakkaille muun muassa asiakaspalvelurobottien (chatbot) lanseerauksena. Yleisesti ottaen generatiivisia tekoälyratkaisuja voidaan pitää seuraavana askeleena manuaalisen työn, kuten rutiininomaisten työtehtävien ja tekstidokumenttien käsittelyn, automatisointiin. Valtaosa generatiivisista tekoälyratkaisuista on tosin vasta kehitys- tai kokeiluvaiheessa. Generatiivisen tekoälyn yleistymiseen, vaikutuksiin ja riskeihin liittyykin suuria epävarmuuksia. (EKP 2024, BCBS 2024)
Generatiivisen tekoälyn yleistyminen voi lisätä epävakauttaviin kehityskulkuihin liittyviä riskejä rahoitussektorilla
Generatiivisen tekoälyn yleistyminen on jo lisännyt kybermaailmaan, informaatiovaikuttamiseen ja huijauksiin liittyviä riskejä. Rikolliset voivat pyrkiä saastuttamaan tekoälymallien kouluttamiseen käytettyä dataa tai prosesseja saadakseen mallin tuottamaan itselleen edullisia lopputuloksia. Huijauksista ja disinformaation levittämisestä on tullut yhä helpompia toteuttaa edistyksellisten syväväärennösten (deepfake) avulla. Tämän ohella generatiivinen tekoäly mahdollistaa sofistikoituneempien kyberhyökkäysten toteuttamisen. (U.S. Department of Treasury 2024)
Data on tekoälymallien kehityksen keskiössä. Onkin tärkeää, että tekoälymallien kouluttamiseen käytetty historiallinen data soveltuu sisällöltään ja laadultaan tekoälyjärjestelmän käyttötarkoitukseen. Tekoäly ei kykene esimerkiksi tulevien pankkikriisien ennustamiseen, sillä mallien kouluttamiseen käytetyssä datassa pankkikriisejä esiintyy vain hyvin harvoin. Tämän ohella pankkikriisien syntymiseen liittyy monia tuntemattomia tekijöitä (ns. ”unknown unknowns”), jonka myötä mallia ei ole mahdollista opettaa tunnistamaan tällaisia tekijöitä. (Danielsson & Uthemann 2024) Datan ohella generatiivisten tekoälymallien toimintalogiikka ja kyvykkyydet luovat rajoitteita vastuulliselle käytölle. Erityisesti generatiivisen tekoälyn tuottamissa tuloksissa esiintyvät helpot virheet (nk. hallusinaatiot), vinoumat, selitettävyyden puutteet, sekä mallien kompleksisuus rajoittavat mallien vastuullista käyttöä. (OECD 2023)
Riittävien turvamekanismien rakentaminen ja sääntelyn kehittäminen tulevat korostumaan, kun generatiivinen tekoäly yleistyy rahoituspalveluiden tarjoamisessa. Generatiivisten tekoälymallien kouluttamiseen tarvitaan massiivinen määrä opetusdataa, joka on kerätty useista lähteistä ja toisistaan eroavista asiayhteyksistä. Tämän seurauksena datan laatuun ja luotettavuuteen liittyvät riskit korostuvat generatiivisissa tekoälymalleissa verrattuna yrityksen omalla datalla kehitettyihin tekoälymalleihin. Tekoälyjärjestelmiin annetut syötteet latautuvat tyypillisesti palvelun tarjoavan yhtiön tietojärjestelmiin nostaen esille liikesalaisuuksien ja muun sensitiivisen datan tietosuojaan ja tietoturvaan liittyviä huolia. Tämän ohella on tärkeää kiinnittää huomiota siihen, kuka on vastuussa prosessista, joka on siirretty kokonaan tai merkittäviltä osin ihmiseltä tekoälylle. Tekoälyjärjestelmät saattavat myös periä ja vahvistaa epäeettisiä toimintatapoja, mikäli turvamekanismit ovat puutteelliset.
Pidemmällä aikavälillä generatiivisten tekoälyjärjestelmien on arvioitu voivan johtaa laumakäyttäytymisen kasvuun ja lisätä markkinavolatiliteettia rahoitusmarkkinoilla (EKP 2024, OECD 2023, Gensler & Bailey 2020) Keskenään kauppaa käyvien tekoälyalgoritmien kaltaisten ratkaisujen yleistyminen rahoitusmarkkinoilla voi johtaa yllättäviin kehityskulkuihin, kuten flash crasheihin tai pankkipakoihin. Vaikka tekoälymallit saattaisivat tavanomaisissa markkinaolosuhteissa kyetä toimimaan ihmistä tehokkaammin, voi yllätyksiä seurata ainakin tekoälyalgoritmien markkinavastapuolista tekemien virhetulkintojen ja algoritmeihin sisäänrakennettujen riskienhallintatoimien puutteellisuudesta. (Shabsigh & Boukherouaa 2023, Brynjolfsson & Brynjolfsson 2024) Tämän ohella generatiivisten tekoälymallien yleistyminen voi lisätä keskittymisriskejä (uudenlaiset ”too big to fail”-ulkoisvaikutukset) ja riippuvuuksia kolmannen osapuolen palveluntarjoajista rahoituspalveluiden tarjoamisessa (EKP 2024). On tärkeää lisätä ymmärrystä ja varautua ennalta generatiivisen tekoälyn rahoitusjärjestelmän toimintalogiikkaa muuttaviin ja pahimmillaan epävakauttaviin vaikutuksiin.
Tekoäly voi luoda uusia sääntelytarpeita rahoitussektorille
Euroopan parlamentin ja neuvoston asetus tekoälyä koskevista yhdenmukaistetuista säännöistä (ns. Tekoälysäädös; AI Act) hyväksyttiin Euroopan parlamentissa 13.3.2024 ja se tuli voimaan 1.8.2024Asetuksen soveltaminen alkaa vaiheittain. Asetuksen ensimmäisten säännösten soveltaminen alkaa puolen vuoden kuluttua ja viimeisten kolmen vuoden kuluttua säädöksen voimaantulosta.. EU:n tekoälysäädöksellä on merkittävä rooli siinä, että EU:ssa käytettävät tekoälyjärjestelmät ovat turvallisia ja että ne kunnioittavat ihmisoikeuksiaTekoälysäädöksessä kielletään tietyt kansalaisten oikeuksia uhkaavat tekoälysovellukset. Niitä ovat muun muassa arkaluonteisiin ominaisuuksiin perustuvat biometriset luokittelujärjestelmät ja kasvokuvien kohdentamaton haravointi internetistä tai valvontakamerakuvista kasvojentunnistustietokantojen luomiseksi. Kouluissa ja työpaikoilla ovat kiellettyjä myös tekoälysovellukset, jotka tunnistavat tunteita. Kiellettyjä ovat myös sosiaalinen pisteytys, ennakoiva poliisitoiminta (kun se perustuu yksinomaan henkilön profilointiin tai heidän ominaisuuksiensa arviointiin) ja tekoäly, joka manipuloi ihmisen käyttäytymistä tai hyödyntää ihmisten haavoittuvuuksia. (Euroopan Parlamentti 13.3.2024). Tekoälysäädöksessä on otettu lähestymistavaksi tekoälyjärjestelmienVaikka tekoälylle ei ole ehtinyt muodostua vakiintunutta kaikkialla yhteisesti käytettyä määritelmää, lähestytään tätä EU:n tekoälysäädöksessä tekoälyjärjestelmän käsitteen määrittelyn kautta. EU:n tekoälysäädöksen mukaan tekoälyjärjestelmällä tarkoitetaan konepohjaista järjestelmää, joka on suunniteltu toimimaan käyttöönoton jälkeen vaihtelevilla autonomian tasoilla ja jossa voi ilmetä mukautuvuutta käyttöönoton jälkeen ja joka päättelee vastaanottamastaan syötteestä eksplisiittisiä tai implisiittisiä tavoitteita varten, miten tuottaa tuotoksia, kuten ennusteita, sisältöä, suosituksia tai päätöksiä, jotka voivat vaikuttaa fyysisiin tai virtuaalisiin ympäristöihin (Euroopan parlamentin ja neuvoston asetus (EU) 2024/1689 3 artiklan 1 kohta). säänteleminen riskiperusteisesti. Rahoitussektorilta tekoälysäädöksessä mainitaan kaksi korkean riskin käyttötapausta: luottokelpoisuuden arviointi ja tiettyjen vakuutushakemuksien käsittely. Luonteeltaan tekoälysäädös on pitkälti tuoteturvasääntelyä.
Vaikka suuri osa EU:n tekoälysäädöksestä koskee juuri tekoälyjärjestelmiä, otettiin tekoälysäädökseen viime metreillä mukaan myös yleiskäyttöisiä tekoälymallejaTekoälysäädöksessä tarkoitetaan ((EU) 2024/1689 3 artiklan 63 kohta) ’yleiskäyttöisellä tekoälymallilla’ tekoälymallia, myös silloin, kun tällainen tekoälymalli on koulutettu suurella määrällä dataa käyttäen laajamittaista itsevalvontaa, joka on hyvin yleisluonteinen ja pystyy suorittamaan pätevästi monenlaisia erillisiä tehtäviä riippumatta siitä, miten malli saatetaan markkinoille, ja joka voidaan integroida erilaisiin ketjun loppupään järjestelmiin tai sovelluksiin, lukuun ottamatta tekoälymalleja, joita käytetään tutkimus-, kehitys- tai prototyyppitoimintaan ennen niiden saattamista markkinoille. (General Purpose AI Models, GPAI, tai Foundational Models) koskevia säädöksiä. Tekoälysäädöksessä ohjenuoraksi yleiskäyttöisten tekoälymallien sääntelyyn otettiin se, muodostaako kyseinen tekoälymalli järjestelmätason riskejä. Tekoälysäädös sisältää lisäksi vaatimuksen vesileimojen lisäämisestä tekoälyn avulla keinotekoisesti luotujen vaikeasti autenttisesta materiaalista erotettaviin syväväärennöksiin (deepfake).
Sääntelyn tyypillisenä lähestymistapana on ollut vaalia periaatetta sääntelyn teknologianeutraliteetista, jonka myötä lait ja määräykset eivät edellytä minkään tietyn teknologian käyttöä, eivätkä ne suosi tai syrji mitään teknologiaa. Näin ollen tekoälysäädöksen ohella myös monet muut EU-säädökset, kansalliset lait, alemman tason säännökset ja ohjeet soveltuvat jo nykytilanteessa tekoälyyn. Näitä säädöksiä ovat ainakin EU:n yleinen tietosuoja-asetus ja MiFiD II (ks. esim. algoritmista kaupankäyntiä koskevat säännökset). Tämän ohella tammikuussa 2025 sovellettava finanssialan digitaalista häiriönsietokykyä koskeva asetus (DORA) ja parhaillaan muutosten alla olevan kuluttajaluottodirektiivin hyvää luotonantotapaa ja automaattista päätöksentekoa koskevat säännökset tulee ottaa huomioon tekoälyn käytössä. Myös julkisen sektorin automaattista päätöksentekoa koskeva kansallinen lainsäädäntö, jota sovelletaan myös työeläkevakuutussektorilla, asettaa omat rajoitteensa tekoälyn käytölle. Euroopan pankkiviranomaisen (EPV) raportti koneoppimismallien käyttämisestä pankkien sisäisissä luottoluokitusten (IRB)-laskentamalleissaEPV, “Machine learning for IRB models, Follow-up report from the consultation on the discussion paper on machine learning for IRB models” (August 2023) puolestaan on konkreettinen esimerkki tekoälyn käyttöön liittyen valvojan tekemistä tarkennuksista ja yleisluonteisista suosituksistaRaportin liitteen yleisluonteisia suosituksia voidaan käyttää koneoppimismallien kehitystyön perustana (Recommendations regarding the regulatory compliant use of ML techniques in the context of the IRB framework)..
Yhteenveto
Pankkisektori saattaa olla yksi eniten generatiivisesta tekoälystä hyötyvistä sektoreista. Tekoälyä voidaan hyödyntää rahoitussektorilla tehokkuushyötyjen saavuttamiseen, riskienhallinnan parantamiseen (kuten edistyksellinen data-analytiikka ja strukturoimattomien aineistojen käsittelyn automaatio) ja tuotevalikoiman monipuolistamiseen. Tekoälyhuuman alle on tosin jäänyt se tosiseikka, että tekoälyratkaisuja on kehitetty rahoitussektorilla aktiivisesti jo yli vuosikymmenen verran ja että tekoälyä käytetään jo tänä päivänä laajasti muun muassa algoritmiseen kaupankäyntiin, vakuutusten hinnoitteluun, luottokelpoisuusarviointeihin, markkinaseurantaan, riskianalyyseihin ja talousrikollisuuden torjuntaan.
Elokuussa voimaantulleella EU:n tekoälysäädöksellä pyritään varmistamaan, että tekoälyä hyödyntävät järjestelmät säilyvät turvallisina ja että ne kunnioittavat ihmisoikeuksia. Vaiheittain voimaantulevan tekoälysäädöksen ohella rajoitteita tekoälyn käytölle rahoitussektorilla asettavat useat muut EU-säädökset, kansalliset lait ja alemman tason säännökset. Näitä lakeja ja säädöksiä ovat muun muassa EU:n yleinen tietosuoja-asetus, EU:n yhteinen arvopaperimarkkinoita säätelevä MiFiD II -direktiivi, finanssialan digitaalista häiriönsietokykyä koskeva asetus (DORA), sekä julkisen sektorin (ml. työeläkevakuutussektori) automaattista päätöksentekoa koskeva kansallinen lainsäädäntö.
Tekoälyn avulla saavutettavien hyötyjen ohella on myös syytä varautua tekoälyn rahoitussektoria epävakauttaviin kehityskulkuihin. Tekoälyn yleistyminen voi jo lähitulevaisuudessa johtaa sofistikoituneempiin kyberhyökkäyksiin, edistykselliseen tietomanipulaatioon ja lisätä tulosten selittämättömyydestä, sekä tieto- ja yksityisyydensuojan puutteista aiheutuvia ongelmia. Sen sijaan pidemmällä aikavälillä tekoälystä voi aiheutua riskejä rahoitusvakaudelle laumakäyttäytymisen yleistymisen, markkinavolatiliteetin kasvun, mallivinoumien, keskittymisriskien ja kolmannen osapuolen palveluntarjoajista riippuvuuksien kasvun kautta.
Ihmisen tekemää harkintaa tullaan edelleen tarvitsemaan, jotta voidaan välttää liiallista riippuvuutta tekoälystä. Tämän ohella korostuvat datan ja malliriskien hallinta, jotta tekoälyn käyttö pysyy läpinäkyvänä ja vastuullisena. Nämä tarpeet korostuvat erityisesti riskiltään korkeaksi arvioiduissa tekoälyn käyttötapauksissa. Lisäksi on tärkeää seurata, millaisia vaikutuksia tekoälyjärjestelmien yhä tiiviimmästä keskinäisestä vuorovaikutuksesta voi seurata.
Useat kansainväliset sääntelyelimet, kuten Baselin komitea (BCBS), Financial Stability Board (FSB) ja Kansainvälinen arvopaperimarkkinoiden valvojien järjestö (IOSCO), käyvät parhaillaan läpi tekoälyn viimeisintä kehitystä, ja arvioivat sen vaikutuksia riskeihin kansainvälisessä rahoitusjärjestelmässä Chair of the Basel Committee on Banking Supervision and Governor of the Bank of Spain Keynote speech at the Institute of International Finance Global Outlook Forum, Washington DC. (17.4.2024) Speech by Klaas Knot, Chair, Financial Stability Board, at the IMF/World Bank Constituency meeting in Moldova (11.7.2024) IOSCO Chair’s Briefing & Speech, OECD-FSB AI Roundtable, Paris (22.5.2024) . Tämän ohella useat toimivaltaiset rahoitusviranomaiset pyrkivät lisäohjeistuksella selkeyttämään tekoälyn sääntelyyn liittyviä tulkintakysymyksiä. Euroopan arvopaperimarkkinaviranomainen (ESMA) on julkaissut toukokuussa ohjeistuksen tekoälyn käytöstä sijoituspalveluiden tarjoamiseenESMA Public Statement On the use of Artificial Intelligence (AI) in the provision of retail investment services, (30.5.2024). Euroopan vakuutusviranomainen (EIOPA) julkaisi heinäkuussa alustavan ylätason yhteenvedon vakuutusalan tekoälyjärjestelmiin sovellettavasta oikeudellisesta kehyksestäEIOPA Factsheet on the regulatory framework applicable to AI systems in the insurance sector (15.7.2024). On vielä aikaista sanoa, millaisia sääntelyn kehittämistarpeita generatiivisen tekoälyn yleistymisestä rahoitussektorilla voi aiheutua.
Lähteet
BCBS 2024 “Digitalisation of Finance,” May 2024, https://www.bis.org/bcbs/publ/d575.htm
Brynjolfsson & Brynjolfsson 2024 ”The Intelligence Paradox: AI May Make Markets Less Rational,” Wall Street Journal Opinion, https://www.wsj.com/articles/the-intelligence-paradox-ai-may-make-markets-less-rational-8fadffeb
Danielsson & Uthemann 2024 “On the use of artificial intelligence in financial regulations and the impact on financial stability”, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4604628
EKP 2024 “Financial Stability Review”, May 2024, https://www.ecb.europa.eu/pub/pdf/fsr/ecb.fsr202405~7f212449c8.en.pdf
Gensler & Bailey 2020 “Deep Learning and Financial Stability”, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3723132
McKinsey 2023 “The economic potential of generative AI”, https://www.mckinsey.com/~/media/mckinsey/business%20functions/mckinsey%20digital/our%20insights/the%20economic%20potential%20of%20generative%20ai%20the%20next%20productivity%20frontier/the-economic-potential-of-generative-ai-the-next-productivity-frontier.pdf
OECD 2023 “Generative Artificial Intelligence in Finance”, OECD Artificial Intelligence Papers, No. 9, OECD Publishing, Paris, https://doi.org/10.1787/ac7149cc-en
Shabsigh and Boukherouaa 2023 “Generative Artificial Intelligence in Finance: Risk Considerations”, IMF Fintech Note 2023/006. International Monetary Fund, Washington, DC, https://www.imf.org/en/Publications/fintech-notes/Issues/2023/08/18/Generative-Artificial-Intelligence-in-Finance-Risk-Considerations-537570
U.S. Department of Treasury 2024 “Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector”, https://home.treasury.gov/system/files/136/Managing-Artificial-Intelligence-Specific-Cybersecurity-Risks-In-The-Financial-Services-Sector.pdf