Foundation-mallit, kuten GPT-3 ja BERT, ovat mullistaneet koneoppimisen kenttää tarjoamalla valtavia mahdollisuuksia laajojen datamäärien käsittelyyn ja monimutkaisten tehtävien ratkaisemiseen. Kuitenkin niiden käyttöön liittyy useita merkittäviä rajoitteita, jotka on erityisen tärkeää ymmärtää, kun tarkastellaan sovelluksia esimerkiksi kyberturvallisuuden tiedustelussa (Cyber Threat Intelligence, CTI). Yksi keskeisistä ongelmista on kustannustehokkuus: foundation-mallien käyttö API-rajapintojen kautta aiheuttaa jatkuvia merkittäviä kuluja, kun taas esimerkiksi BERT-mallien käyttöönotto paikallisella GPU-laitteistolla on alkuinvestoinniltaan korkea, mutta operointikuluiltaan alhaisempi pitkällä aikavälillä. Tämä tekee BERT-tyyppisistä malleista kestävämmän ja energiatehokkaamman vaihtoehdon tilanteissa, joissa ennusteita tehdään jatkuvasti pitkän ajan kuluessa.

Energiankulutuksen ja hiilidioksidipäästöjen näkökulmasta foundation-mallien ympäristövaikutukset ovat huomattavia. Esimerkiksi GPT-3:n kouluttaminen on tuottanut jopa 550 000 kg CO2-päästöjä, kun taas BERT-tyyppiset mallit ovat selvästi ympäristöystävällisempiä, vaikkakin lukuja tulee aina tulkita varauksella laitteiston ja laskentamenetelmien mukaan. Lisäksi foundation-mallien suuri tallennustilan tarve, esimerkiksi GPT-3 vaatii noin 350 GB, verrattuna pieneen 4–12 GB:n muistinkäyttöön BERT-malleissa, korostaa infrastruktuurin resurssivaatimusten eroja.

Tietosuojan näkökulmasta API-pohjainen mallien hyödyntäminen voi aiheuttaa merkittäviä riskejä, sillä ulkoiset palveluntarjoajat käsittelevät dataa. Tämä voi olla ongelmallista esimerkiksi CERT-yksiköille, jotka käsittelevät luottamuksellista, suljettua dataa, eikä sen lähettäminen ulkopuolisille palvelimille ole mahdollista tai sallittua. Vaikka tutkimuksen kontekstissa API:n käyttö rajoittuu koulutusvaiheeseen ja vain pienen datamäärän siirtoon, aiheuttaa tämä kuitenkin tietosuojahuolia, jotka on otettava vakavasti.

Eettiset kysymykset nousevat esiin foundation-mallien kehityksen ja käytön keskittyessä harvojen suurten toimijoiden käsiin. Näillä yrityksillä on ainutlaatuinen pääsy valtaviin laskentatehoihin ja dataresursseihin, mikä voi johtaa monopoliasemaan, jossa ne säätelevät pääsyä teknologiaan ja vaikuttavat yhteiskunnalliseen keskusteluun. Ilman asianmukaista sääntelyä on riski, että malleihin sisällytetyt ennakkoluulot ja sensuuri voivat vääristää informaatiovirtoja ja rajoittaa ilmaisunvapautta.

Foundation-malleille tyypillinen ongelma on myös niin sanottu "hallusinaatio" — niiden taipumus tuottaa vakuuttavan kuuloista mutta väärää tai harhaanjohtavaa tietoa. Tämä voi heikentää käyttäjien luottamusta ja estää laajempaa hyväksyntää. Vaikka tämä ongelma on vähemmän merkittävä luokittelutehtävissä, joissa malli arvioi tietyn luokan olemassaolon, se korostuu mallien selittäessä päätöksiään.

Foundation-mallit ovat myös rajoittuneita dynaamisen ohjelman synteesin osalta. Ne pystyvät muistamaan ja toistamaan opittuja mallipohjia, kuten salausalgoritmeja, mutta epäonnistuvat, kun ne kohtaavat tuntemattomia tai harvinaisia muuttujia. Tämä rajoittaa niiden kykyä ratkaista abstrakteja tai laskennallisesti monimutkaisia ongelmia, mikä näkyy esimerkiksi ARC-tietojoukossa, jossa ihmisten ratkaisutaso on huomattavasti korkeampi kuin parhaiden algoritmien.

Lisäksi nykyaikaisten benchmark-tietojoukkojen soveltuvuus mallien arviointiin on kyseenalaista, koska testidatat voivat olla osittain osana mallien koulutusmateriaalia. Tämä tekee objektiivisen suorituskyvyn arvioinnin haastavaksi ja korostaa läpinäkyvyyden puutetta suurten foundation-mallien tutkimuksessa.

Pienemmät foundation-mallit, kuten Llama ja Alpaca, tarjoavat lupaavia ratkaisuja joihinkin yllä kuvattuihin haasteisiin, mahdollistamalla paikallisen ajon ja vähentämällä yksityisyys- ja eettisiä ongelmia. Ne kuitenkin vaativat edelleen merkittäviä laskentaresursseja, ja niiden koolla mitattuna ne ovat useita kertoja suurempia kuin perinteiset BERT-mallit. Monet pienemmistä malleista hyödyntävät laadukasta dataa, jota tuottavat suuremmat mallit, mikä avaa uusia mahdollisuuksia tiedon rikastamiseen ja mallien kouluttamiseen vähäisellä alkuperäisdatan tarpeella.

Foundation-mallien menestys perustuu pitkälti vahvistusoppimiseen ihmispalautteen avulla (RLHF), jossa ihmisten antama palaute ja merkintädata ovat keskeisessä roolissa. Tämä tuo esiin, että myös foundation-malleilla merkintätyö on kallista ja työlästä, mikä edelleen korostaa tutkimusmenetelmien ja datan tehokkaan käytön merkitystä.

On tärkeää ymmärtää, että foundation-mallien hyödyt ja rajoitteet liittyvät olennaisesti sovelluksen kontekstiin. Kyberturvallisuuden kaltaisissa erityistehtävissä mallit voivat tarvita tarkan ja yksilöllisen määritelmän, mikä haastaa niiden kyvyn yleistää ja soveltaa opittua tietoa dynaamisesti. Tämä korostaa tarvetta yhdistää foundation-mallien voima erikoistuneisiin menetelmiin, jotka voivat tuottaa tarkempaa, luotettavampaa ja kustannustehokkaampaa analyysiä.

Miten tekstin luominen parantaa pienetietojen analysointia ja luokittelua luonnollisessa kielen käsittelyssä?

Syväoppiminen on saanut merkittävää huomiota, sillä sen tehokkuus kasvaa huomattavasti lisääntyneen laskentatehon ja suurempien koulutusdatamäärien myötä. Tietyissä oppimistehtävissä, erityisesti pienetietojen olosuhteissa, koulutusdatan kehittäminen voi olla jopa tärkeämpää kuin luokittelijoiden valinta ja mallintaminen. Koulutusdatalla on suuri merkitys, koska ilman riittäviä tietoja luokittelu voi kärsiä merkittävästi. Tässä yhteydessä datan laajentamismenetelmät ovat nousseet keskiöön, sillä niiden avulla voidaan luoda keinotekoisesti koulutusdataa, jossa on erityisiä muutoksia, jotka auttavat luokittelijoiden kehittämisessä.

Nykyiset datan laajentamisen tutkimukset keskittyvät syväoppimisalgoritmeihin, jotka ovat monilla luokittelutehtävillä huipputasoa, mutta ne kärsivät edelleen usein suuresta hajonnasta, jos niitä ei syötetä riittävällä määrällä tietoa. Tekoälyn avulla luotu koulutusdata toimii eräänlaisena säännönmukaisuuden lisääjänä, minkä vuoksi yksinkertaisemmat ratkaisut ovat usein suositeltavampia. Lisäksi datan epätasapainoa voidaan käsitellä ja luokittelijoiden turvallisuutta voidaan parantaa, jolloin ne ovat vähemmän alttiita taitavasti muokattujen syötteiden huijaamiselle.

Luonnollisessa kielen käsittelyssä (NLP) datan luominen voi merkittävästi edistää sovelluksia, joissa koulutusdataa on vähän tai jossa merkintä on kallista. Esimerkiksi hätätilanteiden ja kriisitiedonhallinnan alalla on tarve nopeasti tunnistaa ja luokitella viestejä ja kuvia hätätilanteiden aikana. Pienillä ja keskikokoisilla yrityksillä (PK-yrityksillä) voi myös olla vaikeuksia kerätä tarpeeksi laadukasta ja laajaa merkityksellistä dataa kaupallisille tehtäville, kuten brändianalyysille tai uutisluokittelulle. NLP:ssä suuri haaste on luoda yleisiä sääntöjä tekstidatan muokkaamiseksi automaattisesti siten, että merkitseminen säilyy laadukkaana.

Longpre, Wang ja DuBois esittävät, että nykyiset esikoulutus- ja siirtoturvallisuusmenetelmät luonnollisessa kielen käsittelyssä täyttävät jo datan laajentamisen tavoitteet. Heidän mukaansa pelkkä syötteen muuttaminen ja luominen ei tuota uusia kielimalleja eikä auta parantamaan esikoulutettujen mallien luokitteluominaisuuksia. Tässä vaiheessa esitämme kehittyneemmän luomismenetelmän, joka tuo lisää kieliopillista vaihtelua ja tuottaa näin todella uusia esimerkkejä. Menetelmämme koostuu kahdesta alamenetelmästä, joista toinen on kontekstuaalisesti ehdollinen (pitkille teksteille) ja toinen kontekstista riippumaton (lyhyille teksteille). Näin ollen tämä lähestymistapa ei luo pelkästään samankaltaisia instansseja, vaan aivan uusia ja erottuvia tapauksia, jotka ovat hyödyllisiä esikoulutettujen mallien yhdistämisessä.

Tutkimuksessamme, joka käsitteli 11 erilaista datasettiä, saavutimme huomattavia tarkkuuden lisäyksiä – jopa 15.53% ja 3.56% pienetietojen käsittelyssä verrattuna alkuperäiseen tilaan ja toiseen datan laajentamistekniikkaan. Tämän lisäksi näyttöjä saatiin todellisista sovelluksista, joissa parannuksia oli jopa +4.84 F1-pisteessä. Kuitenkin on tärkeää huomioida, että tätä lähestymistapaa ei voida soveltaa kaikissa tilanteissa. Menetelmämme saattaa olla vähemmän tehokas tietyissä konteksteissa ja erityisesti, jos käytettävä data ei sovi ehdotettuun lähestymistapaan. Tästä syystä on tärkeää ymmärtää, millaisissa ympäristöissä tämä menetelmä toimii parhaiten ja milloin se ei ehkä tuota toivottuja tuloksia.

Erityisesti pienetietojen analysointiin ja luokitteluun liittyen on tärkeää, että eri sovelluksissa pyritään ymmärtämään datan luonnollinen monimuotoisuus ja eriyttäminen. Esimerkiksi pitkien ja lyhyiden tekstien eroavaisuuksia on tärkeää käsitellä erikseen, koska lyhyet tekstityypit, kuten Twitter-viestit, asettavat omat haasteensa luokittelulle ja datan laajentamiselle. Sen lisäksi, että lisätty tarkkuus parantaa ennustetarkkuutta, se voi myös tuoda esiin datan syvällisempiä rakenteita ja piirteitä, joita perinteiset menetelmät eivät välttämättä tavoita.

Lopuksi on huomattava, että tämä lähestymistapa ei ole universaali ratkaisu kaikkiin ongelmiin, mutta sen tarjoamat lisätarkkuudet voivat olla merkittäviä tietyillä alueilla, erityisesti silloin, kun käytettävissä on rajallista tietoa. Käytettäessä tekstigeneraatiota datan laajentamiseen on tärkeää ottaa huomioon, että menetelmän tehokkuus vaihtelee tilanteen ja datan luonteen mukaan.

Kuinka XAI-Attack voi parantaa koneoppimismallien robustiutta ja estää virheellisten oppimismenetelmien kehittymisen

XAI-Attack-menetelmä tarjoaa uuden lähestymistavan tekoälymallien haavoittuvuuden tutkimiseen, erityisesti kielimalleissa. Sen avulla pystytään tunnistamaan ja hyödyntämään virheellisesti opittuja piirteitä, kuten yksittäisten sanojen liiallista painottamista, jotka saattavat vaikuttaa mallin ennusteisiin. Tällaiset väärin opitut piirteet voivat johtaa niin sanottuun "oikopolkuoppimiseen" (shortcut learning), jossa malli ei muodosta monimutkaisempia sääntöjä, vaan tekee päätöksiä pelkästään yksittäisiin sanoihin perustuen. Tämä on nähtävissä monilla yleisillä luonnollisen kielen käsittelyn (NLP) testeillä, joissa mallit saavuttavat korkeita pisteitä, mutta käyttävät silti yksinkertaisia, usein merkityksettömiä vihjeitä, jotka eivät liity suoraan etiketin semantiikkaan. Tämä ilmiö osoittaa, kuinka haavoittuvia mallit voivat olla, vaikka ne suoriutuvat hyvin perinteisissä testeissä.

Tutkimuksemme osoittaa, että vaikka suuret esikoulutetut mallit, kuten GPT-3, saavat erittäin hyviä tuloksia tavanomaisissa testissä, ne voivat olla yllättävän haavoittuvia tiettyjen erityisten sanojen osalta. Esimerkiksi, vaikka malli näyttää saavuttavan korkeat tulokset tavanomaisilla testiaineistoilla, se saattaa luottaa vain muutamaan sanaan, joka vaikuttaa ennustuksiin ilman syvempää ymmärrystä kokonaisuudesta. Tämä on keskeinen huolenaihe testiaineistojen ja kehitysdatan biasien osalta, jotka voivat piilottaa mallin todelliset heikkoudet. Onkin tärkeää, että validointi- ja testisetti edustavat mahdollisimman tarkasti todellisia käyttötilanteita, ja näitä settejä tulisi jatkuvasti arvioida uudelleen.

XAI-Attack-menetelmän avulla voidaan myös paljastaa syvällisempää tietoa mallien sisäisistä vinoumista ja auttaa muokkaamaan oppimismenetelmiä niin, että ne oppivat luomaan kestävämpiä sääntöjä ja vähemmän altistuvat vääristymille. Adversaarinen harjoittelu, jossa malleja opetetaan reagoimaan väärinopituisiin esimerkkeihin, on ollut tehokas tapa lisätä mallin yleistä robustiutta. Tämän tutkimuksen aikana on havaittu, että malli voi tulla yhä kestävämmäksi, kun sille syötetään riittävä määrä adversaarisia esimerkkejä, jotka auttavat sitä tunnistamaan ja "unohtamaan" väärin opitut piirteet. Toisaalta liian pieni määrä tällaisia esimerkkejä voi rajoittaa mallin kykyä yleisesti parantaa suorituskykyään ja johtaa vain yksittäisten virheellisesti opittujen sanojen poistamiseen.

Tärkeää on myös, että XAI-Attack vaatii erityisen "hold-out" -aineiston, joka voi olla joko kehityssetti tai osa alkuperäistä koulutussettiä. Tämä aineisto on keskeinen, sillä se mahdollistaa tarkempien väärinopittujen mallipiirteiden tunnistamisen. Kuitenkin edelleen jää avoimeksi, kuinka suuri osa aineistosta tarvitaan, jotta mallin robustiutta voidaan parantaa tehokkaasti. Tähän liittyvä tutkimus on tärkeää, jotta voidaan ymmärtää paremmin, kuinka paljon dataa tarvitaan ja kuinka sen koko vaikuttaa adversaarisen koulutuksen tehokkuuteen.

Tutkimuksessa tutkittiin myös XAI-Attackin soveltamista erilaisiin kielimalleihin. Vaikka tutkimus rajoittui pääasiassa englannin kieleen, uskomme, että menetelmä toimii hyvin myös muilla kielillä. Tulevaisuuden tutkimukset voisivat laajentaa tätä käsitettä ja tutkia, kuinka erikieliset mallit reagoivat erilaisiin adversaarisiin esimerkkeihin.

XAI-Attack tarjoaa mahdollisuuden entistä paremmin ymmärtää, miksi mallit tekevät virheellisiä ennusteita, ja kuinka niiden oppimismenetelmiä voidaan parantaa kestävimmiksi. Erityisesti, kun mallit opettavat itseään tietyille piirteille, kuten yksittäisille sanoille, on tärkeää tunnistaa ja poistaa nämä piirteet, jotta mallit pystyvät kehittymään entistä luotettavammiksi ja kestävämmiksi tulevaisuudessa. Adversaarinen koulutus, jossa mallille esitetään epäonnistuneita ennusteita ja virheellisesti opittuja piirteitä, voi olla avainasemassa tämän tavoitteen saavuttamisessa.

Adversaarinen testaus ja XAI-Attack voivat olla erityisen hyödyllisiä käytännön sovelluksissa, kuten turvallisuuskriittisissä järjestelmissä, joissa väärin opitut mallit voivat aiheuttaa vakavia seurauksia. Tämän vuoksi on tärkeää pitää jatkuvaa huolta siitä, että mallit eivät pelkästään toimi hyvin vakiintuneilla testeillä, vaan myös ne kykenevät käsittelemään ja sopeutumaan virheellisiin, mutta realistisiin, syötteisiin.